ArturoSoria.com: Artículos interesantes y guía selecta de Arturo Soria
 Arturo Soria > Artículos > eprofecias > Ordenando la red: Utopías y Google  
separador

Ordenando la red: Utopías y Google

por Fernando Plaza
Publicado: 20/01/2001  

Fernando Plaza es el responsable de que en este web todo funcione corréctamente. De mayor le gustaría ser igualito que Grissom de la serie CSI Las Vegas.

Resumen:
El mundo de los motores de busqueda y de los directorios quedo revolucionado con la entrada de Google, que poco a poco se ha ido imponiendo como el preferido por los internautas de todo el mundo.

Internet es sin duda la red de la información, no obstante, la información en grandes cantidades y sin orden puede crear un efecto contrario al informativo, es lo que se podría llamar la desinformación de Internet.

La tácticas de desinformación de la opinión pública son frecuentes en enfrentamientos bélicos aunque también en periodos de paz durante procesos electorales o en países de medios de comunicación oligárquicos y poco independientes. Pero no nos estamos refiriendo a este tipo de desinformación dolosa, sino a la que se produce como consecuencia de la inmensa cantidad de información vertida en Internet, de distintas fuentes, en distintos idiomas, de distintas paises de procedencia...

Los buscadores se crearon con el objetivo de dar orden a este caos y ayudar al internauta a encontrar lo que realmente busca, si bien últimamente estudios como los desarrollados por Steve Lawrence y Lee Giles de NEC Research Institute, sobre "Accesibilidad y Distribución de Información en la Web" comparan la situación actual de los buscadores con un listín telefónico desactualizado y al que le han arrancado una buena parte de sus páginas.

A la hora de clasificar este tipo de recursos hay que distinguir entre:

Los Directorios, como el archiconocido Yahoo!, en donde existe un equipo de personas "de carne y hueso" (Surfers) dedicadas al análisis de las páginas sugeridas para estimar si deben o no pasar a formar parte del directorio. Apostar por el componente humano aumenta la calidad del contenido si bien estos Directorios adolecen de una excesiva lentitud y además sólo llegan a catalogar una cuarta parte de todas las webs que les son enviadas.

Los Motores de Búsqueda, son buscadores de páginas, indexan de manera automatizada, en teoría todo el contenido de cada una de las páginas que componen un sitio web y luego lo jerarquizan conforme a una serie de criterios y algoritmos. La automatización permite reducir el tiempo del proceso a unas pocas semanas si bien existen otras limitaciones:

  • En primer lugar, la calidad de esos algoritmos y variables de jerarquización: Lo que se traduce en resultados de poca calidad y relevancia, con la excepción de Google (y algún otro) que gracias a su tecnología PageRank consiguen hacerte sentir un internauta afortunado.
  • En segundo lugar, ya no sólo es el problema de indexar millones de páginas webs, sino el gran coste que implica almacenar toda esa información indexada. Los buscadores tienen un grave problema de espacio, con lo cual se ven obligados a liberar gran parte de esa información para dejar sitio a la nueva.
  • En tercer lugar, todo proceso automatizado, aunque evolucione constantemente, se puede burlar. Los denominados "Search spammers" estudian el comportamiento de los buscadores y crean páginas específicamente diseñadas para puntuar alto en los mismos, consiguiendo así más visitas. Estas tácticas no son del todo malas, siempre y cuando se persiga atraer visitantes que realmente buscan el contenido de tu página, lo problemático es cuando se intenta capturar tráfico indiscriminadamente, pues es entonces cuando la calidad del buscador se ve adulterada.

1 2 | Siguiente »



Copyright 2000 - 2014 © Rent & Buy S.A.





Si quieres puedes

Preparar artículo para imprimir Imprimir

También puedes

Ver más artículos
de este consultorio