Estrategias y mecanismos de búsqueda en la web invisible

Pilar María Moreno Jiménez

Mayo, 2003. Última actualización: mayo, 2005.

Resumen

Se denomina web invisible o profunda a la información que no puede recuperarse con los mecanismos de búsqueda comunes. Estos mecanismos tratan de abarcar toda la web, pero se calcula que los mayores motores de búsqueda alcanzan a indizar sólo entre un tercio y la mitad de los documentos disponibles. La web invisible no sólo es de mayor tamaño que la web visible o superficial sino que crece a mayor velocidad. Asimismo, mucha información disponible en la web profunda, como la que se encuentra en bases de datos, tiene un alto valor potencial para el usuario.

La multiplicidad de mecanismos de rastreo, indización, recuperación y organización de documentos en la web puede causar confusión al usuario común. Además, el número de motores de búsqueda, así como los híbridos resultado de la combinación de diferentes mecanismos, ha aumentado. Esto hace necesario clasificar y diferenciar los tipos de herramientas disponibles.

En este documento recomiendo algunas estrategias útiles para la búsqueda en la web y  presento una compilación de recursos de búsqueda en la web invisible o profunda.

 

Tabla de contenido

Introducción

1. Mecanismos de búsqueda en la web

2. Estrategias de búsqueda en la web

3. Caracterización de la web invisible o profunda

4. Herramientas de búsqueda en la web profunda

5. Estrategias de búsqueda en la web profunda

6. Compilación de recursos de búsqueda en la web profunda

7. ¿Qué tan invisible es hoy la web invisible?

8. Bibliografía

 

Introducción

El término “web invisible” fue utilizado por primera vez por la Dra. Jill Ellsworth para denominar la información que resultaba “invisible” para las maquinarias de búsqueda convencionales en la web (Ellsworth, 1995). También se la denomina “web profunda” (deep web), por oposición a la “web superficial” (surface web) cuya información puede recuperarse con los buscadores de Internet (Bergman, 2000). Un buscador es un sitio web cuyo propósito principal consiste en que el público pueda encontrar información. Estos mecanismos y el software que los apoya tratan de indizar toda la web, por lo que generan y mantienen enormes bases de datos recuperables. A pesar de su pretendida exhaustividad, se calcula que los mayores motores de búsqueda indizan sólo entre un tercio y la mitad de los documentos disponibles al público en la Red (Turner, 2003). Un estudio muy citado de Bright Planet ha estimado que la información contenida en la web invisible es aproximadamente 550 veces mayor que la de la web superficial y crece a mucha mayor velocidad (Bergman, 2000). Un estudio posterior de Cyveillance calcula que el tamaño de la web profunda es 275 veces mayor que el de la web visible (Murray, 2000, citado en Ouf, 2001). Estimaciones posteriores, en cambio, señalan que el tamaño de la web invisible es sólo entre 2 y 50 veces mayor que el de la web visible (Sherman y Price, 2001b). Las diferencias en las cifras se deben a las diferentes metodologías utilizadas por los autores. En cualquier caso, el valor de la información contenida en la llamada web profunda justifica su estudio y el de sus formas de acceso.

1. Mecanismos de búsqueda en la web

La multiplicidad de términos con que se alude a los mecanismos de rastreo, indización, recuperación y organización de documentos en la web puede causar confusión al usuario común. Lo cierto es que cada herramienta de búsqueda funciona y tiene un propósito y alcance diferentes, pero cada vez más las diferentes herramientas se combinan dando lugar a híbridos, que pueden dificultar la comprensión del funcionamiento interno de estos mecanismos. Una dificultad adicional es el número creciente de mecanismos disponibles, lo que hace aún más necesario clasificarlos y diferenciarlos.

Buscadores

A los softwares que usan los llamados buscadores, motores o maquinarias de búsqueda (search engines) para localizar páginas agregables a sus bases de datos también se les denomina indistintamente “arañas” (spiders), “rastreadores” (crawlers) o robots (en el contexto web). Estos rastrean e indizan de forma automática páginas web, así como todos los documentos referenciados en ellas. Los buscadores también añaden a sus bases de datos las páginas de cuya existencia son informados directamente por sus autores, así como los documentos referenciados en las mismas. Los buscadores presentan interfaces para el público, que consisten en cuadros donde realizar búsquedas de forma sencilla. Altavista, Ask Jeeves y Google, entre otros, son buscadores.

Los buscadores arrojan resultados sobre las búsquedas realizadas en sus propios índices y no sobre la web directamente. Esto último sería imposible debido al volumen de información y al tiempo requerido para realizar la búsqueda. El rastreo de páginas web que efectúan los robots se realiza con periodicidad variable y, por economía, tiende a no ser muy frecuente. Por ello, siempre existe una diferencia entre lo que pueden recuperar los buscadores y lo que realmente se encuentra en la web.

Aparte del volumen y frecuencia de indización de documentos, la diferencia más notoria entre los buscadores es su fórmula para calcular la relevancia de la información recuperada y ordenar así su presentación. Algunos buscadores se basan en un análisis estadístico de frecuencia de palabras en el texto, otros en el análisis de la frecuencia con que las páginas están ligadas a otras. En algunos casos, los buscadores muestran los resultados indicando el grado de relevancia de cada documento, mediante signos como estrellas, o bien con porcentajes.

Un estudio del 2000 (Notess, citado por Sherman y Price, 2001b) demostró que existe poco solapamiento entre buscadores, lo cual tal vez justifica su proliferación, ya que cada uno va cubriendo diferentes áreas del espacio web, sin que por ahora sea posible técnicamente que ninguno sea exhaustivo.

Metabuscadores

Los metabuscadores (metasearch engines) son servidores web que realizan búsquedas en muchos buscadores y/o directorios y presentan un resumen de los resultados, eliminando duplicaciones. Los metabuscadores no se sirven de robots, sino que van a buscar directamente a los índices de cada buscador. Dogpile, Mamma, Metacrawler o InfoSpace son ejemplos de metabuscadores.

Los metabuscadores, al igual que los buscadores, suelen presentar los resultados ordenados por relevancia y muchas veces indican de qué buscadores específicos se ha recuperado cada documento.

Una limitación de los metabuscadores es que no suelen presentar opciones de búsqueda avanzada, con lo cual se sacrifica la precisión en los resultados de las búsquedas.

Existen sitios web concentradores de buscadores y/o directorios, donde es posible realizar búsquedas sucesivas en varios de ellos, seleccionándolos de listas preestablecidas. A veces, en estos directorios los buscadores y/o directorios se encuentran clasificados por especialidad o cobertura geográfica. En otros casos, como en Metasearch por ejemplo, existe un mecanismo que "traduce" la fórmula de búsqueda y permite realizar búsquedas sucesivas en varios buscadores y/o directorios.

Directorios

Los directorios (directories) son organizados manualmente a partir del registro de páginas por parte de sus autores e implican una selección editorial y un proceso de categorización jerarquizada. LookSmart y Yahoo! son algunos de los directorios más conocidos.

Muchos directorios se especializan en un conjunto específico de recursos, los cuales generalmente son cuidadosamente seleccionados y descritos por los editores. Los editores de un directorio pueden ser empleados por la empresa que lo realiza y entonces hablamos de un modelo cerrado (closed model directories), que implica un mayor costo, pero también un mayor grado de calidad. Si los editores del directorio son voluntarios, entonces se habla de un modelo abierto (open model directories), lo que significa un costo y calidad inferiores. Los criterios de selección de recursos pueden ser explícitos o no, y variar según los editores, especialmente en los modelos abiertos.

Las categorías en las que se organiza el directorio pueden tener un número variable de recursos asociados, con lo cual algunas veces unas categorías resultan saturadas y otras muy poco representadas. En ocasiones, razones como la falta de tiempo, conocimientos o habilidades de los editores, limitan la cobertura de los directorios. Por otro lado, la política de solicitar un cargo por incluir páginas, que han adoptado algunos directorios, puede desalentar la inclusión de recursos potencialmente valiosos.

En cuanto a la actualización, como el mantenimiento del directorio debe ser manual, la verificación de ligas puede realizarse tan frecuentemente como se quiera, aunque esto no siempre sucede.

Muchos buscadores web incluyen un sistema de navegación en forma de directorio para orientar la búsqueda de recursos en sus bases de datos. Por otro lado, debido a que la mayoría de los directorios tienen un tamaño relativamente reducido, algunos directorios complementan sus resultados con los de una búsqueda en algún buscador. Algunos sitios incluyen dos opciones de búsqueda, en directorios compilados manualmente, o bien en buscadores que se sirven de robots.

Frecuentemente los directorios también son denominados maquinarias de búsqueda (search engines).  Pero es importante distinguir entre los mecanismos que son buscadores y los que son directorios, ya que, como hemos visto, se conforman y funcionan de manera diferente. Así, las formas de búsqueda más eficientes varían en unos y otros. Mientras que la búsqueda por palabras es más adecuada en los buscadores, la navegación es más recomendable en los directorios. Derivado de ello, las búsquedas en las categorías de un directorio elaborado para un buscador, o las búsquedas por palabras en un directorio, presentarán ciertas limitaciones. Por ejemplo, si se busca por palabras en un directorio, éstas se extraerán del índice de ligas (links) y anotaciones a esas ligas, que básicamente componen el directorio y que excluyen el texto completo de las páginas referenciadas, a diferencia de los buscadores.

Guías

Diversos especialistas y entidades académicas se dan a la tarea de elaborar y mantener páginas concentradoras de recursos web seleccionados por áreas de especialidad, a modo de directorios anotados o guías temáticas (subject guides), que pueden contener recursos que no son recuperables con un buscador común. Estos directorios anotados o guías temáticas suelen tener un alto grado de calidad, ya que comprometen el prestigio de los autores e instituciones involucradas. La selección de recursos suele ser muy cuidadosa y su actualización frecuente. En ocasiones diversas instituciones se asocian formando “circuitos” (web rings) para la elaboración cooperativa de estas guías, dividiéndose cada una de las partes. Un buen ejemplo de ello es The WWW Virtual Library.

Los directorios anotados o guías pueden incluir, además, algún mecanismo de búsqueda en sus páginas o en la web en general.

Tutoriales

Comúnmente no basta con conocer la variedad de herramientas de búsqueda disponibles en la web, sino que se requiere una orientación sobre su funcionamiento, sobre qué estrategias seguir para trazar una adecuada ruta de búsqueda y sobre cómo elegir los mejores instrumentos para cada necesidad.

How to Choose a Search Engine or Directory de la Universidad de Albany en Estados Unidos y las guías de SearchAbility y de la Universidad de Leiden en Holanda A Collection of Special Search Engines, orientan al usuario en el amplio mundo tanto de los recursos especializados en la web como de las maquinarias que permiten su localización.

Software especializado

Los agentes auxiliares para las búsquedas en la web son un tipo de programas que operan junto con los navegadores web y añaden funcionalidades a éstos, como el manejo de conceptos, en lugar de palabras, para recuperar información. Flyswat, Kenjin y Zapper son algunos de estos programas. Otros agentes residen en el cliente web y permiten, por ejemplo, realizar búsquedas simultáneas en varios buscadores, eliminar las ligas muertas (dead links), refinar los resultados de las búsquedas o acceder a algunos sitios de la web invisible. Copernic, por ejemplo, es uno de estos agentes.

2. Estrategias de búsqueda en la web

Muchas veces, resulta tan frustrante no encontrar información en la web, como confuso disponer de demasiadas opciones de búsqueda y no saber cómo emprenderla.

A continuación presento algunas estrategias generales que deben tenerse en cuenta para utilizar las diferentes herramientas de búsqueda en la web de forma más rápida y eficiente. Los rubros bajo los cuales aparecen son orientativos.

Estrategias generales

·         Usar varios recursos de búsqueda, y no ceñirse a uno exclusivamente para todos los tipos de búsqueda.

·         Elaborar y mantener una lista propia de buscadores, metabuscadores, directorios, guías y recursos más útiles. Guardar la selección en un archivo de “Favoritos” (bookmarks) en nuestra computadora y/o en un servicio de acceso remoto a “favoritos” que permita consultar el archivo desde cualquier computadora con acceso a la web, como Backflip.

·         Consultar a los bibliotecarios para recibir orientación sobre estrategias de búsqueda y localización de recursos de información en la web, y para obtener documentos.

Selección de herramientas

·         Usar los tutoriales para aprender a seleccionar y utilizar las diferentes herramientas de búsqueda.

Objetivo de la búsqueda

·         Usar buscadores o metabuscadores para localizar información de la que poseemos datos específicos.

·         Usar directorios o guías para explorar áreas de interés temático.

Forma de búsqueda

·         Usar buscadores o metabuscadores para realizar búsquedas por palabras.

·         Usar directorios o guías para revisar por categorías.

Especialización de la búsqueda

·         Usar metabuscadores para realizar búsquedas generales en muchos buscadores a la vez.

·         Usar los concentradores o directorios de buscadores para buscar en varios buscadores especializados.

Precisión de la búsqueda

·         Seleccionar e instalar en nuestra computadora la versión gratuita de algún motor avanzado o agente auxiliar para las búsquedas en la web.

·         Solicitar la adquisición para uso institucional de la versión completa de algún motor avanzado o agente auxiliar para las búsquedas en la web.

Mucha información recuperada

·         Usar buscadores con opciones avanzadas de búsqueda.

·         Usar directorios anotados o guías.

Selección de recursos

·         Usar las guías temáticas para conocer los principales recursos de información que cubren nuestros intereses.

·         Usar directorios especializados para búsquedas exhaustivas de recursos.

Poca información recuperada

·         Usar mecanismos de búsqueda en la web invisible cuando se hayan agotado los mecanismos de búsqueda en la web superficial.

·         Consultar a especialistas que conozcan recursos especializados.

·         Buscar en recursos adicionales si no se encuentra el material en la web.

3. Caracterización de la web invisible o profunda

Sherman y Price (2001a) identifican cuatro tipos de contenidos invisibles en la web: la web opaca (the opaque web), la web privada (the private web), la web propietaria (the proprietary web) y la web realmente invisible (the truly invisible web).

La web opaca

Se compone de archivos que podrían estar incluidos en los índices de los motores de búsqueda, pero no lo están por alguna de estas razones:

·         Extensión de la indización: por economía, no todas las páginas de un sitio son indizadas en los buscadores.

·         Frecuencia de la indización: los motores de búsqueda no tienen la capacidad de indizar todas las páginas existentes; diariamente se añaden, modifican o desaparecen muchas y la indización no se realiza al mismo ritmo.

·         Número máximo de resultados visibles: aunque los motores de búsqueda arrojan a veces un gran número de resultados de búsqueda, generalmente limitan el número de documentos que se muestran (entre 200 y 1000 documentos).

·         URL’s desconectados: las generaciones más recientes de buscadores, como Google, presentan los documentos por relevancia basada en el número de veces que aparecen referenciados o ligados en otros. Si un documento no tiene una liga en otro documento será imposible que la página sea descubierta, pues no habrá sido indizada.

La web privada

Consiste en las páginas web que podrían estar indizadas en los motores de búsqueda pero son excluidas deliberadamente por alguna de estas causas:

·        Las páginas están protegidas por contraseñas (passwords).

·        Contienen un archivo “robots.txt” para evitar ser indizadas.

·        Contienen un campo “noindex” para evitar que el buscador indice la parte correspondiente al cuerpo de la página.

La web propietaria

Incluye aquellas páginas en las que es necesario registrarse para tener acceso al contenido, ya sea de forma gratuita o pagada. Se dice que al menos 95% de la web profunda contiene información de acceso público y gratuito (Turner, 2003)

La web realmente invisible

Se compone de páginas que no pueden ser indizadas por limitaciones técnicas de los buscadores, como las siguientes:

·         Páginas web que incluyen formatos como PDF, PostScript, Flash, Shockwave, programas ejecutables y archivos comprimidos.

·         Páginas generadas dinámicamente, es decir, que se generan a partir de datos que introduce el usuario.

·         Información almacenada en bases de datos relacionales, que no puede ser extraída a menos que se realice una petición específica. Otra dificultad consiste en la variable estructura y diseño de las bases de datos, así como en los diferentes procedimientos de búsqueda.

4. Herramientas de búsqueda en la web profunda

Buscadores

En general, los buscadores han mejorado su desempeño en los últimos años, permitiendo un mayor nivel de precisión en las búsquedas y ofreciendo los resultados en formas cada vez más convenientes para el usuario.

Pero por ahora, los buscadores comunes sólo pueden recuperar directamente la información que se encuentra disponible en la web y no aquella que se ofrece a través de la web.

Desde que se empezó a hablar de la web invisible los buscadores comunes han añadido funcionalidades adicionales para la búsqueda en la llamada web profunda y han surgido buscadores especializados en ese segmento de la web. Estos últimos permiten la búsqueda directa de artículos y documentos en texto completo y recuperan archivos PDF o PostScript.

Metabuscadores

Como hemos visto, los metabuscadores pueden presentar limitaciones respecto a las posibilidades de búsqueda de cada buscador por separado. Por ejemplo, cuando la búsqueda es sobre materiales o formatos especiales, resulta más práctico sacar provecho de las opciones avanzadas de búsqueda de los buscadores y, si es necesario, realizar búsquedas sucesivas en varios de ellos. En este sentido, son más recomendables los directorios concentradores de buscadores.

Directorios

La mayoría de los mecanismos que se usan para localizar recursos en la web profunda consisten en directorios de recursos especializados, principalmente bases de datos disponibles de forma gratuita en la red. El patrocinio de las instituciones académicas en la elaboración de los directorios, particularmente de los que son anotados, garantiza la cobertura y calidad de los recursos compilados.

Guías

Las guías de recursos especializados generalmente están elaboradas por bibliotecarios y son una excelente herramienta de búsqueda y localización de recursos, además de constituir un buen instrumento de aprendizaje en el uso de la información.

Tutoriales

Las páginas ya mencionadas How to Choose a Search Engine or Directory de la Universidad de Albany en Estados Unidos y las guías de SearchAbility y de la Universidad de Leiden en Holanda A Collection of Special Search Engines incluyen los recursos de información y búsqueda en la web profunda.

Motores avanzados

Finalmente, los recientes motores de pregunta dirigida (directed query engines) tienen la capacidad de realizar búsquedas simultáneas en varias bases de datos en la web. Lexibot y su sucesor, Deep Query Manager, así como Distributed Explorer (Warnick y otros, 2001) y FeedPoint, son ejemplos de estos motores avanzados de búsqueda.

5. Estrategias de búsqueda en la web profunda

Además de las estrategias ya señaladas para la búsqueda en la web, podemos añadir otras específicas para la búsqueda en la web profunda o invisible, agrupadas en rubros orientativos.

Información especializada

·         Usar las herramientas de búsqueda en la web profunda si buscamos información académica de calidad. 

·         Usar buscadores regionales especializados para localizar información originada fuera de los Estados Unidos o en idiomas diferentes al inglés.

·         Usar metabuscadores para realizar búsquedas en varios buscadores especializados a la vez.

Búsquedas avanzadas

·         Usar las opciones avanzadas de los buscadores para localizar imágenes o archivos PDF o PostScript.

·         Usar directorios concentradores de buscadores para realizar búsquedas avanzadas sucesivas en varios de ellos.

Evaluación de la información

·         Usar directorios anotados para evaluar si los recursos disponibles en la web profunda son útiles  para la búsqueda que estamos realizando.

·         Usar directorios de bases de datos para conocer cuáles de ellas pueden ofrecernos información útil para nuestras búsquedas.

Información en bases de datos

·         Usar guías, directorios o motores avanzados si la información que buscamos puede estar en una base de datos.

6. Compilación de recursos de búsqueda en la web profunda

A continuación presentaré una compilación de recursos de búsqueda en la web profunda, que considero que pueden ser de utilidad para los usuarios académicos universitarios. Dada la importancia de distinguir entre tipos de recursos para seleccionar el tipo de búsqueda a realizar, los presento clasificados según su funcionalidad, como buscadores, metabuscadores, directorios, guías y motores avanzados, primero ordenados alfabéticamente y luego por tipo.

Recursos de búsqueda en la web profunda

ordenados alfabéticamente

Recurso

Tipo

About

http://www.about.com/

Guía

AcademicInfo

http://www.academicinfo.net/

Directorio

AlphaSearch

http://www.alphasearch.org/

Directorio de buscadores

Beaucoup

http://www.beaucoup.com/

Directorio de buscadores

The Big Hub

http://www.thebighub.com/

Directorio

iBoogie

http://www.iboogie.tv/

 

Metabuscador

Collection of Search Engines

http://www.leidenuniv.nl/ub/biv/specials.htm

Directorio de buscadores

CompletePlanet

http://www.completeplanet.com/

Directorio

 

Deep Query Manager (sustituye a Lexibot)

http://brightplanet.com/news/dqm2.asp

Motor avanzado

Direct Search

http://www.freepint.com/gary/direct.htm

Directorio

Fazzle

http://www.fazzle.com/

Metabuscador

FeedPoint

http://www.quigo.com/feedpoint.htm

Motor avanzado

Fossick

http://fossick.com/

Metabuscador

HotSheet

http://www.hotsheet.com/

Directorio

IncyWincy

http://www.incywincy.com/

Directorio

Infomine

http://infomine.ucr.edu/

Directorio

 

InternetInvisible

http://www.internetinvisible.com/

Directorio

Internets

http://www.internets.com/

Directorio

InvisibleWeb.com

http://www.invisibleweb.com/

Directorio

Invisible Web Directory

http://www.invisible-web.net/

Directorio

Ixquick

http://www.ixquick.com/

Metabuscador

Librarians Index

http://lii.org/

Directorio

LibrarySpot

http://www.libraryspot.com/

Guía

Master Link List On the Internet

http://www.web-friend.com/links/masterlinks.html

Directorio

ProFusion

http://www.profusion.com/

Metabuscador

RefDesk.com

http://refdesk.com/

Directorio

ResearchIndex (CiteSeer)

http://citeseer.nj.nec.com/cs

Buscador

Resource Discovery Network

http://www.rdn.ac.uk/

Directorio anotado

Scirus

http://www.scirus.com/

Buscador

Search.Com

http://www.search.com/

Metabuscador

Search4science

http://www.search4science.com/

Motor avanzado

Strategic Finder

http://www.strategicfinder.com/

Motor avanzado

WebData.com

http://www.webdata.com/

Directorio de bases de datos

Webfile.com

http://webfile.com/

Directorio

WebSearch

http://www.websearch.com.au/

Buscador

Where to Do Research

http://www.wheretodoresearch.com/

Directorio


 

Recursos de búsqueda en la web profunda

por tipo de recurso

Tipo de recurso

Nombre y dirección del recurso

Buscadores

 

ResearchIndex (CiteSeer)

http://citeseer.nj.nec.com/cs

Scirus

http://www.scirus.com/

WebSearch

http://www.websearch.com.au/

Metabuscadores

iBoogie

http://www.iboogie.tv/

Fazzle

http://www.fazzle.com/

Fossick

http://fossick.com/

Ixquick

http://www.ixquick.com/

ProFusion

http://www.profusion.com/

Search.Com

http://www.search.com/

Directorios de buscadores

AlphaSearch

http://www.alphasearch.org/

Beaucoup

http://www.beaucoup.com/

Collection of Search Engines

http://www.leidenuniv.nl/ub/biv/specials.htm

Directorios

The Big Hub

http://www.thebighub.com/

CompletePlanet

http://www.completeplanet.com/

Direct Search

http://www.freepint.com/gary/direct.htm

HotSheet

http://www.hotsheet.com/

IncyWincy

http://www.incywincy.com/

Infomine

http://infomine.ucr.edu/

InternetInvisible

http://www.internetinvisible.com/

Internets

http://www.internets.com/

InvisibleWeb.com

http://www.invisibleweb.com/

Invisible Web Directory

http://www.invisible-web.net/

Librarians Index

http://lii.org/

Master Link List On the Internet

http://www.web-friend.com/links/masterlinks.html

RefDesk.com

http://refdesk.com/

Webfile.com

http://webfile.com/

Where to Do Research

http://www.wheretodoresearch.com/

Directorios anotados

AcademicInfo

http://www.academicinfo.net/

Resource Discovery Network

http://www.rdn.ac.uk/

Directorios de bases de datos

WebData.com

http://www.webdata.com/

Guías

About

http://www.about.com/

LibrarySpot

http://www.libraryspot.com/

Motores avanzados

Deep Query Manager (sustituye a Lexibot)

http://brightplanet.com/news/dqm2.asp

FeedPoint

http://www.quigo.com/feedpoint.htm

Search4science

http://www.search4science.com/

Strategic Finder

http://www.strategicfinder.com/


7. ¿Qué tan invisible es hoy la web invisible?

La web opaca

No cabe duda de que los actuales buscadores y directorios de la web están mejorando su funcionamiento. Más allá de los detalles técnicos que el público no alcanza a ver, la eficiencia de estas maquinarias ha aumentado y esto se aprecia en los resultados de las búsquedas. A medida que estas herramientas se vayan haciendo más poderosas disminuirá la necesidad de la elaboración manual de guías o concentradores de recursos y quizás más la de orientación en las estrategias de búsqueda y en el uso y aprovechamiento de los recursos localizados.

Un observador cuidadoso puede apreciar que persiste la práctica de los robots de no indizar todas las páginas de un sitio, fijándose en los resultados de las búsquedas que arrojan las diferentes herramientas. Por ejemplo, se puede tener la referencia de una base de datos, disponible a través de un sitio web, en una de las páginas del sitio que contiene una liga a ella, y no aparecer, en cambio, la referencia a la página de acceso directo a la base de datos en ese sitio.

La frecuencia de la indización puede haber aumentado en algunos buscadores, o incluso hacerse de forma diferenciada para algunos recursos. Aquellas páginas que, por su naturaleza, varían más (por ejemplo, la información bursátil) serían visitadas más frecuentemente por los robots que aquellas que tienden a ser más estables en su contenido.

El número máximo de resultados visibles no es un problema cuando los buscadores presentan los resultados ordenados por relevancia, pues siempre aparecerán primero aquellos que se ajustan más a la búsqueda realizada. En la medida en que se pueda realizar una búsqueda avanzada y los criterios de relevancia combinen el número de ligas con la frecuencia de palabras, la presentación de los resultados no constituirá un obstáculo para encontrar la información. El usuario siempre debe tener en cuenta que los buscadores son más apropiados cuando la búsqueda es específica, es decir, se conocen datos sobre lo que se busca; mientras que es más adecuado realizar búsquedas temáticas en los directorios.

Los URLs desconectados podrían evitarse si existiera la obligación de registrar, aunque fuera de forma muy sencilla, toda página que se colgara en la web. Pero dada la gran descentralización de Internet, esto no parece vislumbrarse en un futuro inmediato.

La web privada

Este segmento de la web no representa una gran pérdida en términos de valor de la información que contiene, ya que se trata, en general, de documentos excluidos deliberadamente por su falta de utilidad. En cualquier caso, son los dueños de la información los que deciden no hacerla disponible, por lo que difícilmente se podrán encontrar mecanismos legítimos para franquear esa barrera. Además, los archivos robots.txt sirven para evitar que los robots caigan en “agujeros negros”, que les hagan entrar en procesos circulares interminables, mermando así la eficiencia en su funcionamiento (Koster, 1997).

La web propietaria

En un artículo reciente de la OCLC Office for Research (O’Neill, 2003) se examinan las tendencias en cuanto a tamaño, crecimiento e internacionalización de la web pública, es decir, la porción de información más visible y accesible para el usuario promedio. Las principales conclusiones del estudio son:

·         El crecimiento de la web pública muestra un estancamiento en los últimos años. Ello se debe a que se crean menos sitios web y otros desaparecen, aunque esto no quiere decir que no aumente en volumen de información, es decir, en número de páginas o número de terabytes. Otra posibilidad, que no se señala en este estudio, pero que puede aventurarse, es que algunos sitios web estén transformándose en sitios accesibles solamente mediante pago.

·         La web pública está dominada por contenidos originados en los Estados Unidos, así como escritos en inglés. Esto nos lleva a pensar que es probable que haya más recursos invisibles en páginas originadas en países distintos a los Estados Unidos y en idioma diferente al inglés.

La web realmente invisible

Algunos buscadores tradicionales como Altavista o Google han evolucionado y presentan ahora la posibilidad de realizar búsquedas por materiales o formatos especiales. Así, Altavista permite la búsqueda de imágenes, audio y video, presentando opciones de búsqueda avanzada. Google permite realizar búsquedas avanzadas para localizar imágenes. Por su parte, el concentrador HotBot presenta la posibilidad de buscar por distintos formatos, para localizar imágenes, audio, vídeo, archivos PDF, Script y Shockwave/Flash. Estas opciones están activas en HotBot para los buscadores Fast (Altheweb) e Inktomi (Pure Web Search), mientras que no funcionan con Teoma ni Google, aunque como dijimos existe esta posibilidad si se realiza la búsqueda directamente desde el sitio de Google.

Estas búsquedas en materiales especiales, como imágenes, audio y vídeo son posibles porque se realiza una catalogación textual de éstos. Las búsquedas en materiales en formatos como PDF, Flash, etc. se pueden realizar porque existen directorios de estos archivos. Así, el principal medio por el cual se pueden efectuar las búsquedas es el texto. Por ejemplo, si queremos recuperar imágenes en blanco y negro, éstas deben estar clasificadas de ese modo en la base de datos. Esto implica, desde luego un proceso manual. Hoy por hoy, los métodos bibliotecarios tradicionales resultan ser los más eficaces en la búsqueda de información, al menos mientras la inteligencia artificial no avance más. Realizar una búsqueda del tipo “quiero fotografías de personas que se parezcan a Woody Allen” sólo es posible si hay un especialista que clasifique las imágenes para distinguir si se trata de dibujos o fotografías, si  éstas son de personas, y además incluya la información acerca de los parecidos. Las maquinarias actuales de búsqueda son extraordinariamente eficaces para recuperar información textual, pero esto no excluye la necesidad de la catalogación y clasificación de los recursos. Por lo mismo, el número de archivos de este tipo que se pueden recuperar con los buscadores actuales tiene que ser limitado. Una página web que contiene una imagen, sin mayor información textual acerca e su contenido, no podrá ser recuperada automáticamente más que por su extensión (.jpg, por ejemplo).

Como hemos visto, la definición más genérica de lo que constituye la web invisible o profunda apunta a los recursos que no pueden ser recuperados mediante las herramientas comunes de búsqueda. Para verificar qué tan visible es la porción de la web profunda que ha sido identificada por los autores de The Invisible Web, he seleccionado al azar diez recursos de su The Invisible Web Directory y he procedido a realizar la búsqueda en un buscador, un directorio, un metabuscador y un agente metabuscador avanzado en su versión gratuita. Los resultados de esta sencilla prueba aparecen reflejados en el cuadro de la página siguiente.

Resultados de búsqueda de recursos de The Invisible Web Directory

Recurso

MSN

Yahoo!

MetaCrawler 

Copernic

Artcyclopedia

SI

SI

SI (6 buscadores)

SI (8 buscadores)

CRA Forsythe List

SI

SI

SI (3 buscadores)

SI (5 buscadores)

Current Films in the Work (Boxoffice Hollywood Hot Set)

SI

SI

SI (3 buscadores)

SI (4 buscadores)

Employee Benefits INFOSOURCE

SI

SI

SI (2 buscadores)

SI (3 buscadores)

Hamnet

SI

SI

SI (4 buscadores)

SI (6 buscadores)

Infonation

SI

SI

SI (5 buscadores)

SI (7 buscadores)

Jourlit

SI

SI

SI (3 buscadores)

SI (7 buscadores)

Scholarly Societies Project

SI

SI

SI (4 buscadores)

SI (6 buscadores)

Vessel Registration Query System

SI

SI

SI (2 buscadores)

SI (6 buscadores)

Who’s who in American Art (AskArt)

SI

SI

SI (6 buscadores)

SI (8 buscadores)

Vemos que todos los recursos seleccionados de The Invisible Web Directory son localizables con las actuales herramientas de búsqueda. Además, en los resultados se observa que existen múltiples referencias en otras páginas, es decir, que se trata de páginas “conectadas”. La única dificultad para encontrarlas consiste, en algunos casos, en las palabras con las cuales se denomina el sitio o el recurso. Por ejemplo, en el The Invisible Web Directory aparece “Vessel Query Registration System”, en lugar de “Vessel Registration Query System”, lo cual hace que la búsqueda por todas las palabras sea exitosa, pero la búsqueda por frase no. Igualmente, la denominación de “Who’s who in American Art” para el sitio de “AskArt”, dificulta la búsqueda, mientras que si se busca directamente por su nombre aparece en numerosos buscadores.  La tabla refleja además cómo el solapamiento entre buscadores es variable.

Desde luego, se puede decir que el contenido de las bases de datos que están incluidas en este directorio es invisible, ya que es necesario realizar las búsquedas directamente en cada una de ellas. Pero lo cierto es que llegar hasta la “puerta” de estas bases de datos resulta relativamente sencillo. El mismo hecho de que el directorio haya sido colocado en la web, le confiere mayor visibilidad a los recursos incluidos, ya que las ligas en el directorio aumentan la posibilidad de indización de esas páginas. Entonces, podemos decir que The Invisible Web Directory es un buen directorio de recursos y bases de datos disponibles en la web, pero no un directorio de recursos “invisibles”.

En conclusión, lo que realmente sigue siendo invisible en la web son:

-         las páginas desconectadas;

-         las páginas no clasificadas que contienen principalmente imágenes, audio o vídeo;

-         las páginas no clasificadas que contienen principalmente archivos PDF, PostScript, Flash, Shockwave, ejecutables y comprimidos;

-         el contenido de las bases de datos relacionales;

-         el contenido que se genera en tiempo real;

-         el contenido que se genera dinámicamente.

Pero:

-         algunos buscadores recuperan archivos PDF y páginas con imágenes, aunque de forma limitada;

-         es relativamente sencillo llegar hasta la “puerta” de las bases de datos con contenido importante;

-         existen ya motores avanzados capaces de realizar búsquedas directas simultáneas en varias bases de datos a la vez; y aunque la mayoría requieren de pago, también ofrecen versiones gratuitas;

-         el contenido que se genera en tiempo real pierde validez con mucha velocidad, salvo para análisis históricos;

-         es relativamente sencillo llegar hasta la “puerta” de los servicios que ofrecen información en tiempo real;

-         el contenido que se genera dinámicamente interesa únicamente a ciertos usuarios con características específicas;

-         es relativamente sencillo llegar hasta la “puerta” de los servicios que ofrecen contenido generado dinámicamente.


8. Bibliografía

  1.    A collection of special search engines [Página Web]. Consultada 2003 Abr. 24. Disponible en: http://www.leidenuniv.nl/ub/biv/specials.htm

  2.  The Deep Web [Página Web]. 2002; Consultada 2003 Mayo 6. Disponible en: http://library.albany.edu/internet/deepweb.html.
University at Albany Libraries. Internet tutorials

   3.   FOLDOC: Free On-Line Dictionary of Computing [Página Web].  Consultada 2003 Abr. 24. Disponible en : http://foldoc.doc.ic.ac.uk/foldoc/

   4.  How to Choose a Search Engine or Directory [Página Web]. 2003 ; Consultada 2003 Mayo 14. Disponible en: http://library.albany.edu/internet/choose.html

   5.   Invisible Web: What it is, Why it exists, How to find it, and Its inherent ambiguity [Página Web].  Consultada 2003 Mayo 5. Disponible en: http;//www.lib.berkeley.edu/TeachingLib/Guides/Internet/InvisibleWeb.html.
UC Berkeley. Teaching Library Internet Workshops. Finding information on the Internet: a tutorial.

   6.   Search Engines Terms: As Suggested by Members of the I-Search Digest [Página Web].  Consultada 2003 Abr. 24. Disponible en: http://www.cadenza.org/search_engine_terms/

   7.   Top 25 Invisible Web Categories. Searcher. 2001; 9(6):68-72.

   8.   Le Web Invisible [Página Web].  Consultada 2003 Mayo 5. Disponible en: http://f.magnan.free.fr/web_invisible.htm

   9.   What is Fast?  [Página Web].  Consultada 2003 Mayo 13. Disponible en: http://www.lexibot.com/howitworks/whatisfast.asp

 10.   The WWW Virtual Library [Página Web].  Consultada 2003 Abr 24. Disponible en: http://www.vlib.org/

11.   Bergman, Michael K. The Deep Web: Surfacing Hidden Value. Bright Planet; 2000.

12.   Botluk, Diana. Minig Deeper Into the Invisible Web . Law Library Resource Xchange; 2000.
Features.

13.   Dragutsky, Paula. Guides to Specialized Search Engines [Página Web]. 2003;   Consultada 2003 Mayo 15. Disponible en:  http://www.searchability.com

14.   Díaz, Karen R. The Invisible Web: Navigating the Web outside Traditional Search Engines. Reference & User Services Quarterly. 2000; 40(2):131-134.

15.   Ellsworth, Jill and Ellsworth, Matthew V. Marketing on the Internet : Multimedia Strategies for the World Wide Web. New York:  John Wiley & Sons; 1995.

16.   Koster, Martijn. Robots in the Web: threat or treat?  [Página Web]. 1997; Consultada 2003 Mayo 16. Disponible en: http://www.robotstxt.org/wc/threat-ortreat.html.

17.   O'Neill, Edward T.; Lavoie, Brian F., and Bennett, Rick. Trends in the Evolution of the Public Web: 1998-2002. D-Lib Magazine. 2003; 9(4).

18.    Ouf, Rehib. Le Dynamisme du World Wide Web: Taille, Croissance, Visibilité, Distribution et Accessibilité de l'Information. Lyon, France: Ecole Nationale Supérieure des Sciences de l'Information et des Bibliothèques; 2001.

19.   Salazar García, Idoia. La Red profunda: lo que los buscadores convencionales no encuentran. En: Fernández Muerza, Alex and Dantart Usón, Alex, Coordinación. Congreso ONLINE del Observatorio para la CiberSociedad; Espańa.
Comunicaciones - Grupo 20: Periodismo y Comunicación Digital

20.   Sherman, Chris. The Invisible Web. Free Pint. 2000; (64).

21.   ---. Navigating the Invisible Web. SearchDay. 2001.

22.   Sherman, Chris and Price, Gary. The invisible Web. Searcher. 2001; 8(9):62-74.

23.   ---. The invisible Web: Uncovering information sources search engines can't see. Medford, New Jersey: CyberAge Books; Information Today; 2001. 

24.   Sullivan, Danny. Invisible Web Gets Deeper. The Search Engine Report. 2000.

25.   Turner, Laura. Doing it Deeper: The Deep Web [Página Web].  Consultada 2003 Mayo 2. Disponible en: http://www.bhsu.edu/education/edfaculty/lturner/The%20Deep%20Web%20article1.doc

26.   Warnick, Walter L; Lederman, Abe;  Scott, R. L.; Spence, Karen J.; Johnson, Lorrie A., and Allen, Valerie S. Searching the Deep Web: Directed Query Engine Applications at the Department of Energy. D-Lib Magazine. 2001; 7(1).

27.   Wiseman, Ken . The invisible Web [Página Web].  Consultada 2002 Mayo 5. Disponible en: http://www3.dist214,k12.il.us/invisible/article/invisiblearticle.html