domingo, 20 de marzo de 2016

Caracterización de la web profunda y web superficial.





Los buscadores tradicionales sólo ofrecen acceso a una pequeña parte de lo que existe online, a lo que se denomina la Web superficial o visible.
Comprende todos aquellos sitios cuya información puede ser indexada por los robots de los buscadores convencionales y recuperada casi en su totalidad mediante una consulta a sus formularios de búsqueda.
Las características principales de los sitios de la Web visible son:
•    su información no está contenida en bases de datos
•    es de libre acceso
•    no requiere la realización de un proceso de registro para acceder
Mayoritariamente está formada por páginas Web estáticas, es decir páginas o archivos con una URL fija y accesibles desde otro enlace.
Lo que resta, la Web profunda, es un amplísimo banco de información ubicado en catálogos, revistas digitales, blogs, entradas a diccionarios y contenido de sitios que demandan un login (aunque sea gratuito) y entre otros tipos de contenido que no puede recuperarse con los mecanismos de búsqueda comunes.
Diversos especialistas y entidades académicas se dedican a la tarea de elaborar y mantener páginas concentradoras de recursos web seleccionados por áreas de especialidad, (subject guides), que pueden contener recursos que no son recuperables con un buscador común. Estos directorios anotados o guías temáticas suelen tener un alto grado de calidad, ya que comprometen el prestigio de los autores y de las instituciones involucradas. La selección de recursos suele ser muy cuidadosa y su actualización frecuente. En ocasiones, diversas instituciones se asocian formando “circuitos” (web rings) para la elaboración cooperativa de estas guías. Un buen ejemplo de ello es The WWW Virtual Library.

 Los directorios anotados o guías pueden incluir, además, algún mecanismo de búsqueda en sus páginas o en la Web en general (Moreno Jiménez, 2004). Comúnmente no basta con conocer la variedad de herramientas de búsqueda disponibles en la Web, sino que se requiere una orientación sobre su funcionamiento, sobre qué estrategias seguir para trazar una adecuada ruta de búsqueda y sobre cómo elegir los mejores instrumentos para cada necesidad. De ello se ocupan los tutoriales. How to Choose a Search Engine or Directory, de la Universidad de Albany, en Estados Unidos, y las guías de SearchAbility y de la Universidad de Leiden en Holanda A Collection of Special Search Engines orientan al usuario en el amplio mundo tanto de los recursos especializados en la Web como de las maquinarias que permiten su localización. Pero más allá de todas estas herramientas y recursos se encuentra la Web invisible. 

Sherman y Price (2001) identifican cuatro tipos de contenidos invisibles en la Web:
La web opaca (the opaque web).
La Web privada (the private web).
  La Web propietaria (the proprietary web).

  La Web realmente invisible (the truly invisible web).
  • La Web opaca:
Se compone de archivos que podrían estar incluidos en los índices de los motores de búsqueda, pero no lo están por alguna razón particular como:
– Extensión de la indización: no todas las páginas de un sitio son indizadas en los buscadores.
– Frecuencia de la indización: los motores de búsqueda
– Número máximo de resultados visibles
– URL’s desconectadas.
La Web privada consiste en las páginas Web que podrían estar indexadas en los buscadores pero son excluidas deliberadamente por alguno de estos motivos:
  • Las páginas están protegidas por contraseñas.
  • Contienen un archivo “robots.txt” para evitar ser indexadas.
  • Contienen un campo “noindex” para evitar que el buscador pueda indexar la parte correspondiente al cuerpo de la página.
Este segmento de la Web contiene, en general, documentos excluidos deliberadamente por su falta de utilidad, ya que son los dueños de la información que contienen quienes deciden que no se encuentre disponible, por lo que difícilmente se podrán encontrar mecanismos legítimos para franquear esa barrera.

 La Web propietaria incluye aquellas páginas en las que es necesario registrarse para tener acceso al contenido, ya sea de forma gratuita o de pago.

 La Web realmente invisible se compone de páginas que no pueden ser indexadas por limitaciones técnicas de los buscadores, programas ejecutables y archivos comprimidos, páginas generadas dinámicamente, es decir, que se generan a partir de datos que introduce el usuario, información almacenada en bases de datos relacionales, que no puede ser extraída a menos que se realice una petición específica.


miércoles, 9 de marzo de 2016

METABUSCADORES: CLASIFICACIÓN



Ante de realizar una clasificación de metabuscadores, tendremos que realizar una conceptualización sobre este término.
¿Que son los metabuscadores? Un metabuscador es una clase de buscador que carece de base de datos propia y, en su lugar, usa las de otros buscadores y muestra una combinación de las mejores páginas que ha devuelto cada buscador. Un buscador normal recopilan la información de las páginas mediante su indexación, como Google  o bien mantiene un amplio directorio temático, como Yahoo! ]. La definición simplista sería que un metabuscador es un buscador de buscadores. Su dificultad radica en las diferencias existentes entre unos y otros: los  métodos de combinación de buscadores, el orden de los resultados, etc.
El objetivo de los Metabuscadores es facilitar al máximo y hacer más eficiente la búsqueda de información. Esto lo hacen buscando en múltiples sitios y entregandoun resumen de los artículos relevantes acerca del tema que se solicitó. Es por ello que se usan para aquellas búsquedas en las que es interesante obtener el máximo de recursos disponibles en la red. La diferencia entre ellos es la forma de buscar, los lugares en que buscan y como presentan la información.
La red está formada por más de un millón de páginas web, y se calcula que un buscador puede localizar aproximadamente un 15% del contenido de toda la red.Para solucionar este difícil escollo, se crearon los Metabuscadores, conocidos en ingles como Meta Search Engines.
Es muy curioso que se utilicen solo los buscadores como google, para obtener ingentes cantidades de información en detrimento de los metabuscadores, los cuales nos ofrecen más resultados de una manera organizada, ante el usuario.
Algunos de los más  famosos:

Kartoo es un metabuscador de información en Internet, basado en Web Semántica, que presenta visualmente los sitios encontrados en lugares de diferentes tamaños (según una estimación de su pertinencia), todo ello en diferentes mapas. En estos mapas, simplemente situando el ratón encima de un sitio, se muestran las relaciones con los demás. Búsquedas alternativas y avanzadas permiten ajustar sucesivamente la búsqueda.He aqui una descripcion mas detallada de kartoo
Ixquick es el motor más completo que existe. Ixquick busca y compila resultados de los 12 motores de búsqueda más populares en la Web. Además de un diseño elegantemente simple, Ixquick busca imágenes, encuentra números de teléfono alrededor del mundo usando un directorio internacional y compara precios de productos usando una búsqueda de precios global.
Metacrawler De alcance global es una poderosa herramienta de búsqueda que no mantiene una base de datos propia, sino que envía las consultas formuladas por los internautas a otros buscadores.
Mamma es un artefacto del metabúsqueda inteligente, cada vez que usted hace una pregunta Mamma muestra una gran variedad de directorios.
Dogpile metabuscador que basa sus resultados buscando en GoogleYahoo!live search y Ask
Clusty envía varias preguntas a los principales motores de búsqueda, combina los resultados.
Lomejor está orientado para la búsqueda de contenidos en castellano y utiliza entre sus fuentes los mejores buscadores internacionales,españoles y argentinos.
Copernic es posiblemente uno de los mejores metabuscadores de la red. Hay versiones gratuitas (Copernic Agent Basic) y pagadas; corresponde a programas que deben ser bajados e instalados en cada computador. Permite especificar el número máximo de aciertos en cada buscador consultado. Una ventaja importante es que los resultados de cada búsqueda quedan guardados para ser consultados posteriormente. Se puede integrar con Internet Explorer
SurfWax es otro excelente metabuscador, comparable con Copernic. Usa tecnología de vanguardia, entregando un resumen muy ilustrativo sobre la búsqueda realizada. Una de sus principales ventajas es el gran número de noticias que encuentra acerca de lo que buscamos.
Inconvenientes
  • Cada buscador dispone de su propia sintaxis de búsqueda y en el metabuscador no se puede hacer distinción entre las diferentes sintaxis de cada buscador.
  • No resulta muy claro qué criterios emplean para la ordenación de los resultados.
  • Al tener que buscar en varias fuentes la búsqueda puede tardar más de lo normal.

A continuación dejo el enlace a mi muro para que puedas profundizar sobre la temática en sí:

miércoles, 2 de marzo de 2016

Infoxicación: intoxicación de información



¿Puede uno intoxicarse de información? ¿Es buena una sobreinformación?

De acuerdo con una publicación de la Fundación del Español Urgente (Fundéu BBVA), la "infoxicación" es una palabra adecuada en español para referirse a la sobrecarga informativa. Veáse el siguiente enlace:


http://www.fundeu.es/recomendacion/infoxicacion-neologismo-adecuado-en-espanol-1279/


El neologismo fue contrastado por el especialista en información Alfonso Cornella en 1996 para describir una saturación de información utilizando el acrónimo de intoxicación por información.

Este término cada vez se acuña más en los diferentes mass media: "El exceso de información causa el síndrome de la infoxicación, que está caracterizado por la ansiedad y la angustia", "La infoxicación es la incapacidad de análisis eficiente de un flujo de información elevado".

Dicha sobre información afecta al rendimiento físico e intelectual de cada individuo. De hecho, hay estudios que sustentan que la sobreinformación puede repercutir en la cantidad y calidad del sueño como  causante del 'síndrome de fatiga informativa', puede repercutir en la cantidad y calidad del sueño, explica el doctor Eduard Estivill, responsable de la Unidad de Alteraciones de Sueño del Instituto Dexeus de Barcelona.
La sobreinformación puede repercutir en la cantidad y calidad del sueño siendo el 
el 'síndrome de fatiga informativa'  un "término descriptivo" con el que se denomina al "efecto negativo que tiene la sobreinformación como fuente de estrés para nuestro cerebro".   

Para saber más del tema: http://www.infosalus.com/actualidad/noticia-sobreinformacion-puede-repercutir-cantidad-calidad-sueno-20121208120825.html

SALUDA DE BIENVENIDA



Nos encontramos en un nuevo curso. Una nueva oportunidad para aprender, para cambiar impresiones, para conocer más sobre el gran invento del presente: la red de internet.
Esperemos queridos compañeros/as esta breve andadura, sea un paso más no solo para nuestra formación sino una oportunidad para el autoconocimiento aprovechando la red de redes. 
Un saludo, soy Nacho Ramirez y este será mi y tu blog para compartir experiencias e ideas.