sábado, 10 de junio de 2017

Capítulo XII: Un caso práctico: Google



Todos los buscadores se basan en crear índices de las páginas web existentes en la red. Para ello utilizan unos programas llamados arañas” (bots, spiders o crawlers), que realizan un análisis de cada página (parking) y almacenan los datos obtenidos en una base de datos junto con la dirección de la página. La diferencia entre Google y el resto de buscadores, y el secreto de su éxito está en que los resultados a las consultas en Google se ordenan por relevancia real, es decir, aparecen en las primeras posiciones las páginas más adecuadas en función del término de búsqueda introducido. Ya que Google consigue esto

Desarrollando  unos programas, que llegan a una página y realizan un análisis de esta. Cuando la araña termina el análisis de una página, simplemente toma un vínculo en ella, y se desplaza a otra página. Al llegar a la nueva página, debe primero comprobar si se encuentra ya en la base de datos. Si efectivamente es así, comprobará la versión existente en la base de datos con respecto ala que ha encontrado en la web, verificará la fecha de la última actualización, y si no ha habido cambios, continuará a la siguiente página. Si, por el contrario, los ha habido, actualizará la base de datos con los cambios correspondientes. Así, paso a paso, a una velocidad vertiginosa, la araña acaba construyendo una base de datos en la que se encuentran los análisis de una gran cantidad de páginas de la web.

No hay comentarios:

Publicar un comentario

XVII: El futuro

Aquí Enrique Dans nos obsequia como   que es su vida con el uso de la tecnología y cómo podremos disfrutar de parte de ella si nos cone...