Ecuador, 30 de Abril de 2024
Ecuador Continental: 12:34
Ecuador Insular: 11:34
El Telégrafo
Comparte

Mundo Tecno

Los motores de búsqueda ‘pensarán’ como los seres humanos

Los motores de búsqueda ‘pensarán’ como los seres humanos
23 de julio de 2016 - 00:00 - Andrea Rodríguez

Las búsquedas por Internet serán procesadas por máquinas inteligentes capaces de entender lo que están leyendo como si se tratara de un ser humano. Estas herramientas pondrán en contexto las distintas consultas que plantean los cibernautas y otorgarán información más precisa al momento de ofrecer respuestas.

El gran desafío es diseñar buscadores de “recuperación perfecta”, es decir que puedan leer todos los documentos almacenados, reteniendo solo los relevantes y olvidando todos los demás. Una de las empresas que ya trabaja en este tema es Google que concentra sus esfuerzos en diseñar sistemas que puedan entender el contexto de la página. En realidad, no es suficiente que los buscadores identifiquen simples palabras claves en los distintos documentos de su índice y las relacionen a cierta búsqueda, sino que discriminen de qué manera esos términos están relacionados en los datos que contienen esos documentos.

Eso significa que las palabras dejan de ser simples palabras para convertirse en conceptos más amplios. Por eso quienes diseñan los buscadores intentan convertir a estas herramientas en auténticas máquinas de aprendizaje.

Los ‘gurús’ de Internet utilizan un término para referirse al sistema que permitirá crear motores de búsqueda más eficientes: software de aprendizaje profundo, que imitará la actividad de las distintas capas de neuronas en la corteza cerebral, la región en la que se produce el pensamiento. El programa puede aprender a reconocer diferentes patrones en representaciones digitales de sonidos, imágenes y otros datos.

Además, según la revista Technology Review, el sistema de aprendizaje profundo ya ha logrado mejorar la búsqueda por voz en los smartphones (teléfonos inteligentes) al implementar una versión basada en el aprendizaje profundo que permite reconocer fragmentos de sonido de forma más fiable, especialmente en entornos ruidosos como el transporte público. Jaime Castro, especialista en nuevas tecnologías advierte que los actuales motores de búsqueda tienen sus limitaciones, porque los resultados que despliega son, con frecuencia, muy generales.

 “Con sistemas más inteligentes habrá herramientas que desplieguen mejor la información que precisamos y que perdamos menos tiempo en la búsqueda de un tema”.

Los próximos buscadores, como señala Castro, serán capaces de comunicarse oralmente con los usuarios y responderles con exactitud a preguntas muy concretas.

Según David Andrade, programador, un motor de búsqueda deja de tener gracia si el usuario no encuentra lo que busca y eso ocurre con Google, Bing y otros.

Este especialista considera que los buscadores más utilizados deberían encontrar alguna forma de premiar la calidad frente a la cantidad. De hecho, el sistema PageRank ya resulta insuficiente. Se trata d una marca registrada y patentada por Google que contempla una familia de algoritmos utilizados para asignar de forma numérica la relevancia de los documentos (o páginas web) indexados.

Según el blog de Xavier López, desarrollador de juegos, uno de los mayores problemas de Google es que el contenido en Internet está creciendo exponencialmente y la gran mayoría es contenido basura generado por empresas sin escrúpulos, o directamente por crawlers (son programas diseñados para explorar páginas Web de forma automática) que simplemente copian y pegan información de otros lados.

Estos mecanismos consiguen manipular los sistemas de clasificación de páginas de Google para lograr que sus sitios aparezcan en la parte superior de los resultados de búsqueda. Si bien los buscadores actuales evolucionaron, aún les queda mucho camino por recorrer. Así, por ejemplo, en el Instituto Tecnológico de Massachusetts (MIT) ya se habla de la próxima generación de buscadores de información que ofrecerá los resultados de miles de fuentes en una panorámica tridimensional, lo que facilitará el encuentro del usuario con la información requerida.

El primer programa que consigue esta función fue desarrollado por los laboratorios Sandia (uno de los mejores laboratorios de investigación y desarrollo del Departamento de Energía de los Estados Unidos) y ya ha encontrado sus primeras aplicaciones industriales.

La herramienta es capaz de buscar tanto en documentos, en la web o en las intranets, siguiendo pautas de relaciones y patrones relativos a los temas seleccionados.

En pocos minutos, el programa analiza un interminable número de fuentes y crea una completa representación visual de los resultados: por ejemplo, refleja en 3D la situación interna de una empresa y de sus sucursales en todo el mundo.

En el mundo de los buscadores está también Wolfram Alfa, una herramienta que responde directamente a las preguntas que plantea el usuario, en lugar de remitirse a enlaces externos.

Básicamente esta plataforma es un motor que arroja respuestas precisas sobre determinados hechos, a través de una base de datos estructurada.

Lo más probable es que en el futuro próximo el usuario invierta únicamente unos pocos segundos en hallar la información que requiere. Hay quienes se preguntan si Google seguirá siendo útil en los próximos 30 años y la respuesta es afirmativa, porque esta es una de las compañías que más invierte en el desarrollo de herramientas innovadoras para mantener a sus usuarios.

Buscar y encontrar algo en Internet fue siempre un problema. Por eso, se buscan herramientas que permitan organizar y encontrar los datos que requerimos.

Buscadores

El presente y el futuro inmediato de las búsquedas de información están en la Internet profunda.

La Internet profunda es un conjunto de sitios web y bases de datos que buscadores comunes no pueden encontrar ya que no están indexadas. El contenido que se puede hallar dentro de la internet profunda es muy amplio.

La principal causa de la existencia de la Internet profunda es la imposibilidad de los motores de búsqueda (DuckDuckGo, Google, Yahoo, Bing, etc.) de encontrar o indexar gran parte de la información existente en la Red.

En 2010 se estimó que la información que se encuentra en la internet profunda es de 7.500 terabytes, lo que equivale a aproximadamente 550 billones de documentos individuales.

En la Red

Los motores de búsqueda del tipo de Google son buenos para reunir datos aleatorios, pero menos eficientes en el manejo de interrogantes más sutiles.

La integración con las herramientas y servicios de comunicación en tiempo real es clave para los gigantes de las búsquedas en Internet.

Altavista fue el primer buscador completo en Internet generando la primera gran base de datos.

Para estar siempre al día con lo último en noticias, suscríbete a nuestro Canal de WhatsApp.

Contenido externo patrocinado

Ecuador TV

En vivo

Pública FM

Noticias relacionadas

Social media