En General

Actualmente la web cuenta con miles de millones de paginas a nuestra disponibilidad. La oferta de información en la internet y la demanda por encontrar con facilidad lo que buscamos aumenta exponencialmente en su día a día. Cada búsqueda que se consulta nos puede arrojar millones de resultados con la información deseada. Como hace Google para seleccionar la información verdaderamente relevante? Google cuenta con los llamados algoritmos que trasforman preguntas en respuestas a través de formulas y procesos informáticos. Estos algoritmos están programados a través de mas de 200 pistas y señales para conducir una búsqueda acertada. Las pistas se basan en señales que se encuentran dentro los sitios web para poder descífralos y clasificarlos adecuadamente. Los términos de los sitios web, los contenidos que presentan, la ubicación geográfica y el Page Rank son algunas de las señales con mayor relevancia para los algoritmos. Constantemente Google actualiza los componentes relacionados de los procesos de búsqueda para arrojar mejores resultados a sus usuarios.

Panda

Panda es una actualización de los algoritmos de Google lanzada en Febrero del 2011. Su principal objetivo era detectar los sitios SPAM y de baja calidad dentro de la web que tenían un posicionamiento alto en los resultados de búsqueda. Este algoritmo detecta los sitios web que inundan los buscadores con contenido e información duplicado e implementan software automáticos para generar información. Panda además detecta los contenidos sobre optimizados para algunas Keywords y los sitios recargados de publicidad.

Cuales son las características que busca Panda en un sitio Web? Para Google Panda el contenido es lo primordial (Content is King), debido a esto la creación de un contenido propio e único es la base para este algoritmo. Además es necesario contar con un buen numero de visitas en los contenidos de la pagina, no duplicar internamente información, tener bajos porcentajes de rebote, enlaces obtenidos legítimamente no sobre-optimizados y un sitio web dinámico con actualizaciones constantes.

A través de este algoritmo, Google logra proliferar en sus motores de búsqueda sitios auténticos con bajos porcentajes de rebote, largas duraciones, altas paginas promedio por visita y buena generación de enlaces en las redes sociales.

Softer Panda – Actualización

Desde el pasado Marzo 23 se han notado algunos cambios en el posicionamiento de las paginas en los motores de búsqueda que indican una nueva actualización del algoritmo Google Panda. Aunque Google no ha confirmado oficialmente ninguna actualización, los medios lo llaman una versión “Softer” de este algoritmo. Se cree que esta nueva actualización busca mejorar la clasificación de los e-commerce sites en los motores de búsqueda, obligándolos a tener contenidos de calidad para la oferta de sus productos con descripciones mas detalladas. De esta manera se mejoran los resultados de los motores de búsqueda al penalizar a los sites que ofrecen una experiencia de uso mediocre. Además se cree que esta nueva versión de Panda busca ayudar a los pequeños negocios mejorar su ranking en los resultados de búsquedas. Sin embargo dichos comentarios son especulaciones no confirmadas que circulan en los medios.

Hummingbird – Colibrí (Smart Search)

 

Para conmemorar sus 15 años cumplidos en Septiembre del 2013,  Google lanzo su nuevo algoritmo llamado Hummingbird o en español Colibrí. Este nuevo algoritmo revoluciona el concepto de búsquedas para Google dándole un lado mas humano y directo a los resultados. Colibrí se destaca por su rapidez y precisión que responden a la nuevas tendencias de búsqueda presentadas por los cibernautas en Google. Las búsquedas complejas han aumentando considerablemente en los buscadores dificultando para los algoritmos la labor de seleccionar información relevante para los resultados. El aumento de la navegación desde los dispositivos móviles y las aplicaciones que posibilitan los comandos por voz de manera natural han cambiado las tendencias de búsqueda. Es común realizar búsquedas con frases completas en vez de la utilización de Keywords dado su facilidad y naturalidad: “Donde encuentro el banco mas cercano?”, “Cual es el hotel mas económico en Miami?” son búsquedas comunes realizadas en la actualidad. No solo cambia la manera de buscar, sino que la demanda por obtener resultados con mas precisión es mayor. Google debe poder responder a estas nuevas tendencias de búsqueda para adaptarse y responder efectivamente al mercado, razón por la cual surge Colibrí.

Este nuevo algoritmo le posibilita al sistema de búsqueda el entendimiento de lo que realmente se le esta preguntando. Al dejar atrás los resultados basados en concordancias con Keywords y sinónimos, se pasa a un compresión semántica total de lo que se le pregunta, ampliando las posibilidades de resultados y precisión dentro del buscador. De esta manera Google logra comprender lo que se le solicita al trasladar el significado de la búsqueda en forma de pregunta, enmarcarlo en una localización e incluso geo posicionar los resultados.

A diferencia de los ultimas actualizaciones de Google, Colibrí se diferencia al no ser un simple cambio en la calidad de los resultados de las búsquedas sino mas bien una evolución en la comprensión de estas. De esta manera Google potencializa su navegador Chrome, las Google Glass y otros dispositivos que permiten las búsquedas complejas mediante la voz. Además Colibrí beneficia el Knowledge Graph de Google al arrojar directamente resultados dentro de la pagina sin la necesidad de redirigirse a otros sites.

Pingüino

 

Google Pingüino surge como una actualización a los algoritmos de Google en Abril del 2012. Este algoritmo tiene como objetivo detectar las paginas web que manipulan el numero de enlaces que las dirigen a ellas. Este nuevo filtro disminuye el posicionamiento en los motores de búsqueda de dichas paginas y las cataloga negativamente dada la utilización artificial de enlaces. De esta manera se busca que los sitios webs generen enlaces naturales gracias a su contenido legitimo y buen relacionamiento y difusión de este a través de las redes sociales.

Actualización Pingüino 2.0

El algoritmo Pingüino tuvo su ultima actualización en Mayo del 2013 y obtuvo el nombre de Pingüino 2.0. Bajo esta nueva actualización este algoritmo se posiciona como mas agresivo a la hora de calificar la naturaleza de los enlaces de los sitios web. Pingüino 2.0 se enfoca no solo en los sitios web que tiene altos niveles de posicionamiento sino también en los que presentan niveles mas inferiores para determinar mas ampliamente la calidad de todos los resultados que puede arrojar una búsqueda. Esta nueva actualización continua con la devaluación de los enlaces SPAM de los sitios web y los penaliza fuertemente al eliminarlos de los resultados de los motores de búsqueda demostrando así mayor impacto que la versión anterior de este algoritmo. Pingüino 2.0 detecta enlaces construidos artificialmente provenientes de sitios con propósitos exclusivos de SEO, alto contenido de textos optimizados y que son irrelevantes para la sitio web como tal. A través de este filtro Google mejora la calidad de sus motores de búsqueda al fomentar sitios web con contenidos auténticos y relaciones naturales de direccionamiento desde otros sitios web.

algoritmo

Publicaciones recientes
INFOGRAFICOSCONTENIDOS RELEVANTES Y ORIGINALES