En Primera página de Google, Posicionamiento web, SEO

algoritmo panda¿Sabías que en el transcurso de un año el algoritmo de Google puede cambiar más de 600 veces y que dichas actualizaciones pasan desapercibidas tanto para los usuarios como para los expertos en SEO? La historia de los algoritmos va de la mano con el surgimiento del SEO, del marketing digital y las prácticas negativas que hace unos años se realizaban con gran frecuencia; en esta entrada de blog les contaremos la historia de Panda, las implicaciones que ha tenido en el mundo del SEO y cómo podemos “domesticarlo” para que no afecte a nuestros sitios web.

El 27 de septiembre del año 1998 Larry Page y Serguéi Brin fundan Google Inc, compañía que surgió como proyecto universitario en la Stanford University y que revolucionó al mundo en muy poco tiempo; el principal producto de Google es el motor de búsqueda de contenido en Internet, que se ha convertido en el más utilizado en todo el mundo. Este motor de búsqueda alberga otros productos y servicios como YouTube, Google Noticias, Google Chrome, el sistema operativo Android para dispositivos inteligentes como teléfonos, tabletas, televisores y automóviles, así como las gafas de realidad aumentada Google Glass; todos estos servicios se basan en el buscador, que tiene la capacidad para procesar más de mil millones de búsquedas diariamente.

No pasó mucho tiempo desde la creación de Google y las primeras páginas web para que surgieran los servicios de SEO, Search Engine Optimization u optimización para los motores de búsqueda; en un inicio los administradores de una página web enviaban su dirección URL a los motores de búsqueda, quienes enviarían a las arañas para que inspeccionaran la web y extrajeran los enlaces internos y externos e indexar la información en el índex del buscador. La masificación de las páginas web dio lugar a un cambio, ya que las arañas comenzaron a evolucionar para ser autónomas e inteligentes y visitar diariamente millones de sitios web para analizarlos y clasificarlos.

Los dueños de páginas web comenzaron a darse cuenta de la importancia de aparecer en los primeros resultados de búsqueda de Google, lo que abrió un nicho muy importante en el mundo del marketing: el Marketing Digital, del que a su vez surgieron los servicios de SEO; sin embargo surgieron dos vertientes, el SEO white hat y el SEO black hat, sombrero blanco y sombrero negro respectivamente. Las estrategias de sombrero blanco se orientan hacia la optimización, la calidad de los contenidos y la usabilidad, mientras que las estrategias black hat se han caracterizado por la duplicación de contenido, exceso o irrelevancia de palabras clave, enlaces de mala calidad, entre otras acciones negativas para manipular el comportamiento de los buscadores.

Las primeras versiones de los algoritmos de búsqueda se realizaban con base en la información que las páginas web le brindaban a los robots, como las palabras clave, las etiquetas o meta etiquetas, las cuales daban la información del contenido de cada página, sin embargo estos datos no fueron muy precisos para indexar las páginas, ya que muchos administradores daban datos imprecisos, inconsistentes o incompletos y el resultado fue que se posicionaran en primeros lugares ciertas páginas irrelevantes con la búsqueda.

Otros factores como el código fuente en HTML, la antigüedad de los sitios o la densidad de palabras clave fueron manipulados de forma abusiva para que los sitios clasificaran, por lo que los motores de búsqueda de Google comenzaron a adaptarse para brindar resultados de calidad; la respuesta fue la creación de algoritmos para que las clasificaciones se realizaran con base en factores más complejos, relacionados con la calidad, la usabilidad y la satisfacción de los visitantes.

A finales de 2010, los administradores de las páginas web habían pasado meses o años optimizando sus sitios web, para que su posicionamiento en buscadores mejorara, en esta misma temporada el incremento de la popularidad de redes sociales y blogs propició cambios en los algoritmos para premiar a las páginas con contenido fresco y que clasificaran rápidamente en los primeros lugares de resultados; sin embargo con estos cambios y ante la constante duplicación de contenidos de miles de páginas web para rankear en los buscadores, Google lanza uno de sus algoritmos más arrasadores e importantes en la historia del motor de búsqueda.

El 23 de febrero de 2011 surge Panda, una actualización agresiva que se utiliza para penalizar a las páginas web que ofrecen contenido duplicado o escaso; su aparición fue un ataque directo contra el spam, que afectó a más del doce por ciento de resultados de búsqueda de ese año. En años posteriores, Panda ha sido actualizado constantemente, siendo el más actualizado de todos los algoritmos de Google; los primeros países donde Panda arrasó fueron en los de habla inglesa, mientras que en los de habla hispana afectó a las búsquedas en un menor porcentaje, de entre el seis y el nueve por ciento, pues los expertos en SEO ya conocían los cambios en algoritmos y las penalizaciones, y se habían preparado para recibirlo sin que afectara a sus webs.

algoritmo panda¿Por qué se penaliza el contenido duplicado?

A lo largo de la historia del motor de búsqueda, muchas páginas web han copiado contenido de otras con mejor clasificación en los buscadores y no se han conformado con copiar algunos puntos clave en los textos, sino que han copiado diseños, categorías, palabras clave e incluso frases de marca. Estas páginas se consideran como pobres de contenido y spammers, además de abusar de los recursos de otros sitios web que invierten recursos económicos e intelectuales para el desarrollo de sitios web de buena imagen y calidad, así como en expertos en redacción web y diseñadores de imágenes y logotipos.

Este algoritmo es la principal medida para frenar a los spammers y también es la prueba principal de que Google sigue considerando como el rey del marketing digital al contenido, una pieza clave en el SEO, la optimización, el tráfico e incluso en la viralidad. Panda se enfoca en brindar los mejores servicios a los usuarios de Internet que entran a los buscadores para solicitar información, por lo que Google busca que los resultados que despliega sean de la mejor calidad posible y que el usuario quede satisfecho con las respuestas encontradas, por ello se mantiene al ataque de los sitios que se valen de trucos de Black Hat y de estrategias negativas para posicionarse en los primeros lugares.

La forma en que un sitio es penalizado por Panda es en una caída en el posicionamiento, lo que tiene un mayor impacto de lo que podríamos creer, pues dejará de clasificar en los primeros resultados de búsqueda. Los contenidos que se penalizan con mayor frecuencia por este algoritmo son:

  • Contenidos de baja calidad, muy cortos o que no aportan la información relevante a las palabras clave y de la optimización del sitio.
  • Textos con mala redacción, faltas de ortografía o que resultan incomprensibles.
  • Contenido duplicado; las frases, títulos, artículos, pero también las categorías, estructura y entradas de blog pueden penalizarse.

¿Cómo domesticar al panda?

El primer paso para mantenernos lejos de una penalización a causa de Panda, debemos saber si los contenidos del sitio web son de calidad; en el blog de web masters de Google se proporcionan guías para saber si el sitio cumple con los estándares de calidad del motor de búsqueda, los cuales se relacionan con la fiabilidad de la información, la redacción por parte de personas que conozcan sobre el tema del que hablan, en la densidad de palabras clave de modo que exista concordancia pero sin abusar en este factor.

Anteriormente la densidad de palabra clave era un factor de gran importancia para el SEO, a mayor número de menciones de estas frases o palabras, se creía que el posicionamiento era mejor; actualmente una de las actualizaciones de Google: RankBrain ha demostrado que el motor de búsqueda se ha vuelto más inteligente y capaz de leer los sinónimos de una palabra o de frases, por lo que se recomienda tanto el uso de palabras de tipo long tail, como los sinónimos para enriquecer los contenidos.

Si bien puede ser muy difícil obtener contenido completamente nuevo, especialmente si tenemos una página o blog de noticias, se debe evitar el contenido duplicado a toda costa; en caso de basarse en alguna fuente de información, se debe reescribir la información, complementarla y evitar las citas textuales, parafraseando la información. Del mismo modo se recomienda evitar copiar contenido de materiales impresos como libros o revistas, ya que estos tienen derechos de autor y pueden causar el mismo efecto.

Factores como la extensión del contenido (se recomienda contenido largo e informativo), la correcta ortografía, la originalidad de los contenidos, una adecuada estructura en categorías y en la presentación de cada nuevo post y una experiencia positiva en el sitio en general son de gran importancia para brindar una experiencia de buena calidad en tu sitio web.

¿Y si recibimos una penalización?

La mejor forma de saber que hemos sido penalizados por el algoritmo Panda, o por otro de los algoritmos de Google, es a través de la herramienta Analytics, donde podremos ver una caída en el tráfico a causa de la caída en posicionamiento.

Podemos saber que hemos sido penalizados si contamos con una herramienta SEO, en caso de administrar la página web por nuestra cuenta, con estas herramientas podemos detectar los errores en el sitio y corregirlos antes de que causen mayor daño a la página web. Lo más recomendable es buscar la ayuda de expertos en Marketing Digital como Optimización Online, donde podemos eliminar el contenido duplicado, detectándolo eficazmente para erradicarlo.

Cabe aclarar que una misma página web puede tener contenido duplicado en hojas o subpáginas de archivos, del mismo modo se puede recibir una penalización a causa de páginas que hayan copiado a la nuestra, en este caso se puede enviar una solicitud a Google para que considere la situación y nos retire la sanción; sin embargo se requiere realizar cambios en el sitio web para ofrecer mayor calidad y corregir el problema que originó la penalización.

Del mismo modo podemos informar sobre los sitios web que copian nuestros contenidos en la plataforma Scraper Report, que permite denunciar el robo de contenido y ayudar a Google en la mejora de sus algoritmos para castigar a los sitios spam y que salgan de los lugares privilegiados en los buscadores. En este formulario solo tienes que compartir el URL de tu sitio con contenido original y el contenido del sitio que te copió, y el sistema DMCA de Google que gestiona los derechos de autor rastreará la fuente original de contenido y permitirá al equipo antispam del motor de búsqueda penalizar a los infractores y dejar libre de penalizaciones a tu sitio.

En caso de que seas tú o tus encargados del área de contenido y de la página web de tu negocio quienes copiaron contenido, plantea una estrategia para limpiar los contenidos duplicados, para esto puedes cambiar la redacción, personalizar los posteos con frases de tu marca, utilizar imágenes, videos o infografías para ganarte a tu audiencia. Es muy importante que pienses más en tus visitantes humanos que en los robots que entran a revisar el sitio, esto te ayudará a incrementar el tráfico y a que se compartan con mayor facilidad todos tus contenidos, lo que tendrá un impacto positivo e inmediato en tu sitio web.

Si bien no hay un mínimo o un máximo establecido de palabras para posicionar contenidos, se recomienda que el mínimo de palabras sea de más de 900, pero lo más importante es que sean nuevos, diferentes, con enfoques creativos y que realmente agreguen valor al lector.  

La última actualización de Panda se realizó en 2015 con Panda 4.2 y se enfocó en penalizar las hojas de un sitio web donde se presentará un contenido duplicado, en vez de castigar a la página en general, lo que representó una ayuda para los dueños de páginas web; sin embargo se recomienda optimizar las categorías, ofrecer descripciones de cada producto, personalizar la página e implementar medidas de protección para que el sitio web no sea copiado con facilidad.  

Si tu página web ha sido afectada por este algoritmo o quieres evitar una penalización, acércate a Optimización Online, los expertos del Marketing Digital, nosotros te ayudaremos a crear sitios de excelente calidad, apegados a los más altos estándares de calidad de los motores de búsqueda, optimizados para clasificar en los primeros resultados y para que cada uno de tus visitantes obtenga una visita satisfactoria.

Contáctanos hoy mismo y conoce todos los servicios que tenemos para ti.

Publicaciones recientes
diseño web bounce rateposicionamiento web