
Actualización: Después del contacto de varios sitios web interesándose por las agencias/profesionales que nos han ayudado a salir de Panda; queremos aclarar que tanto la estrategia de trabajo como su definición ha sido totalmente resultado del equipo interno: programadores, seo, editores... sin que nadie externo al portal colabore de forma directa en las diferentes etapas de este largo camino.
Tras la llegada del algoritmo Google Panda en 2011 nos vimos castigados con una bajada del 38% del tráfico. A día de hoy, y tras 3 años enfocados en recuperarnos, Panda 4.0 nos ha beneficiado con una subida del 65%, siendo el sitio que más ha conseguido recuperarse en España, según SearchMetrics. Durante este tiempo hemos obtenido mucha experiencia en Panda que nos ha ayudado a remontar.
En este artículo analizaremos el trabajo que hemos hecho y seguimos haciendo para recuperarnos de Google Panda, ofreceremos herramientas útiles y trucos que nos han ayudado. Lo hemos escrito al detalle para que sea una información útil que ayude a muchos sites a recuperarse de Panda.
Google Panda fue lanzado en febrero de 2011 (en US, el 13 de agosto de 2011 a nivel mundial) y supuso una revolución al tomarse en serio la calidad de los contenidos a la hora de posicionar a los sitios web, bajando todas las posiciones de aquellos sitios que considerara que tienen contenido de baja calidad.
En 2011, en PortalProgramas teníamos 5,7M usuarios únicos al mes y 21 millones de páginas vistas, con un total de más de 200 millones de descargas de programas realizadas por usuarios. Con la llegada de Panda, llegamos a perder aproximadamente un 38% del tráfico; SearchMetrics también destacó esta caida.

Primero nos situaremos en contexto.
Un poco de historia: Panda se lanzó en 2011
El lanzamiento del algoritmo Google Panda en febrero de 2011 causó un revuelo en Internet y cambió las reglas del SEO para siempre, de hecho la mayoría de afectados tuvieron que cambiar su forma de trabajar, cambiar su nombre, o incluso desaparecer. Con esta actualización, Google pretendía eliminar a los sitios de baja calidad de sus páginas de resultados.
Hubieron muchos ganadores y perdedores. Obviamente el tráfico que pierden unos sitios lo ganan otros. Sin embargo muy pocos hablan de ello. siendo muy sonados casos como los de DaniWeb, un foro de discusión de TI que llegó a perder el 70% de su tráfico y publicó su experiencia en Internet, HubPages.com que perdió el 87% y comenzó a usar subdominios para intentar salir de Panda, Suite101 que cambió su estrategia de publicar artículos masivamente para centrarse en contenido de calidad revisado por editores, Associated Content que perdió el 93% y se vio forzado a eliminar miles de artículos y renombrar su marca... La realidad, analizada dos años después, es que parece que apenas ningún sitio afectado negativamente por Panda ha logrado recuperarse al 100%.
¿Qué es Google Panda 4.0?
Esta nueva actualización de Panda no es sólo un refresco de los datos. También trae consigo modificaciones que suavizan la forma en la que identifica a los sitios con contenido de baja calidad, y sienta las bases para lo que serán los futuros cambios. Cambios que ya anunció Matt Cutts en marzo.
Así que nuestra recuperación se debe tanto a estas modificaciones como al trabajo de limpieza de contenido duplicado que venimos haciendo desde 2011.
Panda no viene solo: Payday Loans 2.0
Casi al mismo tiempo que Panda se ha lanzado otra actualización orientada específicamente a búsquedas donde hay mucho spam: palabras claves relacionadas con pornografía, tarjetas de crédito, hipotecas... En general, palabras clave con alto tráfico y alto CPC.
Según Matt Cutts, en US afecta al 0.3% de las búsquedas, mientras que Panda 4.0 afecta al 7%. Eso hace suponer que el impacto de este nuevo algoritmo ha sido mínimo, sin embargo, en nuestro caso parece que sí ha afectado al incremento en tráfico que hemos sufrido.
Panda y Payday Loans nos han beneficiado
Matt Cutts confirma las actualizaciones de Google Panda el 20 de mayo y Payday Loans 2.0 el fin de semana anterior (16 – 18 de mayo). En este margen de tiempo, en nuestro portal vemos dos claros picos de tráfico: uno entre el 16 y 19 de mayo, y otro muy superior del 20 al 22; coincidiendo con los lanzamientos de ambas actualizaciones.

Esto es importante para observar que, aunque nos centraremos en explicar el trabajo realizado para salir de Panda, una parte del crecimiento que hemos tenido en la última semana se debe a otro cambio de Google.
Ahora por fin comenzaremos a ver qué hemos hecho desde el día 13 de agosto de 2011 (fecha en que se lanzó Panda a nivel mundial) hasta hoy.
¿Qué hemos hecho desde 2011 para recuperarnos de Panda?
1º: Tras la caída, informarnos de lo que ha pasado
En Internet se comentaba que se trataba de la actualización 2.4 de Panda. En las primeras apenas nos había afectado al tráfico de US, pero en ésta fuimos sorprendidos con una bajada del 38% del tráfico del sitio.
Lo primero es informarse a fondo de:
- Qué es Panda y qué criterios analiza. Es necesario conocer el problema al detalle.
- Qué otros sitios se han visto afectados para saber qué tipo de contenidos premia y cuáles castiga y así saber mejor cómo enfocar el problema.
- Cómo se recomienda actuar para salir de esta “penalización”.
Aprendimos que no es realmente una penalización, sino un cambio de reglas. A la práctica parece lo mismo porque ambas suponen una bajada importante del tráfico orgánico en un breve periodo de tiempo. La diferencia está en gran parte en la recuperación: cuando comienzas a hacer las cosas bien en una penalización ves una recuperación instantánea, mientras que en Panda ves una recuperación gradual.
Esta fase es básica, tanto que esta fase en realidad nunca se acaba: constantemente salen nuevas noticias relacionadas, consejos u otra información que puede ser fundamental para ayudarte a tomar decisiones. Sólo decidimos seguir avanzando cuando consideramos que conocemos suficientemente a fondo el problema y las posibles soluciones.
Bonus tip: Si no sabes qué puede haberle pasado a tu sitio para caer puedes usar herramientas como Panguin Tool o mirar el listado de actualizaciones de Google (tardan días en actualizarlo).
2º: Saber por qué nos ha afectado a nosotros
Aquí comienza realmente nuestro trabajo. Nos reunimos los responsables del site para analizar qué había ocurrido, pensando que seguramente sería un caso de falso positivo y en la próxima actualización se solucionaría. Nos reunimos para estudiar el caso y saber qué contenido de baja calidad podríamos tener:
- Contenido duplicado en varias páginas de nuestro portal
- Contenido copiado de otros portales
- Falta de contenido único en algunas páginas
Para nuestra sorpresa, estudiándolo minuciosamente descubrimos que teníamos muchas fuentes de contenido duplicado. Por suerte nuestro sitio es de contenido editorial, con lo que acotar el problema no fue demasiado complicado. Aquí establecimos las posibles fuentes de contenido de baja calidad:
- Contenido original pero copiado en otros sitios: el eterno problema de conocer la fuente original del autor, Google en muchas ocasiones se equivocaba al posicionar por encima sitios que copiaban nuestro contenido original. Esto lo vimos con simplemente poner en Google la descripción de algunos de nuestros programas y usando herramientas como Copyscape y algunos comandos del buscador de Google. El contenido sindicado por RSS facilita la copia.
- Descripciones de programas copiados en cientos de páginas: un mismo programa se muestra en la página de su categoria, en la sección de gratuitos, en el buscador... Así con una simple búsqueda en Google:
site:portalprogramas.com "DESCRIPCION"Pudimos ver que el mismo texto estaba apareciendo en multitud de páginas diferentes.
- Fichas de producto con descripciones demasiado cortas. Algunas fichas tenían menos de 100 palabras. E incluso algunas no tenían imágenes.
- En algunas fichas de producto habíamos utilizado parte de la descripción que ofrecía el propio autor; un texto copiado en decenas de portales similares. Aunque la línea editorial claramente definía que la review debía ser íntegramente escrita por el editor tras testar el programa, en algunos casos los editores habían utilizado párrafos escritos por los propios autores. Esto lo conocimos gracias a la reunión con editores. Es importante reunirse con todas las personas implicadas en el desarrollo del sitio; todas tienen algo que aportar y pueden dar información importante o ideas que ayuden a resolver el problema.
- Buscador de programas indexado: el buscador es una fuente de contenido duplicado porque es fácil que dos búsquedas diferentes den los mismos resultados o muy parecidos, generando infinidad de páginas con los mismos resultados. Ejemplo con "ofimática" y "ofimática zoho".
- Tasa de rebote elevada: el buscador tenía una tasa de rebote del 48%. Eso también afecta al posicionamiento porque demuestra un escaso interés de los usuarios en el contenido.
- Gracias a la opción "Mejoras HTML" de Google Webmaster Tools pudimos encontrar páginas que tenían el mismo título (y casi siempre el mismo contenido). Con Screaming Frog y Xenu (autor) también pudimos encontrar páginas con el mismo contenido, errores 404...
En este punto ya disponemos de información suficiente para tomar decisiones estratégicas sobre cómo actuar. Pero es un momento muy peligroso por lo que veremos a continuación.
3º: No entrar en pánico
A estas alturas ya has observado un gran número de fuentes de contenido duplicado por lo que tienes claro que realmente tienes un problema. Y lo quieres solucionarlo antes posible.
Las decisiones tienen que estar bien fundamentadas, teniendo claro que esa es la mejor solución a adoptar entre las posibles. Parece obvio, pero no lo es: cuando eres el responsable de un sitio que sufre una caída cercana al 40% del tráfico es fácil caer en el error de querer solucionarlo todo en sólo unas horas o días, pero eso es un problema porque en ese estado de nerviosismo es fácil tomar decisiones equivocadas que agraven el problema.
Por ejemplo, en la primera reunión lo primero que descubrimos, lo más obvio, fue que habían más de 4.000 fichas de programas con algún párrafo copiado. La primera idea fue borrarlas todas pensando que así solucionaríamos el problema... pero ¡en realidad no hubiera sido así! En primer lugar no hace falta borrar el contenido, hay otras opciones como reescribirlo o usar "noindex" que también hay que considerar. Además, como posteriormente vimos, hay otras fuentes de contenido duplicado, por lo que no es tan sencillo solucionar el problema. Hay que estudiarlo todo, y a fondo. Porque cualquier decisión mal tomada puede agravar el problema. Y las buenas decisiones se toman cuando el equipo está calmado y actúa con lógica.
Tampoco vale de nada maldecir a Google por perjudicarnos, él hace lo mejor por los usuarios y por su negocio; y si ha decidido que nosotros no somos lo mejor para los usuarios lo que tenemos que hacer es invertir nuestro tiempo en hacerle ver que se equivoca.
Ya hemos visto que habían muchas fuentes de contenido duplicado, algunas eran fáciles de solucionar, pero otras iban a resultar muy costosas.
4º: Cambio a nivel estratégico
Destinar los recursos a solucionar los problemas como única vía para poder crecer en el futuro. Nos supuso dejar pausada la planificación de funcionalidades y mejoras para el portal y enfocarnos en solucionar los errores que habíamos encontrado.
Recuperación de Panda
Tras ésto llegaron las acciones que hicimos sobre el portal y que llevaron a la recuperación de Panda. Las hemos descrito detalladamente para que sirvan como guía:
Qué hemos hecho para recuperarnos de Panda >