
Actualización: Después del contacto de varios sitios web interesándose por las agencias/profesionales que nos han ayudado a salir de Panda; queremos aclarar que tanto la estrategia de trabajo como su definición ha sido totalmente resultado del equipo interno: programadores, seo, editores... sin que nadie externo al portal colabore de forma directa en las diferentes etapas de este largo camino.
En el primer artículo hablamos sobre Cómo aumentamos un 65% de tráfico tras Panda 4.0, en éste nos centraremos en las acciones concretas que hemos realizado desde 2011 para recuperarnos.
Cada vez que buscamos información sobre Panda vemos que todas las guias se centran en “ofrecer contenido de calidad”, pero nosotros necesitábamos saber qué acciones concretas teníamos que hacer en PortalProgramas para recuperarnos. Además, hay pocos casos documentados de sitios que hayan conseguido salir de Panda.
Por eso, nosotros hemos querido hacer esta guia: pensamos que es necesario detallar qué acciones se han realizado, qué ha funcionado y por qué; nuestra experiencia la pueden aprovechar muchas personas para saber qué hacer para mejorar su contenido y recuperarse de Panda. Este trabajo también es una forma de devolver la ayuda que hemos obtenido en Internet gracias a cientos de personas que escriben artículos, guías, comentarios... sobre cómo salir de Panda.
Vamos a ver qué acciones hemos realizado desde 2011 para recuperarnos de Panda:
1º Reescribir reviews de productos
Uno de los problemas más costosos era la duplicación de textos en algunas descripciones de programas. Resultaba imposible saber exactamente cuánto texto se había copiado y en qué programas. Por lo que optamos por ir sobre seguro y, para todos los programas de los que tuviéramos dudas sobre si contiene texto duplicado, volverlos a analizar y describir.

A la vez, descubrimos varios centenares de fichas con descripciones muy cortas (menos de 100 palabras). Y también decidimos reescribirlas.
En total fueron unas 5.000 fichas para reescribir. Para solucionar el problema lo antes posible tuvimos que ampliar plantilla con 4 personas que se dedicaban en exclusiva a analizar programas y describirlos. Las reviews pasaron a ser más extensas, con al menos 200 palabras, imágenes, y vídeos si es posible y mayores controles para asegurar la calidad de los contenidos.
Algunos programas eran de mala calidad, así que los eliminamos mostrando una página 404 en su lugar. En otros casos, habían diferentes versiones de un mismo programa (páginas muy similares entre sí) así que mantuvimos el más descargado y los demás los eliminamos añadiendo en su lugar una redirección 301 hacia el primero.
Mientras se reescribían esas descripciones pusimos la etiqueta "noindex" en todas ellas para que Google no considerara esas páginas y nos valorara mejor. Sin embargo, no notamos ninguna mejora por el uso de esta etiqueta.
2º Sindicación de contenido por RSS con retraso
Los ers tienen fácil coger nuestro contenido a través de los RSS. En nuestro caso, ofrecemos una gran cantidad de RSS para que cada usuario escoja los que más les convenga. Pero eso facilita enormemente el trabajo a los scrapers para que copien todo nuestro contenido y, lo más grave, Google lo encuentre en ellos antes que en nosotros.
Para solucionarlo existen guías para ayudar a proteger tus RSS con consejos como poner sólo un resumen del artículo o añadir enlaces a tu contenido. Es importante que cada entrada de tus RSS lleven siempre enlaces hacia tu contenido, así cuando los utilicen generarán enlaces hacia tu contenido original. Aún así, hay scrapers que eliminan esos enlaces, y más adelante veremos qué hacer con ellos.
En nuestro caso los RSS ya llevaban enlaces y queríamos poner el artículo completo para facilitar la lectura a los usuarios. Así que nuestra opción fue retrasar la publicación del contenido RSS durante 3 horas. De esta forma, es mucho más probable que Google encuentre el contenido original en nuestro portal antes que en el de los scrapers.
3º Solicitar a otros sitios que eliminen contenido nuestro copiado
Detectamos varios scrapers: sitios que habían copiado centenares de páginas de nuestro portal. En algunos casos era sindicado por RSS, otras veces eran copias descaradas del portal, y que en algunas de ellas posicionaban por encima de nosotros. Eso era un problema, por lo que hicimos una lista de las más importantes y contactamos individualmente con cada una. En la mayoría eliminaron el contenido rápidamente y para otras fue más difícil tanto dar con los creadores del portal (WHOIS privado) como conseguir que quitaran el contenido; teniendo que recurrir a abogados en algunos casos. Aún así, conseguimos eliminar el contenido copiado en la gran mayoría de sitios con los que contactamos.
En este punto, recomendamos ir siempre por las buenas; pues muchos webmasters desconocían el daño que nos podían estar causando y quitaron el contenido rápidamente disculpándose.
Para estos casos a Google le puedes enviar un scrape report para avisarle. También tiene una herramienta para ayudarte a eliminar contenido de su índice. Y, desde US, si lo acompañas con una queja ante la DMCA mucho mejor.
Bonus tip: No pierdas demasiado tiempo con ésto. Nosotros opinamos que el foco debe estar en crear contenido de calidad. Piensa que en el tiempo que inviertes en que un sitio elimine una página que te ha copiado puedes crear entre 2 y 4 páginas nuevas con contenido original; y con eso sacarás mucho más beneficio. Céntrate en eliminar sólo el contenido que realmente te pueda causar un problema, el resto del tiempo, crea contenido único.
4º No usar "noindex" de forma masiva
En un esfuerzo por eliminar páginas "sencillas" con poco contenido decidimos poner "noindex" en la página de contacto, páginas con filtros y paginaciones del buscador y de las categorías.
Fueron miles de páginas desindexadas. Un error. Es una decisión demasiado drástica que no en todos los casos fue bien. Lo corregimos y aplicamos otras soluciones que mantenemos a día de hoy que consideramos las correctas:
- Páginas como las de contacto pueden estar indexadas, no hay problema
- Las paginaciones las etiquetamos con "rel=next" y "rel=prev" que veremos más adelante
- Las páginas con filtros utilizan "canonical" para indicar cuál es la página original
De esta forma estamos tagueando correctamente cada tipo de página, y dejamos que sea Google quien decida qué quiere hacer con ella.
5º Uso masivo de canonical

Un problema surgido a partir de Panda es que a una misma página podemos acceder normalmente por infinidad de URLs, por ejemplo añadiendo parámetros:
https://www.portalprogramas.com/age-of-mythology-extended-edition/
https://www.portalprogramas.com/age-of-mythology-extended-edition/?param=a
Aunque muestren el mismo contenido son dos URLs diferentes, y los buscadores entienden que son páginas diferentes. Así que sería contenido duplicado.
Una forma de solucionarlo es usar la herramienta para gestionar parámetros que ofrece Google Webmaster Tools, que te permite especificar qué parámetros ignorar. Así puedes ignorar parámetros de paginación, de ordenación, códigos de afiliados...
Pero para nosotros esa no era la solución: hay infinidad de formas de generar URLs duplicadas. La solución fue usar canonical. Con canonical podemos especificar cuál es la URL original del contenido que estamos viendo, y así, sea cual sea la URL que vea el usuario, los buscadores siempre entenderán bien las páginas de nuestro site.
Para ello estudiamos la ayuda que ofrece Google y una guía para implementarla. Fue una decisión difícil, meditada y muy monitorizada, porque implementar mal esta etiqueta puede llegar a ser desastroso para el site debido a que le manda una indicación a Google sobre qué páginas son las que debería indexar y qué páginas no.
6º Uso de rel=next y rel=prev

La paginación puede dar quebraderos de cabeza porque los buscadores pueden estar dando más importancia a una página secundaria que a la primera. Para evitarlo y que los buscadores entiendan la estructura de nuestro site no se recomienda usar "noindex" ni "canonical" para estas páginas, sino las etiquetas “rel=next” y “rel=prev” que indicarán la relación entre las diferentes páginas.
Nosotros seguimos esta guía para implementar rel=next y rel=prev.
Aunque no sea directamente contenido duplicado, como estrategia global del site sí que nos interesa que los buscadores entiendan perfectamente nuestra estructura porque les ayudará a no cometer errores al etiquetar nuestro contenido.
7º Uso de rel=author
Incluir la información del autor de un contenido en los resultados de búsqueda de Google tiene ciertas ventajas. Pero desde el punto de vista de Panda la más importante es que ayuda a crear credibilidad y autoridad del contenido gracias a que está asociado a una persona. Según Matt Cutts:
"I'm pretty excited about the ideas behind authorship. Basically if you can move from an anonymous web to a web where you have some notion of identity. And maybe even reputation of individual author. Then web spam, you kind of get the benefits for free."
Se trata de seguir una serie de pasos para vincular la cuenta Google del editor con nuestro site, y que mediante una herramienta podemos comprobar si está bien hecho. Todas nuestras páginas de programas incorporan la etiqueta rel=author.

8º Contenido único en diferentes idiomas
Cuando decidimos ampliar el portal integrando más idiomas sabíamos que ésto es otra fuente de problemas de contenido duplicado: las páginas en diferentes idiomas pueden ser similares cambiando sólo el texto, las traducciones automáticas dan problemas... Además, los buscadores pueden equivocarse a la hora de mostrar la página correcta al usuario según su idioma/país.
Nosotros decidimos trabajar cada nuevo idioma de forma independiente, con un equipo de personas propio, nativo, y sin herramientas automáticas de traducción. Eso supuso una inversión mayor en tiempo y dinero, pero nos ayuda a ofrecer a los usuarios contenido de la máxima calidad que a su vez beneficia al portal.
Utilizamos la etiqueta rel=alternate hreflang='x' en todos nuestros programas para ayudar a que Google entienda la relación entre ellos y sepa mostrar el correcto a cada usuario. Luego puedes usar esta herramienta para testar si el etiquetado es correcto.

En cada programa mostramos enlaces etiquetados con “rel=alternate” hacia el mismo programa en los diferentes idiomas.
Bonus: Si quieres expandirte y trabajar en varios idiomas/países no utilices herramientas automáticas de traducción, sólo conseguirás que te etiqueten como contenido de bajo valor. Contrata a redactores nativos: escribirán mejor y podrán poner más palabras clave en los textos. Tu texto valdrá mucho más y conseguirá mejores posiciones en buscadores. Puedes encontrarlos en sitios como oDesk.com o eLance.com
Bonus: Si el texto está traducido hay que etiquetarlo correctamente para evitar que Google lo considere contenido autogenerado (de baja calidad). Pero a la vez, etiquetarlo así hace que le dé menos importancia que a otros textos sin traductores automáticos. Lo mejor, es que los textos los escriban personas de forma manual. Aquí tienes una lista de errores en una estrategia de seo internacional.
9º Mejorar la velocidad de navegación
Los usuarios consideran la velocidad de la página como un factor importante. Así que Google también la tiene en cuenta a la hora de posicionar un site

Para testear la velocidad puedes usar herramientas como PingDom, WebsiteOptimization.com o Google Page Speed Insights.
En nuestro caso la velocidad era un problema y decidimos enfocarnos en mejorarla para todos los países en los que trabajamos. Existen muchas guías sobre cómo mejorar la velocidad de un sitio, la mayoría muy similares. Nosotros seguimos las guiás haciendo un sinfín de cambios técnicos: cambios a nivel de servidor, sprites CSS, caché etc y uno de los que mejor funcionó fue el uso de un CDN para el contenido estático. Puedes ver buenas comparativas de servicios CDN o ver todos los proveedores conocidos.
Bonus: Existen otra solución más avanzadas y que incrementa más la velocidad del sitio, la aceleración dinámica de portales. Sin embargo el coste es bastante más elevado y sólo la recomiendo a portales grandes donde la velocidad es un factor clave.
Bonus: Tener en cuenta el límite de rastreo y de indexación
Mucha gente aún piensa que cuantas más páginas indexadas, mejor. Y no siempre es así, y menos desde la llegada de Panda donde páginas de baja calidad significa tener una mala reputación. Las páginas indexadas tienen que ser en primer lugar las importantes, las que más tiene que rastrear y las que tienes que asegurarte que están indexadas.
Google asigna a cada sitio un límite de páginas rastreadas al día y otro para las páginas indexadas. Ese número es dinámico y depende de la autoridad de tu sitio. Pero es importante tenerlo en cuenta para no bombardear al robot de Google con páginas de contenido poco relevante, y que luego no pueda llegar al de calidad. Por ejemplo, si tiene que rastrear 100 páginas de páginas con filtros, con ordenaciones... quizá no llegue a rastrear todas tus fichas de productos.
La solución puede ser diferente según el caso. Podemos tener menos enlaces a páginas secundarias dentro de nuestro site, podemos usar "no follow", aunque Cutts recomienda no hacerlo. En nuestro caso hemos limitado el número de páginas secundarias que tenemos para facilitar la indexación de las importantes.
Conclusiones
Desde PortalProgramas recomendamos revisar bien a fondo el sitio afectado para encontrar todas las posibles fuentes de contenido duplicado, es lo más importante. El trabajo para recuperarse de Panda es intenso, es complicado e incluso a veces arriesgado. Pero se puede lograr.
Hoy en día es más importante escribir un artículo a la semana de contenido interesante, que escribir uno al día que sólo van a leer tus amigos. La calidad premia y cada vez es más difícil engañar a los buscadores. A largo plazo, los sitios que se mantienen son los que hacen las cosas bien: en contenido, diseño, usabilidad...
Llena tu sitio de contenido útil... pero no olvides eliminar el de baja calidad. En algunas ocasiones hay que tomar decisiones difíciles como eliminar contenido de baja calidad que está dando tráfico. Porque mantener ese contenido afecta a la valoración global de Google de tu site, y por cada visita que te llega a ese contenido malo probablemente estás perdiendo muchas más que te llegarían si no tuvieras esa valoración negativa.
¿Qué pensamos de Google Panda?
A pesar de todo, Google Panda ha sido en general un cambio positivo para Internet. Era necesario poner un freno a la facilidad con la que se copiaba y posicionaba contenido de baja calidad, los Made For Adsense (MFAs). Este cambio le supuso a muchas granjas de contenido desaparecer del mercado, a otras adaptarse y a todos cambiar las reglas de juego para crear contenido de calidad.
Sobre PortalProgramas... ¡Síguenos!
Somos un portal de software nacido en 2003 con programas para Windows, Mac y móviles. Tenemos un observatorio tecnológico donde hacemos estudios y entrevistas en el sector del software. Si te interesan las apps, tienes un Android o un iPhone puedes seguirnos en Facebook, Youtube, en Twitter o en Google+