¿Qué hemos hecho para recuperarnos de Panda?


google panda recovery

Actualización: Después del contacto de varios sitios web interesándose por las agencias/profesionales que nos han ayudado a salir de Panda; queremos aclarar que tanto la estrategia de trabajo como su definición ha sido totalmente resultado del equipo interno: programadores, seo, editores... sin que nadie externo al portal colabore de forma directa en las diferentes etapas de este largo camino.

En el primer artículo hablamos sobre Cómo aumentamos un 65% de tráfico tras Panda 4.0, en éste nos centraremos en las acciones concretas que hemos realizado desde 2011 para recuperarnos.

Cada vez que buscamos información sobre Panda vemos que todas las guias se centran en “ofrecer contenido de calidad”, pero nosotros necesitábamos saber qué acciones concretas teníamos que hacer en PortalProgramas para recuperarnos. Además, hay pocos casos documentados de sitios que hayan conseguido salir de Panda.

Por eso, nosotros hemos querido hacer esta guia: pensamos que es necesario detallar qué acciones se han realizado, qué ha funcionado y por qué; nuestra experiencia la pueden aprovechar muchas personas para saber qué hacer para mejorar su contenido y recuperarse de Panda. Este trabajo también es una forma de devolver la ayuda que hemos obtenido en Internet gracias a cientos de personas que escriben artículos, guías, comentarios... sobre cómo salir de Panda.

Vamos a ver qué acciones hemos realizado desde 2011 para recuperarnos de Panda:

1º Reescribir reviews de productos

Uno de los problemas más costosos era la duplicación de textos en algunas descripciones de programas. Resultaba imposible saber exactamente cuánto texto se había copiado y en qué programas. Por lo que optamos por ir sobre seguro y, para todos los programas de los que tuviéramos dudas sobre si contiene texto duplicado, volverlos a analizar y describir.

que hemos hecho para recuperarnos panda | milbits

A la vez, descubrimos varios centenares de fichas con descripciones muy cortas (menos de 100 palabras). Y también decidimos reescribirlas.

En total fueron unas 5.000 fichas para reescribir. Para solucionar el problema lo antes posible tuvimos que ampliar plantilla con 4 personas que se dedicaban en exclusiva a analizar programas y describirlos. Las reviews pasaron a ser más extensas, con al menos 200 palabras, imágenes, y vídeos si es posible y mayores controles para asegurar la calidad de los contenidos.

Algunos programas eran de mala calidad, así que los eliminamos mostrando una página 404 en su lugar. En otros casos, habían diferentes versiones de un mismo programa (páginas muy similares entre sí) así que mantuvimos el más descargado y los demás los eliminamos añadiendo en su lugar una redirección 301 hacia el primero.

Mientras se reescribían esas descripciones pusimos la etiqueta "noindex" en todas ellas para que Google no considerara esas páginas y nos valorara mejor. Sin embargo, no notamos ninguna mejora por el uso de esta etiqueta.

2º Sindicación de contenido por RSS con retraso

Los ers tienen fácil coger nuestro contenido a través de los RSS. En nuestro caso, ofrecemos una gran cantidad de RSS para que cada usuario escoja los que más les convenga. Pero eso facilita enormemente el trabajo a los scrapers para que copien todo nuestro contenido y, lo más grave, Google lo encuentre en ellos antes que en nosotros.

Para solucionarlo existen guías para ayudar a proteger tus RSS con consejos como poner sólo un resumen del artículo o añadir enlaces a tu contenido. Es importante que cada entrada de tus RSS lleven siempre enlaces hacia tu contenido, así cuando los utilicen generarán enlaces hacia tu contenido original. Aún así, hay scrapers que eliminan esos enlaces, y más adelante veremos qué hacer con ellos.

En nuestro caso los RSS ya llevaban enlaces y queríamos poner el artículo completo para facilitar la lectura a los usuarios. Así que nuestra opción fue retrasar la publicación del contenido RSS durante 3 horas. De esta forma, es mucho más probable que Google encuentre el contenido original en nuestro portal antes que en el de los scrapers.

3º Solicitar a otros sitios que eliminen contenido nuestro copiado

Detectamos varios scrapers: sitios que habían copiado centenares de páginas de nuestro portal. En algunos casos era sindicado por RSS, otras veces eran copias descaradas del portal, y que en algunas de ellas posicionaban por encima de nosotros. Eso era un problema, por lo que hicimos una lista de las más importantes y contactamos individualmente con cada una. En la mayoría eliminaron el contenido rápidamente y para otras fue más difícil tanto dar con los creadores del portal (WHOIS privado) como conseguir que quitaran el contenido; teniendo que recurrir a abogados en algunos casos. Aún así, conseguimos eliminar el contenido copiado en la gran mayoría de sitios con los que contactamos.

En este punto, recomendamos ir siempre por las buenas; pues muchos webmasters desconocían el daño que nos podían estar causando y quitaron el contenido rápidamente disculpándose.

Para estos casos a Google le puedes enviar un scrape report para avisarle. También tiene una herramienta para ayudarte a eliminar contenido de su índice. Y, desde US, si lo acompañas con una queja ante la DMCA mucho mejor.

Bonus tip: No pierdas demasiado tiempo con ésto. Nosotros opinamos que el foco debe estar en crear contenido de calidad. Piensa que en el tiempo que inviertes en que un sitio elimine una página que te ha copiado puedes crear entre 2 y 4 páginas nuevas con contenido original; y con eso sacarás mucho más beneficio. Céntrate en eliminar sólo el contenido que realmente te pueda causar un problema, el resto del tiempo, crea contenido único.

4º No usar "noindex" de forma masiva

En un esfuerzo por eliminar páginas "sencillas" con poco contenido decidimos poner "noindex" en la página de contacto, páginas con filtros y paginaciones del buscador y de las categorías.

Fueron miles de páginas desindexadas. Un error. Es una decisión demasiado drástica que no en todos los casos fue bien. Lo corregimos y aplicamos otras soluciones que mantenemos a día de hoy que consideramos las correctas:

  • Páginas como las de contacto pueden estar indexadas, no hay problema
  • Las paginaciones las etiquetamos con "rel=next" y "rel=prev" que veremos más adelante
  • Las páginas con filtros utilizan "canonical" para indicar cuál es la página original

De esta forma estamos tagueando correctamente cada tipo de página, y dejamos que sea Google quien decida qué quiere hacer con ella.

5º Uso masivo de canonical

que hemos hecho para recuperarnos panda | milbits

Un problema surgido a partir de Panda es que a una misma página podemos acceder normalmente por infinidad de URLs, por ejemplo añadiendo parámetros:

https://www.portalprogramas.com/age-of-mythology-extended-edition/

https://www.portalprogramas.com/age-of-mythology-extended-edition/?param=a

Aunque muestren el mismo contenido son dos URLs diferentes, y los buscadores entienden que son páginas diferentes. Así que sería contenido duplicado.

Una forma de solucionarlo es usar la herramienta para gestionar parámetros que ofrece Google Webmaster Tools, que te permite especificar qué parámetros ignorar. Así puedes ignorar parámetros de paginación, de ordenación, códigos de afiliados...

Pero para nosotros esa no era la solución: hay infinidad de formas de generar URLs duplicadas. La solución fue usar canonical. Con canonical podemos especificar cuál es la URL original del contenido que estamos viendo, y así, sea cual sea la URL que vea el usuario, los buscadores siempre entenderán bien las páginas de nuestro site.

Para ello estudiamos la ayuda que ofrece Google y una guía para implementarla. Fue una decisión difícil, meditada y muy monitorizada, porque implementar mal esta etiqueta puede llegar a ser desastroso para el site debido a que le manda una indicación a Google sobre qué páginas son las que debería indexar y qué páginas no.

6º Uso de rel=next y rel=prev

que hemos hecho para recuperarnos panda | milbits

La paginación puede dar quebraderos de cabeza porque los buscadores pueden estar dando más importancia a una página secundaria que a la primera. Para evitarlo y que los buscadores entiendan la estructura de nuestro site no se recomienda usar "noindex" ni "canonical" para estas páginas, sino las etiquetas “rel=next” y “rel=prev” que indicarán la relación entre las diferentes páginas.

Nosotros seguimos esta guía para implementar rel=next y rel=prev.

Aunque no sea directamente contenido duplicado, como estrategia global del site sí que nos interesa que los buscadores entiendan perfectamente nuestra estructura porque les ayudará a no cometer errores al etiquetar nuestro contenido.

7º Uso de rel=author

Incluir la información del autor de un contenido en los resultados de búsqueda de Google tiene ciertas ventajas. Pero desde el punto de vista de Panda la más importante es que ayuda a crear credibilidad y autoridad del contenido gracias a que está asociado a una persona. Según Matt Cutts:

"I'm pretty excited about the ideas behind authorship. Basically if you can move from an anonymous web to a web where you have some notion of identity. And maybe even reputation of individual author. Then web spam, you kind of get the benefits for free."

Se trata de seguir una serie de pasos para vincular la cuenta Google del editor con nuestro site, y que mediante una herramienta podemos comprobar si está bien hecho. Todas nuestras páginas de programas incorporan la etiqueta rel=author.


Rostro del autor en resultados de búsqueda

8º Contenido único en diferentes idiomas

Cuando decidimos ampliar el portal integrando más idiomas sabíamos que ésto es otra fuente de problemas de contenido duplicado: las páginas en diferentes idiomas pueden ser similares cambiando sólo el texto, las traducciones automáticas dan problemas... Además, los buscadores pueden equivocarse a la hora de mostrar la página correcta al usuario según su idioma/país.

Nosotros decidimos trabajar cada nuevo idioma de forma independiente, con un equipo de personas propio, nativo, y sin herramientas automáticas de traducción. Eso supuso una inversión mayor en tiempo y dinero, pero nos ayuda a ofrecer a los usuarios contenido de la máxima calidad que a su vez beneficia al portal.

Utilizamos la etiqueta rel=alternate hreflang='x' en todos nuestros programas para ayudar a que Google entienda la relación entre ellos y sepa mostrar el correcto a cada usuario. Luego puedes usar esta herramienta para testar si el etiquetado es correcto.


Etiquetas alternates

En cada programa mostramos enlaces etiquetados con “rel=alternate” hacia el mismo programa en los diferentes idiomas.

Bonus: Si quieres expandirte y trabajar en varios idiomas/países no utilices herramientas automáticas de traducción, sólo conseguirás que te etiqueten como contenido de bajo valor. Contrata a redactores nativos: escribirán mejor y podrán poner más palabras clave en los textos. Tu texto valdrá mucho más y conseguirá mejores posiciones en buscadores. Puedes encontrarlos en sitios como oDesk.com o eLance.com

Bonus: Si el texto está traducido hay que etiquetarlo correctamente para evitar que Google lo considere contenido autogenerado (de baja calidad). Pero a la vez, etiquetarlo así hace que le dé menos importancia que a otros textos sin traductores automáticos. Lo mejor, es que los textos los escriban personas de forma manual. Aquí tienes una lista de errores en una estrategia de seo internacional.

9º Mejorar la velocidad de navegación

Los usuarios consideran la velocidad de la página como un factor importante. Así que Google también la tiene en cuenta a la hora de posicionar un site


Test de velocidad web

Para testear la velocidad puedes usar herramientas como PingDom, WebsiteOptimization.com o Google Page Speed Insights.

En nuestro caso la velocidad era un problema y decidimos enfocarnos en mejorarla para todos los países en los que trabajamos. Existen muchas guías sobre cómo mejorar la velocidad de un sitio, la mayoría muy similares. Nosotros seguimos las guiás haciendo un sinfín de cambios técnicos: cambios a nivel de servidor, sprites CSS, caché etc y uno de los que mejor funcionó fue el uso de un CDN para el contenido estático. Puedes ver buenas comparativas de servicios CDN o ver todos los proveedores conocidos.

Bonus: Existen otra solución más avanzadas y que incrementa más la velocidad del sitio, la aceleración dinámica de portales. Sin embargo el coste es bastante más elevado y sólo la recomiendo a portales grandes donde la velocidad es un factor clave.

Bonus: Tener en cuenta el límite de rastreo y de indexación

Mucha gente aún piensa que cuantas más páginas indexadas, mejor. Y no siempre es así, y menos desde la llegada de Panda donde páginas de baja calidad significa tener una mala reputación. Las páginas indexadas tienen que ser en primer lugar las importantes, las que más tiene que rastrear y las que tienes que asegurarte que están indexadas.

Google asigna a cada sitio un límite de páginas rastreadas al día y otro para las páginas indexadas. Ese número es dinámico y depende de la autoridad de tu sitio. Pero es importante tenerlo en cuenta para no bombardear al robot de Google con páginas de contenido poco relevante, y que luego no pueda llegar al de calidad. Por ejemplo, si tiene que rastrear 100 páginas de páginas con filtros, con ordenaciones... quizá no llegue a rastrear todas tus fichas de productos.

La solución puede ser diferente según el caso. Podemos tener menos enlaces a páginas secundarias dentro de nuestro site, podemos usar "no follow", aunque Cutts recomienda no hacerlo. En nuestro caso hemos limitado el número de páginas secundarias que tenemos para facilitar la indexación de las importantes.

Conclusiones

Desde PortalProgramas recomendamos revisar bien a fondo el sitio afectado para encontrar todas las posibles fuentes de contenido duplicado, es lo más importante. El trabajo para recuperarse de Panda es intenso, es complicado e incluso a veces arriesgado. Pero se puede lograr.

Hoy en día es más importante escribir un artículo a la semana de contenido interesante, que escribir uno al día que sólo van a leer tus amigos. La calidad premia y cada vez es más difícil engañar a los buscadores. A largo plazo, los sitios que se mantienen son los que hacen las cosas bien: en contenido, diseño, usabilidad...

Llena tu sitio de contenido útil... pero no olvides eliminar el de baja calidad. En algunas ocasiones hay que tomar decisiones difíciles como eliminar contenido de baja calidad que está dando tráfico. Porque mantener ese contenido afecta a la valoración global de Google de tu site, y por cada visita que te llega a ese contenido malo probablemente estás perdiendo muchas más que te llegarían si no tuvieras esa valoración negativa.

¿Qué pensamos de Google Panda?

A pesar de todo, Google Panda ha sido en general un cambio positivo para Internet. Era necesario poner un freno a la facilidad con la que se copiaba y posicionaba contenido de baja calidad, los Made For Adsense (MFAs). Este cambio le supuso a muchas granjas de contenido desaparecer del mercado, a otras adaptarse y a todos cambiar las reglas de juego para crear contenido de calidad.

Sobre PortalProgramas... ¡Síguenos!

Somos un portal de software nacido en 2003 con programas para Windows, Mac y móviles. Tenemos un observatorio tecnológico donde hacemos estudios y entrevistas en el sector del software. Si te interesan las apps, tienes un Android o un iPhone puedes seguirnos en Facebook, Youtube, en Twitter o en Google+






Opiniones sobre ¿Qué hemos hecho para recuperarnos de Panda?

Hace 7 años

Hola
he encontrado este post en G+.
Muy bueno, enhorabuena. Voy a distribuirlo por mi red de contactos y red de profesionales online.
Seguro que lo van encontrar muy interesante.
Un saludo


Hace 7 años

Realmente que gran articulo para la comunidad SEO en español, es cierto que hay poca información sobre casos de recuperación de Panda y mucho menos posts como estos que resumen las acciones que se deberían emplear para poder salir de la penalización.

Además la referencia hacia los otros artículos que utilizaron de guía en cada acción enriquecen absolutamente esta entrada.

Gracias en nombre de la comunidad SEO en español.


Hace 7 años

Mi más sincera enhorabuena por un artículo tan útil y currado como éste. Reconozco haberlo abierto casi por casualidad en mi mail, ha merecido la pena.

Compartiendo en Google+


Hace 7 años

Muchas gracias Jesús en nombre del todo el equipo de PortalProgramas por tu comentario. Esperamos que sea útil a toda la comunidad SEO.


Hace 7 años

Gracias por tu comentario Cristian. El citar las fuentes que tanto nos ayudaron a remontarnos de Panda consideramos que era una obligación para que todos nos pudiéramos beneficiar.


Hace 7 años

Gracias por compartir el post en tu red Frank. Esperamos que a todos les sea de utilidad.


Hace 7 años

Un artículo muy interesante, gracias por compartir vuestra experiencia positiva, ayuda a que muchos sepan cómo hacer las cosas bien.

Estoy de acuerdo en que Google necesitaba reaccionar ante la avalancha de sitios posicionados con contenido de poca calidad, que en realidad nos afectaba a todos como propios usuarios del buscador.


Hace 7 años

De lo mejor que he leído últimamente, hace tiempo que me preocupan varios de los temas que habéis tocado, como el paginado, los parámetros de páginas con filtros de búsqueda y la traducción de contenidos, si utilizar noindex o no, y hasta ahora no había encontrado ninguna explicación que los reuniera todos, y explicando tan claramente qué hacer en cada caso.
Enhorabuena, y gracias por compartir vuestra experiencia!


Hace 7 años

Gracias por vuestros comentarios ;)


Hace 7 años

Excelente artìculo tanto por la oportunidad, la perspectiva, el tema, la problemàtica, la narrativa, la calidad del enfoque y, fundfamentalmente, por situarse de cara a una realidad de cambios de vanguardia sorprendente. Muchas gracias estimado amigo por tu actitud profesional .


Hace 7 años

Enhorabuena por vuestra actitud.

Compartir conocimientos que pueda usar vuestra propia competencia es altruismo en estado puro.


Hace 7 años

Sebastián y Relos, muchas gracías por vuestro interés!


Hace 7 años

Les estoy muy reconocido por vuestra actitud profesional muy encomiable, por cierto . Otra vez, muchas gracias .


Hace 6 años y 8 meses

Disculpen la molestia, en mi caso panda también fue muy duro con mis paginas y estoy trabajando para recuperarme.

Mi duda es cuando ustedes dicen que eliminaron las reviews repetidas o similares y añadieron una redirección 301, esto lo hicieron borrando el contenido del articulo y redireccionandolo, o solo lo redireccionaron a otro.

Pregunto esto ya que en mi caso estoy redireccionando muchos, pero el contenido lo dejo como está, y no se si deberia eliminarlo, mejorarlo o dejarlo como estoy haciendo.

Saludos espero su respuesta


Hace 6 años y 5 meses

Un artículo muy completo. Gracias


Hace 6 años y 3 meses

Genial estos trucos para recuperarnos del panda y aumentar el trafico en la web.



Opina sobre ¿Qué hemos hecho para recuperarnos de Panda?

Nombre:

Tu email:

Página web (si tienes):

Opinar:

Escoge el recuadro negro: para evitar spam