penalizacion google

Salir de las penalizaciones de Google

Eric Jorge Seguí Parejo Técnicas 0 Comments

O COMO ASCENDER DESDE LOS ABISMOS DEL INFIERNO MIENTRAS TU WEB ES ARRASTRADA POR EL MISMISIMO KRAKEN DEL ALGORITMO DE GOOGLE

Panda, penguin, el palomo, payday, con tanto nombre no hay ya quien se aclare, y es normal que saquen cambios y no sepan ni a que se debe, el berengenal que deben de tener montado después de tantos años, debe ser de cuidado.

Pero no vengo a hablar de esto, vengo a explicar como salir de una penalización de google y no morir en el intento. Para ello explicaré primero el tipo de penalizaciones que existen para luego valorar que herramientas usar en cada penalización. Así que si nunca te enfrentaste a una, aquí tienesla guía básica de supervivencia para derrotar a esta calamidad/monstruo.

Tipos de penalizaciones

Existen diferentes algoritmos y personas que día a día trabajan en los resultados y algoritmos, incluso existen algoritmos que se dedican a aprender de los resultados que ellos van analizando de otras webs para mejorarses. Es por ello, que ante tanto desorden, debemos clasificar y diferencias los tipos de penalizaciones existentes dentro de google para que nos sea más fácil identificar el problemas y poder recuperar nuestra web para no empezar una nueva, ya que requiere perdidas bastante grandes para la empresa. Dicho esto, las penalizaciones de google las podemos clasificar dentro de dos grandes grupos, las manuales y las automáticas.

Penalizaciones de Google manuales

Son las más jodidas, (más claro agua). Son aquellas penalizaciones donde un quality rater, debido a que alguien denunció tu web o porque saltaron algunas señales de alarma, al final dieron pie a que google sospechara que estabas realizando malas prácticas y para verificarlo, una persona revisa tu web.

Los quality raters, son personas reales que se dedican a valorar páginas web de forma manual según un guión (más famosamente conocidas como guide lines).

Por lo menos, tienen el detalle de, si tienes tu web enlazada a Webmaster tools, mandarte un aviso diciendote,

Eh! Estoy una penalización manual y ¿adivina quien tiene premio?

Para salir de tu “regalo” ganado a pulso por hacer trampas, tienes que enviar una reconsideración a los quality raters para que revaloren tu página una vez realizados los cambios pertinentes que se te solicitan. Estos cambios pueden enviarse desde la misma herramienta de Webmaster Tools.

Penalizaciones de Google automáticas

Si antes por lo menos te avisaban, con estas no tienes aviso alguno, bueno si, el de tus métricas descender en picado de la noche a la mañana, o a veces ascender como la espuma. Pero como siempre nos fijamos más en lo malo que en lo bueno, se suele leer menos dar las gracias por el cambio de algoritmo, de normal se leen maldiciones y ritos satánicos después de un cambio de algoritmo por diversos foros y webs ante personas que está totalmente desquiciadas, y no es para menos.

Una penalización del algoritmo de google de forma automática puede llegar a hundirte el negocio, y si además, el algoritmo es nuevo, tan solo unos pocos sobrevivirán al cambio, como ya hemos visto en el pasado cuando fue lanzado penguin, donde una autentica masacre ocurrió.

pingüino google

Volviendo al asunto, las penalizaciones automáticas son realizadas por el algoritmo cuando analiza tu web. Generalmente, estos cambios de algoritmo suelen ser anunciados antes del lanzamiento, aunque existen casos en que se intenta despistar a los Seo y no avisan de cambios, los anuncian o verifican a posteriori, etc.

El algoritmo de modifica cada dos por tres, y existen casos en los que afecta a un gran número de páginas, estos son los algoritmos fantasma (lo puse oculto en la imagen de la cabecera del artículo con el kraken y eso, ¿lo encontraste?).

Los algoritmos más conocidos y que más se suenan son los de panda y penguin, pero existen bastantes más.

A continuación, os mostraré una serie de herramientas para lograr salir de las penalizaciones de google y así mejorar los resultados de búsqueda.

Subtipos de penalizaciones

Dentro de estos dos grandes grupos, existen una serie de penalizaciones más comunes que otras, pero principalmente destacamos que son debidas a:

  • Links entrantes: ya sea por una ataque de black hat seo o por una estrategia muy agresiva de linkbuilding para alterar de forma artificial los resultados de google, podemos ser afectados de forma manual o automática.
  • Links salientes: si tenemos un blog con muchos salientes dofollow, puede ser considerado como medio para venta de enlaces, por lo que nos puede llegar una penalización manual o automática.
  • Contenido duplicado: penalización automática que nos puede llegar por tener el mismo contenido en diferentes páginas.
  • Cloaking: técnica que consiste en redirigir a los robots de google a otra página que no es la que muestras a los usuarios, con el fin de posicionar mejor esa página. Nos puede llegar una penalización automática.
  • Experiencia de Usuario: Penalización automática (a veces también nos avisan de algunas mejoras mediante webmastertools) que consiste en bajar posiciones en base a la experiencia de usuario. Generalmente son pequeños cambios que se aplican al algoritmo directamente.
  • Otros: ver más info en Deteresa.com

Herramientas de supervivencia

Para luchar, hay que estar bien preparado, y ante un enemigo que desconocemos a veces la identidad, necesitamos estar lo más informados posibles y analizar al máximo la web. Es por ello que siempre hay que tener a mano una buena selección de herramientas:

  • Deteresa: Tienes todos los algoritmos por fechas, por lo que podrás saber exactamente cuales son los posibles cambios de algoritmo que afectaron a tu web. Además, tienes enlaces que te amplían la información sobre la actualización. Sin duda, una gran página que se mantiene al día.
  • Sistrix: Una gran herramientas que nos permite analizar la visibilidad que tiene nuestra web en base a las keywords que más búsquedas tienen. Además podemos hacer una rápida comparativa con el gráfico y las actualizaciones de google. Lo que falta es que se actualice más a menudo la parte de cambios de algoritmo de google en la gráfica de visibilidad, pero tu mismo puedes crear las anotaciones. Como extra, también puedes analizar otras webs para valorarlas, lo que nos puede ayudar a detectar webs penalizadas que no estén enlazando.
  • PanguinTool: nos exporta las visitas de analytics para luego crear una gráfica de sesiones y diferentes línes verticales de colores que representan actualizaciones de google. pinchando en ellas nos da una pequeña descripción y la versión del algoritmo. El problema es que coge todas las sesiones y no únicamente las de tráfico orgánico, pero ayuda bastante, ya que si eres penalizado, se nota.
  • Linkdetox: una herramienta especializada en detectar links que pueden afectar de forma negativa a nuestra web.
  • Excel: o alguna base de datos donde poder realizar un seguimiento en base a las páginas afectadas o links que pueden afectarnos, en que paso nos encontramos de los cambios a realizar o si ya está realizado el cambio.
  • Copyscape: herramienta que nos permite comprobar si una de nuestras páginas tiene contenido duplicado.
  • Webmastertools: creo que sobran las palabras

Ascenso desde el infierno

Al igual que Dante en la Divina Comedia, descendió a los infiernos para rescatar a su amada y ascender a la salvación, nosotros tratamos de hacer lo mismo con nuestra web. Para ello dividiremos esto según el problema que tengamos de los expuestos más arriba.

Ahora empieza la fiesta

Ahora empieza la fiesta

Links entrantes

Para analizar esto, vais a necesitar todas las herramientas expuestas anteriores, si, incluida la de detección de contenido duplicado.

Panguintool nos puede ayudar a identificar que algoritmos nos han penalizado, esto nos facilita bastante el camino de en caso de ser penalizados por links entrantes y tener una actualización reciente sobre este algoritmo, podemos detectarlo rápidamente.

La web de Deteresa también nos puede ayudar a realizar un seguimiento de cambios de algoritmo.

En este caso, primero necesitamos realizar un reporte con todos los enlaces entrantes a nuestra página que podemos extraer gracias a webmastertools, sistrix u otras herramientas que no están aquí nombradas como ahrefs.

Tenemso que encontrar todas las páginas que nos enlazan, con que anchor text, para más tarde realizar unos pequeños cálculos y ver el los porcentajes de enlaces que tiene cada página y los porcentajes de anchor text.

No puede ayudar estudiar los porcentajes de la competencia, que tienen tanto en anchor text como enlaces que van a la home, y otras páginas.

Hay que tener en cuenta que Google, no sería de extrañar que clasificara a las páginas por tipos, y en las páginas de negocio, es más fácil que se enlace la home, mientras que en blogs, es más posible que se realicen links a artículos concretos para ampliar la información.

Una vez tengamos realizada esta comparativa de porcentajes, podemos hacernos una idea de cuales son los porcentajes que debemos tener e intuir que links debemos eliminar o cambiar. Además, Linkdetox, nos puede ayudar a detectar que links pueden ser más tóxicos para nuestra web.

Otras señales que nos ayudan a identificar que esos links sean negativos, son la cantidad de artículos que tienen con enlaces de externos. Que se produzca de forma muy asiduas con links a marcas y que tu pienses que puedan ser de pago es muy mala señal.

Copyscape puede ser una herramienta que nos puede ayudar a identificar si existen artículos de blogs, con enlaces a nuestra web, que han sido copiados en otros portales, ya que no es de extrañar que si se llevó a cabo una estrategia de links muy agresiva, puede que para ahorrar tiempo se compartieran los mismos artículos en diferentes portales.

Esta difusión de contenidos duplicados viene dada porque la gente no está realmente formada y no entienden la gravedad a la que puede llegar todo esto.

Después de realizar una mega limpieza de enlaces, quizás existan portales a los que no podemos contactar, por lo que podemos intentar realizar whois a las respectivas webs y encontrar algo más de información sobre el dueño.

Por último paso y opción, si no conseguimos modificar estos enlaces, tan solo nos queda pasar dichas webs a Disavow con la herramienta de webmastertools (aquí puedes ver como crear un fichero de para enviar a Google con la disavow tool).

Después de esto, si la penalización fue automática, solo nos queda esperar a que pase de nuevo el algoritmo, y en caso de se manual, enviar una reconsideración de nuestra web con los cambios, pidiendo disculpas.

Links salientes

Esto es bastante similar a la de links entrantes, pero esta vez es un poco a la inversa. Si tenemos muchos links salientes puede ser motivo de penalización, y si es manual también se debe enviar una reconsideración, la diferencia radica de que muchas webs a las cuales enlacemos, serán links que no aportarán nada al usuario.

Para ello tenemos la opción de eliminar los enlaces o pasarlos a nofollow. También nos puede ayudar investigar un poco qué webs estamos enlazando y la calidad de estas.

Contenido duplicado

Esto es fácil de detectar con los cambios de algoritmo, sobre todo si ya sabes que hiciste las cosas de una forma muy mala. Tendrás que detectar el contenido duplicado y eliminarlo de la web.

Si has utilizado alguna herramienta para crear contenidos de forma automática, puedes plantearte en eliminar todos los contenidos. Si por el contrario, era una persona contratada, necesitarás que copyscape te ayude a detectar los contenidos duplicados tuyos en otras webs, para modificarlos o eliminarlos.

Experiencia de usuario

Cada vez hay más cambios en el algoritmo de Google que van de cara a mejorar la experiencia de usuario, por lo que tenemos que estar alerta con programas de analítica el tiempo medio de permanencia del usuario en nuestra web, el CTR, el tiempo de rebote, etc.

Para mejorar estas estadísticas, lo mejor que podemos hacer es investigar el comportamiento de usuarioen nuestra web gracias a herramientas como Analytics o Webmastertools.

Si vemos que tenemos poco CTR en Google, deberemos investigar que es lo que pasa y mejorar nuestros titles o modificar las keywords para el artículo.

Si el tiempo de rebote es alto, posiblemente se porque la navegación en nuestro sitio sea muy mala, no incita a que el usuario lea otros artículos o porque no es lo que el usuario está buscando.

Nuevos algoritmos

Panguin tool y la web Deteresa, son referentes que me mantienen bastante informado, aunque también otras webs como seroundtable.com. Con ellas podemos ver los cambios de los nuevos algoritmos y detectar e identificar de forma rápida que está pasando.

 

Para terminar, después de esta duro enfrentamiento, espero que sea útil, puedes dejar en los comentarios más información para completar el artículo que ayudará a todo aquel que pase por la webs, mientras tanto, os dejo con un clásico de los duelos:

Salir de las penalizaciones de Google was last modified: julio 31st, 2016 by Eric Jorge Seguí Parejo

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *