En este artículo vamos a ver cómo los buscadores, como Google, analizan el spam de un sitio web. Si conoces esto podrás detectar y elminar el spam para prevenir cualquier penalización por parte de los buscadores. Empezamos por la definición de spam:
Spam en motores de búsqueda
Desde que existe la búsqueda existe el spam. La práctica del spam en motores de búsqueda, que consiste en crear páginas y esquemas diseñados para alterar artificialmente los resultados de búsqueda, o abusar de los algoritmos de posicionamiento, ha ido creciendo desde mitad de los noventa.
Con una posibilidad de ganancias monetarias muy altas se hace apetecible manipular los buscadores en alguna actividad popular en la web, sin embargo, se está convirtiendo en algo muy dificultoso y en mi opinión menos valioso debido a dos razones:
1. Un esfuerzo no valioso
Los usuarios odian el spam y los buscadores tienen un incentivo monetario por lucharlo. Muchos creen que la popularidad de Google hoy en día se debe a una capacidad para combatir el spam superior a la de sus competidores. Cuando el spam ocasionalmente funciona, generalmente requiere un mayor esfuerzo que crear un contenido de calidad.
2. Motores más inteligentes
Los motores de búsqueda han hecho un trabajo memorable en la identificación de metodologías inteligentes para compartir la manipulación del spam, convirtiéndola en una tarea mucho más difícil.
Conceptos como Moz Spam Score, HITS, análisis estadístico o datos históricos han hecho que caiga el valor del spam y han hecho las tácticas limpias más atractivas.
Desde la Actualización Panda de Google se ha introducido un algoritmo más sofisticado para combatir el spam y ha devaluado páginas a niveles no imaginados. Para más información sobre spam se puede ver la Reglas generales para webmasters de Google y el FAQ para webmasters de Bing (en inglés).
El spam no te ayudará en la mayoría de los casos, pero probablemente causará que seas duramente penalizado por los motores de búsqueda.
Análisis de spam a nivel de página
Los motores de búsqueda realizan análisis del spam sobre páginas individuales y sitios webs completos. Vamos a evaluar primero las prácticas manipuladoras a nivel de URL.
Abuso de palabras clave
Es una de las más obvias y desafortunadas técnicas de spam, consiste en la continua repetición de palabras clave o frases para aparentar mayor relevancia ante los motores de búsqueda. La idea que hay detrás de esta práctica es que incrementa el número de veces que mencionamos un término aumentará nuestro posicionamiento. Esto es falso. Si observamos miles de páginas “top” lo comprobaremos.
Los motores de búsqueda tienen muchos y efectivos métodos para combatir esto, puedes leer más aquí.
Enlaces manipulados
Uno de los métodos de spam más populares, la adquisición manipulada de links para aumentar nuestra visibilidad. Este método es de los más difíciles de combatir, ya que se pueden hacer de distintas formas:
- Intercambio de enlaces recíproco.
- Esquemas de enlaces: incluyendo granjas de enlaces o redes de enlaces, donde sitios web son creados y mantenidos exclusivamente como fuentes de enlaces.
- Enlaces pagados: muy perseguido por buscadores y duramente penalizados. Mira este post para más información.
Hay muchos más métodos pero los buscadores están continuamente mejorando sus algoritmos para detectarlos.
Cloaking
Un principio básico es mostrar el mismo contenido para los motores de búsqueda y para los usuarios. Cuando esto no es así, porque se ha ocultado texto a los usuarios en el código html, se denomina cloaking.
Páginas de bajo valor
Aunque no se considera técnicamente spam, los buscadores tienen métodos para determinar si una página ofrece contenido único y de valor para los visitantes.
Análisis de spam a nivel de dominio
Además de observar páginas individuales en busca de spam, los motores de búsqueda también pueden identificar rasgos y propiedades sobre dominios o subdominios completos que los identifican como spam
Prácticas de enlazado
Igual que en una página individual los buscadores detectan técnicas manipuladoras a través de dominios. Puedes ver este ejemplo de penalización.
Confianza
Los sitios que se han ganado un status de gran confianza son tratados de forma diferente de los que no. Existe un doble rasero para juzgar a una gran marca o sitio importante frente a un sitio nuevo o independiente. Por ejemplo, si creas un contenido spam en tu web te afectará dramáticamente, pero si pones ese mismo contenido en la Wikipedia, ni se notará.
Contenido de valor
De forma similar a cómo se observa si un contenido es de calidad y no duplicado en una URL, también se mira si en un dominio se sirve generalmente este tipo de contenido. Los motores de búsqueda constantemente evalúan su efectividad. Contemplan si un usuario hace clic en un resultado de búsqueda e inmediatamente después hace clic en el botón “atrás”.
Una vez que te has ganado un buen posicionamiento tendrás que probarlo continuamente.
Más información:
Penalización Google, cómo detectarla y tratar de quitarla
Panguin Tool – Con esta herramienta cruzamos datos de nuestro analytics con actualizaciones de los algoritmos de Google. Así sabremos si nos ha penalizado alguno
Este artículo lo he traducido de la guía de SEO para principiantes de Moz
Si te ha gustado el post compártelo en tus redes, te lo agradeceré enormemente!
Deja una respuesta