Son las 5… ¿la hora del cloaking?
¿No sabes que es el cloaking? ¡Es hora de que te pongas al día! Esta técnica de posicionamiento black hat es ineludible para los que utilizan técnicas de hacker: dicho de otra forma, los expertos SEO que no dudan en utilizar técnicas reprobadas por los motores de búsqueda para generar tráfico en la página web. Textbroker te explica todo sobre esta estrategia desvelándote sus ventajas… ¡y sus riesgos!
¿De dónde viene el cloaking?
La palabra inglesa cloaking significa literalmente ‘encubrimiento’. El cloaking es, en efecto, una técnica de engaño que consiste en presentar varias versiones de una misma página (todas accesibles desde la misma URL) en función del contexto. Así, es posible presentar una página perfectamente optimizada para SEO a los robots de indexación y una página diferente, más orientada al marketing, para los usuarios.
Existen diferentes tipos de cloaking:
- El cloaking usuario-agente: se trata del método más comúnmente utilizado. Consiste en modificar el contenido en función del usuario (humano o robot) sirviéndose de la consulta “usuario-agente”.
- El cloaking sobre IP : el cloaking sobre IP es un poco diferente en la medida en la que es la detección de la dirección IP del usuario la que va mostrar un contenido u otro (Google se sirve de direcciones IP específicas, fácilmente reconocibles).
¿Cuál es el interés del cloaking?
Esta técnica garantiza que tu sitio web consiga mejores resultados en los motores de búsqueda puesto que estás ofreciendo el contenido adecuado para los motores de búsqueda y para los usuarios. Llevado al extremo, permite incluso el crimen más inconfesable, como la duplicación de la página de un competidor, ¡que no será detectada por los robots de indexación porque se les mostrará otro contenido!
¿Cuáles son los límites?
El cloaking presenta dos limitaciones principales. Si bien esta estrategia fue viable a principios de los 2000, cuando los motores de búsqueda no eran tan sofisticados como hoy, ya no es lo mismo en nuestra época. Por un lado, el contenido destinado a usuarios y robots de indexación tiende a ser cada vez más similar. Las “spiders” son hoy en día capaces de analizar una página con criterios casi idénticos a los humanos (teniendo en cuenta los campos léxicos, la semántica y la intención de búsqueda del usuario). Por otro lado, Google ha perfeccionado su algoritmo para poner las cosas en orden, castigando a los que engañan con una mayor virulencia. Numerosos sitios web que se han querido arriesgar a abusar del motor de búsqueda se han encontrado en la “lista negra», alimentando la vana esperanza de volver a la clasificación.
En otras palabras, ¡desde Textbroker no te recomendamos esta técnica! En nuestra opinión, la creación de contenido de calidad es la única estrategia segura, confiable y sostenible para mejorar tu posicionamiento. ¡Google no está dispuesto a reprobar el marketing de contenidos!
Ningún artículo disponible