Para Google, el contenido generado automáticamente viola sus recomendaciones y, por lo tanto, está sujeto a penalidades. A esto le llamamos contenido burro.
Google lo ha repetido una vez más: el contenido generado automáticamente por algoritmos de tipo GPT-3 se considera spam y, por tanto, es penalizado por el buscador.
Todo es entonces ciertamente una cuestión de matices…
Recomendaciones para evitar el contenido burro.
En estas recomendaciones también está disponible una página dedicada a este contenido generado automáticamente.
https://developers.google.com/search/docs/advanced/guidelines/auto-gen-content
Esto es lo que ella dice:
“El contenido generado automáticamente (también llamado «autogenerado») es contenido que se generó de manera programática. En los casos en los que se pretende manipular las clasificaciones de búsqueda y no ayudar a los usuarios, Google puede tomar medidas sobre tal contenido. A continuación, se incluyen algunos ejemplos de estos casos:
– Texto que no tiene sentido para el lector, pero que puede contener palabras clave de la Búsqueda
– Texto traducido por una herramienta automatizada sin revisión manual ni selección antes de su publicación
– Texto generado a través de procesos automatizados, como cadenas de Markov – Texto generado con técnicas automáticas de ofuscación o creación de sinónimos
– Texto generado a partir de la copia de resultados de la búsqueda o de feeds Atom o RSS
La unión o combinación de contenido de diferentes páginas web sin agregar suficiente valor
Si alojas ese tipo de contenido en tu sitio, impide que se muestre en la Búsqueda.”
Cuando sabemos que Google ahora sabe diferenciar entre un texto escrito por humanos y un texto diseñado por un algoritmo, podemos entender que el texto creado por inteligencia artificial implica riesgos importantes.
Sin embargo, también podemos comparar esta situación con la del spinning: si se hace con métodos “burro” (masivamente y sin intervención humana), es evidente que es condenable por detectable (es más, es ética y humanamente reprochable).
Pero si los algoritmos son solo herramientas secundarias y se agrega una parte humana a un «primer borrador» hecho por una máquina, lo más probable es que sea completamente indetectable y no sea penalizado.
Por lo tanto, queda por ver en qué nivel estamos posicionados en la escala del burro…
Por Eric Mercier – Head of SEO @ Octopus.mx
También te puede interesar: SEO, SEA, SEM, diseño del mecanismo y teoría de juegos
SEO, SEA, SEM, diseño del mecanismo y teoría de juegos
Comentarios