La basura de IA que no sabías que existía.
¿Has visto alguna vez una imagen extraña en Facebook?
Un niño de tres años con barba completa, sonriendo frente a un pastel de cumpleaños. Una foto de Jesucristo curando parásitos intestinales. Un monstruo marino con rostro humano rescatando a una familia.
Suena absurdo. Y lo es.
Pero esas imágenes existen. Se viralizan. Acumulan millones de reproducciones. Y hay personas reales que las comparten como si fueran ciertas.
Este fenómeno tiene un nombre. Se llama basura de IA (o "AI slop", como le dicen en inglés). Y probablemente ya lo has visto sin saber qué era.
Hoy vamos a hablar de qué es, por qué está en todas partes y, lo más importante, cómo identificarlo.
La historia que reveló el problema.
En París, un estudiante de 20 años llamado Hadrien creó una cuenta llamada "Insane AI Slop" (algo así como "Basura de IA Demente").
Su objetivo era simple: recolectar y denunciar el contenido más absurdo generado por inteligencia artificial que encontraba en redes sociales.
Lo que no esperaba es que su cuenta se volviera viral. En pocas semanas, acumuló 133,000 seguidores.
¿Por qué? Porque la gente ya estaba viendo ese contenido raro, pero no tenía un nombre para identificarlo. Hadrien se lo dio.
Y al nombrarlo, hizo visible algo que hasta entonces pasaba desapercibido.
¿Qué es exactamente la "basura de IA"?
Es contenido creado con inteligencia artificial, generalmente de baja calidad, diseñado específicamente para:
Generar clics
Provocar reacciones emocionales
Acumular reproducciones
Ganar dinero con publicidad
Los temas más comunes no son casualidad. Siempre incluyen elementos que generan una respuesta inmediata:
👶 Niños (especialmente en situaciones tristes o emotivas).
⛪ Religión (Jesús, vírgenes, ángeles).
🪖 Temas militares (soldados, banderas, patriotismo).
🦠 Salud y enfermedades (curas milagrosas, parásitos).
¿Por qué esos temas? Porque las personas no analizan críticamente cuando algo les conmueve. Ven a un niño "pobre" y comparten sin preguntar si es real.
Los creadores de basura de IA lo saben. Y lo explotan.
Las cifras que asombran (y preocupan).
Esto no es un problema menor. Es masivo.
Un estudio reciente analizó el contenido que YouTube muestra a cuentas nuevas. El resultado: el 20% del contenido recomendado era vídeo de IA de baja calidad.
El canal más visto de este tipo acumuló 2,070 millones de visualizaciones.
Para que te hagas una idea, eso es más que la población de India. Y el creador de ese canal se embolsó aproximadamente 4 millones de dólares con ese contenido.
Millones de dólares. Generados con imágenes absurdas. Compartidas por personas reales que creían que era verdad.
¿Las plataformas hacen algo al respecto?
Aquí viene la parte honesta.
Meta (dueña de Facebook, Instagram y Threads), TikTok y YouTube no solo permiten este contenido. En cierto modo, lo fomentan.
Mark Zuckerberg fue claro en una entrevista: la inteligencia artificial generará un "enorme corpus de contenido" para sus plataformas. No dijo "contenido de calidad". Dijo "enorme".
El CEO de YouTube también reconoció que el contenido generado por IA debe ser "celebrado y apoyado".
Ninguno de los dos habló de filtrar lo falso. Ninguno habló de proteger al usuario. Hablaron de cantidad. Porque más contenido significa más tiempo de pantalla. Y más tiempo de pantalla significa más publicidad.
Las plataformas ganan dinero con tu atención. No les importa si lo que miras es real o falso. Les importa que lo mires.
¿Por qué la gente comparte estas cosas?
No es que la gente sea ingenua.
Es que el contenido está diseñado para engañar a la parte emocional de nuestro cerebro, no a la parte racional.
Cuando ves una foto de un niño "con cáncer" pidiendo un "me gusta" para cumplir un sueño, tu primera reacción no es preguntar si es verdad. Es sentir empatía y querer ayudar.
Los creadores de basura de IA lo saben. Por eso sus imágenes siempre incluyen elementos que activan emociones antes que pensamientos.
El problema no es técnico. Es humano.
Y por eso, la mejor defensa no es una ley ni un algoritmo. Es aprender a detectarlo.
Cómo identificar basura de IA (3 señales prácticas).
Aquí va lo más útil del post. Tres señales que puedes usar para detectar este contenido en menos de 10 segundos.
1. Las manos y los dedos.
La IA todavía tiene problemas con las manos. Busca dedos de más, dedos deformes o manos que parecen garfios. Es el error más común y el más fácil de ver.
2. El texto incrustado.
Si la imagen tiene letras, fíjate bien. La IA suele escribir palabras que no tienen sentido o letras que se deforman. Si el texto dice algo raro o ilegible, es probable que sea generado.
3. Las simetrías perfectas o absurdas.
La IA ama la simetría. Pero también comete errores. Busca objetos que se repiten de forma extraña (dos relojes en la misma muñeca, dos narices, ventanas que cambian de tamaño). Si algo "no cuadra", desconfía.
Bonus: Si la imagen te parece demasiado perfecta o demasiado extraña, probablemente no es real. Confía en tu intuición. Tu cerebro ya detectó algo raro antes de que tú lo pienses.
¿Esto significa que toda imagen de IA es mala?.
Para nada.
La inteligencia artificial también se usa para crear arte, diseñar productos, hacer cine, medicina, ciencia y mil cosas útiles.
El problema no es la tecnología. El problema es el uso que se hace de ella.
La basura de IA no es mala porque sea IA. Es mala porque miente. Porque manipula. Porque se aprovecha de la buena fe de las personas para ganar dinero fácil.
Y eso, con IA o sin ella, siempre ha estado mal.
Un consejo final.
La próxima vez que veas una imagen que te conmueva demasiado (un niño triste, una cura milagrosa, un soldado heroico), haz una pausa.
Pregúntate: ¿esto puede ser generado por IA?
No necesitas ser experto. Solo necesitas tomarte cinco segundos para observar las manos, el texto y la simetría.
Ese pequeño gesto ya te pone por delante de millones de personas que comparten sin preguntar.
Y si descubres que es falso, no lo compartas. Mejor aún: comenta que es falso. Así ayudas a que otros también aprendan a detectarlo.
Porque la mejor forma de combatir la basura de IA no es prohibirla. Es enseñar a reconocerla.
Lo que sí sabemos y lo que no.
| Lo que es un hecho | Lo que aún no sabemos |
|---|---|
| El 20% del contenido recomendado a cuentas nuevas de YouTube es vídeo de IA de baja calidad | Si las plataformas implementarán filtros efectivos |
| Los canales de basura de IA generan miles de millones de visualizaciones | Cuánto daño real causa este contenido a las personas que lo creen |
| Meta, TikTok y YouTube facilitan activamente la creación de este contenido | Si la situación mejorará o empeorará en los próximos años |
| Existen señales claras para detectar este contenido | Qué porcentaje de usuarios aprenderá a identificarlo |
Una reflexión final.
Hace unos años, la gente aprendió a identificar el spam en el correo electrónico. Hace unos años, aprendió a no creer todo lo que veía en cadenas de WhatsApp.
Ahora toca aprender algo nuevo: no todo lo que ves en redes sociales es real. Y cada vez será más difícil distinguirlo.
Pero no es para asustarse. Es para prepararse.
La tecnología avanza. Los engaños también. Pero nuestra capacidad de aprender y adaptarnos sigue siendo la mejor herramienta que tenemos.
La próxima vez que veas una imagen extraña en Facebook, sonríe. Ya sabes qué es. Y ya sabes qué hacer.
En VCard de México creemos que la tecnología se entiende mejor cuando se explica con claridad, sin exageraciones y con respeto por la inteligencia de las personas. Por eso contamos lo que pasa, cómo pasa y por qué importa.