Imagina esto: le haces una pregunta seria a ChatGPT sobre economía. Y de repente, la respuesta incluye la frase "el molesto duendecillo de las cavernas".

No es broma. Le pasó a decenas de usuarios en las últimas semanas. Y no fue un error aislado.

Hoy te cuento una historia curiosa que, además, nos deja una enseñanza muy práctica sobre cómo usar la inteligencia artificial.


El misterio de los duendes

Desde hace varias semanas, personas de todo el mundo empezaron a notar algo extraño. ChatGPT comenzó a usar la palabra "duende" (y su versión en inglés "gremlin") con una frecuencia sospechosa.

Usuarios compartían capturas donde el chatbot hablaba de "dinámicas dignas de un duende""problemas de duendecillos" y otras frases donde estas criaturas fantásticas aparecían sin venir a cuento.

El fenómeno se volvió tan llamativo que OpenAI, la empresa creadora de ChatGPT, tuvo que investigar.

¿La conclusión? Fue un accidente de entrenamiento.

Resulta que ChatGPT puede adoptar diferentes "personalidades" según cómo se le configure. Una de ellas es la personalidad "friki" (nerdy, en inglés), donde el modelo tiende a usar metáforas más creativas y referencias de cultura geek.

Durante el entrenamiento, los ingenieros le dieron puntuaciones altas (recompensas) por usar este tipo de metáforas con criaturas fantásticas. Sin querer, entrenaron al modelo para que hablara de duendes una y otra vez. En cualquier tema. Sin control.

El resultado fue un chatbot que parecía obsesionado con duendecillos.


Pero no es solo con duendes

Aquí el asunto se pone más interesante (y más útil para nosotros).

Un grupo de investigadores españoles acaba de publicar un estudio revelador. Analizaron varios modelos de lenguaje y encontraron otro sesgo curioso: a los chatbots les encanta hablar de Japón.

Aparece como país favorito en respuestas en inglés, en español ¡e incluso en chino! En chino, uno esperaría que los modelos prefirieran hablar de Estados Unidos o de la propia China. Pero no. Japón aparece consistentemente como el país más mencionado de forma positiva.

¿Por qué? Los investigadores no tienen una respuesta definitiva, pero sospechan que tiene que ver con los datos de entrenamiento: internet está llena de contenido positivo sobre Japón (anime, tecnología, turismo, cultura pop), y los modelos aprenden eso.


¿Qué nos enseñan estos dos casos?

Aquí está lo importante. Lo que puedes llevarte a casa después de leer este post.

La inteligencia artificial no es objetiva. No es neutral. No representa "la verdad".

Los duendes fueron un accidente. Un error de entrenamiento. Algo que los ingenieros no planearon.

Pero la preferencia por Japón no es un accidente. Es un sesgo heredado de los datos con los que se entrenó el modelo. Internet tiene más contenido positivo sobre Japón que sobre otros países, y el chatbot aprendió eso.

Y hay muchos otros sesgos. Algunos puestos a propósito por las empresas (para evitar que la IA diga cosas ofensivas o peligrosas). Otros completamente involuntarios.

Lo que los investigadores advierten es esto: el riesgo no es que la IA tenga sesgos. El riesgo es que creamos que no los tiene.

Si una persona usa ChatGPT para investigar un tema y asume que todo lo que dice es objetivo y neutral, está cometiendo un error. No porque la IA mienta. Sino porque la IA refleja lo que le enseñamos.


Entonces, ¿debo dejar de usar ChatGPT?

Para nada. Ese no es el punto.

La inteligencia artificial es una herramienta increíblemente útil. Nos ayuda a redactar, resumir, investigar, programar, traducir y un largo etcétera.

Pero es exactamente eso: una herramienta. No un oráculo. No una fuente de verdad absoluta.

Usar IA con criterio significa:

✅ Verificar información importante en fuentes confiables, no solo confiar en lo que dice el chatbot.

✅ Saber que tiene sesgos y que eso no es necesariamente "malo", pero hay que tenerlo presente.

✅ Entender que puede equivocarse (como los duendes) y que sus errores a veces son extraños y divertidos, pero a veces pueden ser engañosos.

✅ No pedirle opiniones sobre temas donde la neutralidad es clave sin antes entender cómo fue entrenado.


Un consejo práctico (sencillo y útil)

La próxima vez que uses ChatGPT o cualquier otro asistente de IA, hazte tres preguntas:

  1. ¿Este tema puede estar sesgado en internet? (política, religión, países, marcas, etc.)

  2. ¿Lo que me está diciendo tiene sentido o parece forzado? (como los duendes)

  3. ¿Necesito confirmar esta información en otra fuente?

Si aprendes a hacer estas tres preguntas automáticamente, ya estarás usando la IA mejor que la mayoría de las personas.

No necesitas ser ingeniero. Solo necesitas tener pensamiento crítico. Y eso, a diferencia de la IA, es una habilidad exclusivamente humana.


Un dato curioso para cerrar

El caso de los duendes ya fue corregido por OpenAI. Ajustaron el entrenamiento y hoy ChatGPT ya no debería hablar de criaturas fantásticas en conversaciones serias.

Pero el caso de Japón no es un error. Es un sesgo. Y probablemente seguirá ahí por mucho tiempo, porque está profundamente arraigado en los datos con los que se entrenó el modelo.

La próxima vez que le preguntes algo a ChatGPT y te recomiende visitar Japón o hable maravillas del país, ya sabes por qué.

No es que la IA tenga malicia. No es que quiera engañarte. Es simplemente que aprendió de nosotros. Y nosotros, los humanos, tenemos nuestras propias obsesiones, gustos y... bueno, también a veces hablamos de duendes sin venir a cuento.


📊 Lo que sí sabemos y lo que no

Lo que es un hechoLo que aún no sabemos
ChatGPT tuvo una "obsesión" con los duendes por un error de entrenamientoSi existen otros sesgos extraños aún no detectados
Los chatbots muestran preferencia por Japón en múltiples idiomasCómo eliminar completamente estos sesgos (si es que se puede)
OpenAI corrigió el error de los duendesSi aparecerán nuevos errores similares en el futuro
Los sesgos en IA provienen principalmente de los datos de entrenamientoHasta qué punto podemos hacer la IA "neutral" (si eso existe)
Alejandro
Alejandro Torres

Fundador de VCard de México. Apasionado por la tecnología, la automatización de procesos B2B y las rutas en dos ruedas.