¿POR QUÉ LAS INTELIGENCIAS ARTIFICIALES “ALUCINAN”?


OpenAI explica uno de los mayores retos de los modelos de lenguaje

El 5 de septiembre de 2025, OpenAI publicó un artículo de investigación donde aborda un

tema clave para entender la inteligencia artificial: las alucinaciones. Este término no se refiere a

visiones humanas, sino a cuando un modelo de lenguaje genera con total seguridad una

respuesta que suena correcta, pero en realidad es falsa.


¿Qué son las alucinaciones en IA?

Las alucinaciones aparecen cuando el modelo inventa información o responde con

seguridad sobre algo que desconoce. Un ejemplo citado por OpenAI fue cuando se le preguntó a

un chatbot por el título de la tesis doctoral de un investigador: el modelo dio tres respuestas

diferentes, todas incorrectas.

Este tipo de fallos muestran que, aunque los modelos de IA como GPT-5 han reducido

notablemente las alucinaciones respecto a versiones anteriores, todavía no desaparecen por

completo.


¿Por qué suceden?

Según el análisis de OpenAI, las alucinaciones se originan en cómo se entrenan y evalúan

los modelos:

• Entrenamiento: los modelos aprenden a predecir la siguiente palabra en un texto.

Como no siempre existe un “verdadero/falso” claro, terminan reproduciendo

patrones incluso cuando no hay información confiable.

• Evaluación: muchas métricas premian más la precisión que la humildad. En otras

palabras, los modelos “ganan puntos” cuando intentan adivinar, incluso si fallan,

pero “pierden puntos” si reconocen que no saben la respuesta.

Esto incentiva que los modelos arriesguen respuestas falsas en lugar de admitir

incertidumbre.

Hacia modelos más confiables

OpenAI propone cambiar la forma de evaluar a las IA, premiando también la capacidad

de reconocer límites o expresar dudas. En pruebas recientes, GPT-5 mostró un avance al reducir

las alucinaciones hasta seis veces frente a modelos anteriores, especialmente al activar el modo

de razonamiento extendido.

Las alucinaciones siguen siendo uno de los grandes retos de la inteligencia artificial.

Entender por qué ocurren y cómo influyen los métodos de entrenamiento y evaluación nos permite

usar estas herramientas con mayor criterio. Y aunque modelos como GPT-5 han logrado reducir

notablemente estos errores, todavía queda camino por recorrer para alcanzar sistemas que sean

realmente confiables.


Obtenido de: Por qué los modelos de lenguaje alucinan. (n.d.). OpenAI. https://openai.com/es419/index/why-language-models-hallucinate/

Comentarios

Entradas populares de este blog

Crea modelos de Deep Learning con Teachable Machine

Inteligencia Artificial: ¿ Cómo hacer un programa de clasificación de imágenes ?