¿POR QUÉ LAS INTELIGENCIAS ARTIFICIALES “ALUCINAN”?
OpenAI explica uno de los mayores retos de los modelos de lenguaje
El 5 de septiembre de 2025, OpenAI publicó un artículo de investigación donde aborda un
tema clave para entender la inteligencia artificial: las alucinaciones. Este término no se refiere a
visiones humanas, sino a cuando un modelo de lenguaje genera con total seguridad una
respuesta que suena correcta, pero en realidad es falsa.
¿Qué son las alucinaciones en IA?
Las alucinaciones aparecen cuando el modelo inventa información o responde con
seguridad sobre algo que desconoce. Un ejemplo citado por OpenAI fue cuando se le preguntó a
un chatbot por el título de la tesis doctoral de un investigador: el modelo dio tres respuestas
diferentes, todas incorrectas.
Este tipo de fallos muestran que, aunque los modelos de IA como GPT-5 han reducido
notablemente las alucinaciones respecto a versiones anteriores, todavía no desaparecen por
completo.
¿Por qué suceden?
Según el análisis de OpenAI, las alucinaciones se originan en cómo se entrenan y evalúan
los modelos:
• Entrenamiento: los modelos aprenden a predecir la siguiente palabra en un texto.
Como no siempre existe un “verdadero/falso” claro, terminan reproduciendo
patrones incluso cuando no hay información confiable.
• Evaluación: muchas métricas premian más la precisión que la humildad. En otras
palabras, los modelos “ganan puntos” cuando intentan adivinar, incluso si fallan,
pero “pierden puntos” si reconocen que no saben la respuesta.
Esto incentiva que los modelos arriesguen respuestas falsas en lugar de admitir
incertidumbre.
Hacia modelos más confiables
OpenAI propone cambiar la forma de evaluar a las IA, premiando también la capacidad
de reconocer límites o expresar dudas. En pruebas recientes, GPT-5 mostró un avance al reducir
las alucinaciones hasta seis veces frente a modelos anteriores, especialmente al activar el modo
de razonamiento extendido.
Las alucinaciones siguen siendo uno de los grandes retos de la inteligencia artificial.
Entender por qué ocurren y cómo influyen los métodos de entrenamiento y evaluación nos permite
usar estas herramientas con mayor criterio. Y aunque modelos como GPT-5 han logrado reducir
notablemente estos errores, todavía queda camino por recorrer para alcanzar sistemas que sean
realmente confiables.
Obtenido de: Por qué los modelos de lenguaje alucinan. (n.d.). OpenAI. https://openai.com/es419/index/why-language-models-hallucinate/
Comentarios
Publicar un comentario