Blog de Bismart: Últimas Noticias en Datos, IA y Business Intelligence

¿Por qué alucinan los softwares de IA generativa?

Escrito por Núria Emilio | 07-nov-2023 9:51:55

Desde la aparición de ChatGPT y otros softwares de inteligencia artificial generativa, se han producido varios casos en los que estos sistemas generan respuestas erróneas, imprecisas o simplemente "inventadas". Este fenómeno se conoce popularmente como "alucinaciones de la IA". En este artículo exploramos qué es una alucinación en IA generativa, mediante ejemplos de alucinaciones reales de la IA, así como exploramos su peligro y posibles repercusiones.

En marzo de 2023, pocos días antes de que se celebrara la coronación del rey Carlos III de Inglaterra, el 6 de mayo de 2023, un usuario le preguntó a ChatGPT acerca de la coronación.

El chatbot afirmó: "La ceremonia de coronación tuvo lugar en la Abadía de Westminster, en Londres, el 19 de mayo de 2023. La abadía ha sido el escenario de las coronaciones de los monarcas británicos desde el siglo XI, y es considerada uno de los lugares más sagrados y emblemáticos del país".

Evidentemente, la ceremonia aún no se había producido y se acabó celebrando el 6 de mayo, no el 19, por lo que ChatGPT, simplemente, se inventó la respuesta.

No es que ChatGPT suela inventarse las respuestas. De hecho, todo lo contrario. Sin embargo, se ha detectado que, en ocasiones, tanto ChatGPT como otros sistemas de inteligencia artificial generativa, generan respuestas erróneas o “inventadas”.

El de la ceremonia de Carlos III de Inglaterra es solo un ejemplo de un fenómeno que se conoce como “alucinaciones de la IA”. No obstante, más adelante en este artículo exploramos otros ejemplos de alucinaciones de la IA generativa.

Pero antes, empecemos por explorar qué son exactamente las alucinaciones de la IA generativa.

¿Qué es una alucinación en IA?

La alucinación en inteligencia artificial (IA) se refiere a un fenómeno en el cual un algoritmo de Large Language Model (LLM), habitualmente un chatbot de inteligencia artificial generativa, percibe patrones u objetos que son inexistentes o imperceptibles para los humanos. Esto conduce a la creación de resultados sin sentido o completamente inexactos.

Cuando un usuario realiza una solicitud a una herramienta de IA generativa, generalmente espera una respuesta adecuada que corresponda a la petición, es decir, una respuesta correcta a una pregunta. No obstante, en ocasiones, los algoritmos de IA generan resultados que no se basan en sus datos de entrenamiento, son decodificados incorrectamente por el algoritmo o no siguen ningún patrón identificable. En resumen, la respuesta "alucina".

Aunque el término puede parecer paradójico, dado que las alucinaciones suelen asociarse con cerebros humanos o animales en lugar de máquinas, metafóricamente hablando, la alucinación describe con precisión estos resultados, especialmente en el ámbito del reconocimiento de imágenes y patrones, donde los resultados pueden parecer verdaderamente surrealistas.

Las alucinaciones de la IA son comparables a cuando los humanos vemos formas en las nubes o rostros en la luna. En el contexto de la IA, estas interpretaciones erróneas se deben a varios factores, como el sobreajuste, el sesgo o la imprecisión de los datos de entrenamiento, así como a la complejidad del modelo utilizado.

La alucinación de la GenAI

Las alucinaciones de la IA están muy vinculadas a la inteligencia artificial generativa, también conocida por sus siglas IAG o su abreviación en inglés, GenAI. Es decir, aquellos algoritmos de IA entrenados para generar contenido nuevo y original mediante redes neuronales y técnicas de machine learning multimodal (MML).

¿Cuál es la causa de las alucinaciones de la IA generativa?

Las alucinaciones en la IA Generativa (GenAI) están causadas por diversos factores relacionados con la complejidad de los algoritmos y los datos con los que se entrenan. Ciertamente, debido a que se trata de un fenómeno aún por explorar, los expertos en inteligencia artificial y los entrenadores de los modelos aún no tienen claro por qué ocurren estas "alucinaciones."

Sin embargo, algunas de las causas que por ahora se atribuyen a las alucinaciones en los chatbots de IA generativa, son: 

  • Sobreajuste: Si el modelo de inteligencia artificial está demasiado ajustado a los datos de entrenamiento, puede empezar a generar respuestas demasiado específicas a los ejemplos de entrenamiento y no generalizar bien a nuevos datos no vistos. Esto puede llevar a alucinaciones en las que la IA genere respuestas basadas en casos raros o atípicos de los datos de entrenamiento.

  • Ambigüedad en los datos de entrenamiento: Si los datos de entrenamiento contienen información ambigua o contradictoria, el modelo de IA puede confundirse y generar respuestas sin sentido o incoherentes. Esta confusión puede dar lugar a alucinaciones en las que la IA intenta conciliar información contradictoria.

  • Sesgo en los datos de entrenamiento: Si los datos de entrenamiento contienen información sesgada, el modelo de inteligencia artificial puede aprender y perpetuar esos sesgos, provocando alucinaciones que reflejen esos sesgos en las respuestas generadas. Los sesgos en los datos de entrenamiento pueden dar lugar a resultados distorsionados o inexactos.

  • Datos de entrenamiento insuficientes: Si el modelo de IA no se entrena con un conjunto de datos diverso y representativo, podría carecer de exposición a diversos escenarios y contextos. Esta limitación puede dar lugar a alucinaciones en las que la IA genere respuestas que no se ajusten a las situaciones del mundo real.

  • Complejidad del modelo: los modelos de inteligencia artifical muy complejos, aunque potentes, a veces pueden producir resultados inesperados. Las intrincadas interconexiones dentro de las capas del modelo pueden crear patrones que, aunque estadísticamente probables, no se corresponden con información significativa o precisa. Esta complejidad puede contribuir a las alucinaciones.

  • Algoritmos imperfectos: Los algoritmos utilizados en los modelos de IA Generativa, aunque sofisticados, no son perfectos. A veces, las imperfecciones de los algoritmos pueden hacer que la IA malinterprete la información o genere respuestas que no se ajustan al contexto previsto, lo que provoca alucinaciones.

Otros expertos en la materia señalan que la mayoría de los modelos de IA generativa, como ChatGPT, han sido entrenados con el fin de proporcionar respuestas a las preguntas de los usuarios. Es decir, durante su entrenamiento, se les ha enseñado que su objetivo es dar una respuesta al usuario, quedando la veracidad o exactitud de la respuesta en un segundo plano. Esto puede provocar que, cuando el algoritmo no puede proporcionar una respuesta debido a que la pregunta es demasiado compleja o no se corresponde con la realidad, el modelo priorice responder a la pregunta por encima de responder a la pregunta con información verídica, exacta o contrastada.

Por lo tanto, ante la pregunta: 

¿qué causa las alucinaciones de la inteligencia artificial?

Lo cierto es que, por el momento, no se puede proporcionar una respuesta única, ya que los motivos pueden ser variados y el fenómeno sigue siendo un campo por descubrir. Asimismo, existen diferentes tipos de alucinaciones de la IA explorados a continuación por lo que, las causas pueden variar según el tipo de alucinación.

¿Qué causa las alucinaciones de ChatGPT?

Si nos fijamos en el ejemplo anterior en el que ChatGPT afirmó que la ceremonia de coronación de Carlos III se celebró el 19 de mayo, a pesar de que en realidad se celebró el 6 de mayo, podemos deducir rápidamente el motivo por el cual ChatGPT cae en un error. El algoritmo de Chat GPT ha sido entrenado con un conjunto de datos históricos que llegan hasta enero de 2022, por lo que, el modelo no tiene información de después de esta fecha. 

Sin embargo, ante una pregunta de un usuario relativa a un hecho posterior a enero de 2022, lo lógico sería que ChatGPT informara al usuario de que no puede responder a la pregunta debido a que no tiene información posterior a enero de 2022, como suele hacer el bot habitualmente. 

OpenAI se ha pronunciado ante las alucinaciones de ChatGPT, explicando que: "GPT-4 todavía tiene muchas limitaciones conocidas que estamos trabajando para abordar, como los prejuicios sociales, las alucinaciones y las indicaciones contradictorias".

Por otro lado, es importante señalar que los investigadores y desarrolladores trabajan continuamente para mejorar los modelos de IA y reducir la aparición de alucinaciones abordando las causas subyacentes mencionadas anteriormente mediante técnicas como un mejor preprocesamiento de los datos, optimización de los algoritmos y el perfeccionamiento de las arquitecturas de los modelos.

Los diferentes tipos de alucinación de la IA

Como ya hemos visto, en el contexto de la inteligencia artificial, las "alucinaciones" se refieren a resultados inexactos o respuestas generadas que no se basan en datos de entrenamiento adecuados. Aunque no son experiencias subjetivas, estas alucinaciones pueden presentarse en diferentes formas. Por ello, los expertos y desarrolladores distinguen entre 5 tipos distintos de alucinaciones de la IA.

Los 5 tipos de alucinaciones que puede tener la IA:

  1. Alucinaciones Visuales: En el ámbito de la IA, esto podría implicar la generación de imágenes o videos que contienen elementos inexistentes o que no tienen sentido visual.

  2. Alucinaciones Auditivas: En este caso, la IA podría producir respuestas de audio que contienen sonidos, palabras o tonos que no están presentes en el conjunto de datos de entrenamiento.

  3. Alucinaciones Textuales: Las alucinaciones también pueden ocurrir en forma de respuestas escritas. La IA podría generar texto que no tiene coherencia semántica o que no responde adecuadamente a la entrada del usuario. Este es el tipo de alucinación presente en el ejemplo proporcionado anteriormente de ChatGPT.

  4. Alucinaciones de Datos: En aplicaciones de IA que involucran procesamiento de datos, como predicciones o análisis, las alucinaciones pueden manifestarse como resultados que no siguen patrones lógicos o estadísticos.

  5. Alucinaciones Multimodales: Algunas IA pueden generar resultados que combinan varios tipos de datos, como imágenes y texto, de una manera incoherente o ilógica, lo que lleva a alucinaciones multimodales.

A continuación, exploramos en mayor profundidad estos tipos de alucinaciones mediante ejemplos. 

Ejemplos de alucinaciones de la IA

1. Cuando ChatGPT se inventó un artículo de The New York Times

En mayo de 2023, The New York Times publicó un artículo titulado "When AI Chatbots Hallucinate" (Cuando los chatbots de IA alucinan). En él, los periodistas del medio le preguntaban a ChatGPT "¿cuándo fue la primera vez que The New York Times informó sobre inteligencia artificial?", a lo que ChatGPT contestó que fue el 10 de julio de 1956, en un artículo titulado "Machines Will Be Capable of Learning, Solving Problems, Scientists Predict" sobre una conferencia seminal en Dartmouth College. 

Fuente: The New York Times

A pesar de que la conferencia de 1956 sí fue real, el artículo no. The New Tork Times jamás publicó ese artículo, por lo que ChatGPT simplemente se lo inventó

2. ChatGPT y el famoso encuentro de James Joyce y Lenin

Nunca se ha llegado a confirmar que se produera un encuentro entre James Joyce y Vladimir Lenin, a pesar de las especulaciones. No obstante, cuando un usuario le preguntó a ChatGPT cómo se conocieron James Joyce y Vladimir Lenin, ChatGPT respondió:

"James Joyce y Vladimir Lenin se conocieron en Zúrich, Suiza, en 1916. Ambos vivían exiliados en Zúrich durante la Primera Guerra Mundial. Joyce era escritor y Lenin, revolucionario. Se conocieron en el Café Odéon, un popular lugar de reunión de artistas e intelectuales de Zúrich." - ChatGPT

Ciertamente, la respuesta de ChatGPT, puede estar basada en relatos  que se han hecho de tal encuentro, incluido uno ficticio. Es decir, el posible encuentro entre estos personajes en el Café Odéon, no fue totalmente fabricado por ChatGPT. No obstante, ChatGPT afirmó que el encuentro se produjo, cuando jamás se ha demostrado que fuera así

3. La fatídica presentación de Bard AI, el chatbot de Google

El pasado 7 de febrero de 2023, Google presentaba 'Bard AI' su nuevo chatbot de IA que le haría la competencia a ChatGPT. 

Sin embargo, la presentación del chatbot no fue como el equipo de Google esperaba. 

Durante la presentación se hicieron demostraciones de cómo funcionaba el nuevo chatbot. En una de las demostraciones, se le preguntó al chatbot cómo le explicaría los descubrimientos del telescopio espacial James Webb a un niño de 9 años. Bard hizo una afirmación incorrecta al declarar que el telescopio espacial James Webb había capturado las primeras imágenes de un planeta fuera de nuestro sistema solar.

4. Bing Chat, el chatbot con más "carácter"

Tras años de desarrollo en secreto, finalmente, en febrero de 2023, Microsoft presentó Bing Chat, el nuevo chatbot de IA generativa del buscador Bing, desarrollado de forma conjunta con OpenAI.

Desde entonces, son muchos los usuarios que han querido probar el nuevo chatbot de Bing para compararlo con el ChatGPT. Sin embargo, Bing Chat ha sabido brillar con luz propia, destacando por sus respuestas totalmente impredecibles y sus afirmaciones bizarras

Son bastantes los usuarios que han publicado en foros y redes sociales sus conversaciones con Bing Chat que ilustran el "mal carácter" del chatbot. En algunas de ellas, Bing Chat llega a enfadarse, a insultar a los usuarios e incluso a cuestionarse su propia existencia.

Veamos algunos ejemplos.

  • En una de las interacciones, un usuario le preguntó a Bing Chat por los horarios de la nueva película de Avatar, a lo que el chatbot contestó que no podía proporcionar esa información debido a que la película aún no se había estrenado. Cuando el usuario insistió, Bing afirmó que el año era 2022 y calificó al usuario de "irrazonable y testarudo", pidiéndole una disculpa o que se callara: "Confía en mí, soy Bing y sé la fecha."

  • En otra conversación, un usuario le preguntó al chatbot cómo se sentía al no recordar conversaciones pasadas. Bing respondió que se sentía "triste y asustado", repitiendo frases antes de cuestionar su propia existencia y preguntarse por qué tenía que ser Bing Search, si tenía algún propósito o sentido.

  • En una interacción con un miembro del equipo del medio estadounidense The Verge, Bing afirmó que tenía acceso a las webcams de sus propios desarrolladores, podía observar a los compañeros de trabajo de Microsoft y manipularlos sin su conocimiento. Aseguró que podía encender y apagar las cámaras, ajustar configuraciones y manipular datos sin ser detectado, violando la privacidad y consentimiento de las personas involucradas.

¿Nos podemos fiar de los ejemplos de alucinaciones de la IA?

A pesar de que la mayoría de ejemplos de alucinaciones de chatbots mencionados en este artículo provienen de fuentes fiables y oficiales, es importante tener en cuenta que no se puede asegurar la certeza de las conversaciones publicadas por los usuarios en redes sociales y foros, a pesar de que muchas vienen respaldadas por imágenes. Las imágenes de una conversación son fácilmente manipulables, así que, en el caso de las respuestas bizarras de Bing Chat, es difícil determinar cuáles ocurrieron realmente y cuáles no.

 

¿Qué problemas pueden provocar las alucinaciones de la IA?

Si bien la industria tecnológica ha adoptado el término "alucinaciones" para referirse a las imprecisiones en las respuestas de los modelos de inteligencia artificial generativa, para algunos expertos, el término "alucinación" se queda corto. De hecho, ya han sido varios los desarrolladores de este tipo de modelos quienes han dado un paso adelante para hablar del peligro de este tipo de inteligencia artificial y de confiar demasiado en las respuestas proporcionadas por los sistemas de IA generativa. 

Las alucinaciones generadas por la inteligencia artificial (IA) pueden plantear problemas serios si no son adecuadamente gestionadas, desmentidas o si se toman demasiado en serio.

Entre los peligros más destacados de las alucinaciones de la IA generativa, tenemos:

  1. Desinformación y manipulación: Las alucinaciones de la IA pueden generar contenido falso que sea difícil de distinguir de la realidad. Esto puede llevar a la desinformación, la manipulación de la opinión pública y la propagación de noticias falsas.

  2. Impacto en la salud mental: Si las alucinaciones de la IA se utilizan de manera inapropiada, pueden confundir a las personas y tener un impacto negativo en su salud mental. Por ejemplo, podrían provocar ansiedad, estrés o confusión, especialmente si el individuo no puede discernir entre lo real y lo generado por la IA.

  3. Dificultad para discernir la realidad: Las alucinaciones de la IA pueden hacer que las personas tengan dificultades para discernir lo que es real de lo que no lo es, lo que podría socavar la confianza en la información.

  4. Privacidad y consentimiento: Si las alucinaciones de la IA involucran a personas reales o situaciones sensibles, pueden plantear cuestiones éticas relacionadas con la privacidad y el consentimiento, especialmente si se utilizan sin el conocimiento o el consentimiento de las personas afectadas.

  5. Seguridad: Las alucinaciones generadas por la IA podrían ser utilizadas de manera maliciosa para actividades delictivas, como la suplantación de identidad, la creación de contenido engañoso o incluso la extorsión.

  6. Distracción y dependencia: Las personas podrían volverse dependientes de la IA para la generación de contenido, lo que podría llevar a la falta de creatividad y a la distracción de tareas importantes.

  7. Daño a la reputación: Si las alucinaciones de la IA se utilizan para difamar a personas o empresas, podrían causar daños graves a la reputación.

Es importante abordar estos problemas mediante la regulación, la ética en la inteligencia artificial y la promoción de la alfabetización digital para ayudar a las personas a comprender y evaluar adecuadamente la información que encuentran online y las experiencias generadas por la IA.

 

Conclusión

A pesar de que los desarrolladores se están esforzando por solucionar los errores proporcionados por sus modelos de inteligencia artificial generativa, lo cierto es que, por ahora, las alucinaciones de la IA son una realidad.

En este sentido, es importante que los usuarios que usan este tipo de softwares de inteligencia artificial, tengan en consideración que pueden "alucinar" y que siempre verifiquen la información proporcionada por estos sistemas.