ChatGPT difundió falsa noticia sobre un hombre noruego y sus hijos y se metió en problemas

El hombre no daba crédito y ha decidido denunciar a OpenAI. ¿Cuáles serán las consecuencias de todo esto?

author

Por:

Adonis Martínez

Chat GPT
El peligro de la Inteligencia Artificial en según qué conceptos. Fuente: OpenAI.

En agosto de 2024, Arve Hjalmar Holmen, un padre de familia noruego, decidió preguntarle a ChatGPT quién era él. Lo que parecía una consulta trivial se convirtió en un caos cuando el chatbot le respondió con una historia falsa.

Según ChatGPT, Holmen había asesinado a dos de sus hijos e intentado matar a un tercero, lo que le valió una condena de 21 años de prisión.

Aunque la IA acertó en algunos detalles, como el número y el sexo de los hijos de Holmen, el resto de la historia era completamente erróneo. Holmen nunca estuvo involucrado en una tragedia como la que describía ChatGPT, y los hechos mencionados por el chatbot no se basaban en ninguna realidad.

Información falsa, pero peligrosa

    La información que ChatGPT proporcionó sobre Arve Hjalmar Holmen resultó ser completamente falsa. Este tipo de errores son sorprendentes, considerando que las IA obtienen sus respuestas a través de algoritmos y búsquedas en internet.

Al consultar con el propio chatbot sobre el caso, se explicó que no existe ninguna evidencia en línea que acuse a Holmen de un crimen. La falsa información parece ser el resultado de una “alucinación” del modelo, donde combina hechos reales con datos inventados sin base alguna.

Las “alucinaciones” en los modelos de lenguaje ocurren cuando la inteligencia artificial genera respuestas basadas en patrones aprendidos de enormes volúmenes de datos. No obstante, estos modelos no siempre pueden distinguir entre información verificada y no verificada, lo que puede llevar a la creación de contenido erróneo o engañoso. En el caso de Holmen, el chatbot mezcló detalles ciertos, como el número de hijos y la ciudad natal, con información completamente inventada sobre acusaciones de asesinato.

Denuncia a OpenAI

Debido a esto, diferentes grupos europeos de derechos de privacidad han denunciado la invasión y la invención a las autoridades. Uno de estos grupos, Nyob ha presentado una denuncia en contra de OpenAi y mostró la captura de pantalla de la respuesta a la pregunta del hombre noruego a OpenAI.

Noyb afirmó que los datos incorrectos podrían seguir formando parte del conjunto de datos del modelo lingüístico grande (LLM) y que el noruego no tiene forma de saber si la información falsa sobre él se ha eliminado permanentemente, ya que ChatGPT introduce los datos de los usuarios en su sistema con fines de entrenamiento.

Temas relacionados