El grupo de privacidad austríaco Noyb presentó este jueves una queja formal contra ChatGPT, el popular chatbot de inteligencia artificial desarrollado por OpenAI, por crear información falsa y potencialmente dañina sobre personas reales. La denuncia, que fue entregada ante la autoridad de protección de datos de Noruega (Datatilsynet), señala específicamente un caso en el que el chatbot generó una historia falsa donde se acusaba a un usuario de asesinar a sus hijos.
El incidente ocurrió cuando Arve Hjalmar Holmen, residente en Noruega, consultó a ChatGPT en agosto de 2024 para conocer qué información disponía sobre él. Sorprendentemente, la inteligencia artificial no solo proporcionó datos personales reales como la cantidad y género de sus hijos o su ciudad natal, sino que además añadió una narrativa inventada y alarmante, afirmando falsamente que Holmen había matado a dos de sus hijos y había intentado asesinar a un tercero.
“El hecho de que alguien pueda leer este artículo y creer que es cierto es lo que más me asusta”, declaró Hjalmar Holmen en un comunicado difundido por Noyb. La organización denuncia que este tipo de situaciones no es aislado y resalta que ChatGPT tiene tendencia a “alucinar”, término que la industria tecnológica utiliza para describir cuando las inteligencias artificiales generan información incorrecta debido a datos inexactos o suposiciones erróneas.
OpenAI ha afirmado recientemente que actualizó ChatGPT para que obtenga información directamente desde internet cuando se trate de preguntas específicas sobre individuos y ya no presenta a Arve Hjalmar Holmen como un asesino. No obstante, Noyb sostiene que la información falsa aún podría estar presente en los conjuntos de datos utilizados por la inteligencia artificial, lo que no soluciona completamente el problema.
En su queja formal, Noyb exige a la autoridad noruega que imponga una multa significativa a OpenAI y obligue a la compañía estadunidense a eliminar inmediatamente los resultados difamatorios de sus sistemas. Además, piden que se realicen ajustes urgentes al modelo de inteligencia artificial para evitar nuevas inexactitudes que puedan afectar negativamente la reputación de las personas.