ChatGPT recibe denuncia de un noruego… por llamarlo «asesino de niños»

Date:

El grupo de privacidad austríaco Noyb presentó este jueves una queja formal contra ChatGPT, el popular chatbot de inteligencia artificial desarrollado por OpenAI, por crear información falsa y potencialmente dañina sobre personas reales. La denuncia, que fue entregada ante la autoridad de protección de datos de Noruega (Datatilsynet), señala específicamente un caso en el que el chatbot generó una historia falsa donde se acusaba a un usuario de asesinar a sus hijos.

El incidente ocurrió cuando Arve Hjalmar Holmen, residente en Noruega, consultó a ChatGPT en agosto de 2024 para conocer qué información disponía sobre él. Sorprendentemente, la inteligencia artificial no solo proporcionó datos personales reales como la cantidad y género de sus hijos o su ciudad natal, sino que además añadió una narrativa inventada y alarmante, afirmando falsamente que Holmen había matado a dos de sus hijos y había intentado asesinar a un tercero.

 

“El hecho de que alguien pueda leer este artículo y creer que es cierto es lo que más me asusta”, declaró Hjalmar Holmen en un comunicado difundido por Noyb. La organización denuncia que este tipo de situaciones no es aislado y resalta que ChatGPT tiene tendencia a “alucinar”, término que la industria tecnológica utiliza para describir cuando las inteligencias artificiales generan información incorrecta debido a datos inexactos o suposiciones erróneas.

OpenAI ha afirmado recientemente que actualizó ChatGPT para que obtenga información directamente desde internet cuando se trate de preguntas específicas sobre individuos y ya no presenta a Arve Hjalmar Holmen como un asesino. No obstante, Noyb sostiene que la información falsa aún podría estar presente en los conjuntos de datos utilizados por la inteligencia artificial, lo que no soluciona completamente el problema.

En su queja formal, Noyb exige a la autoridad noruega que imponga una multa significativa a OpenAI y obligue a la compañía estadunidense a eliminar inmediatamente los resultados difamatorios de sus sistemas. Además, piden que se realicen ajustes urgentes al modelo de inteligencia artificial para evitar nuevas inexactitudes que puedan afectar negativamente la reputación de las personas.

Share post:

Subscribe

spot_imgspot_img

Popular

More like this
Related

Refuerza SSPE vigilancia en centros penitenciarios con nuevo operativo en el Cereso No. 7

  Con el objetivo de mantener la gobernabilidad, estabilidad y...

Reportan que Robert Dante Siboldi renunció como técnico del Mazatlán

El Mazatlán FC ya no tiene entrenador para el...

Adolescente incendia una grada tras el descenso del club finlandés FC Haka

Un adolescente confesó haber provocado el incendio que destruyó...

“Yo soy tu padre” Manchester City al Real Madrid

  El Manchester City incendió las redes sociales luego de...