ChatGPT recibe denuncia de un noruego… por llamarlo «asesino de niños»

Date:

El grupo de privacidad austríaco Noyb presentó este jueves una queja formal contra ChatGPT, el popular chatbot de inteligencia artificial desarrollado por OpenAI, por crear información falsa y potencialmente dañina sobre personas reales. La denuncia, que fue entregada ante la autoridad de protección de datos de Noruega (Datatilsynet), señala específicamente un caso en el que el chatbot generó una historia falsa donde se acusaba a un usuario de asesinar a sus hijos.

El incidente ocurrió cuando Arve Hjalmar Holmen, residente en Noruega, consultó a ChatGPT en agosto de 2024 para conocer qué información disponía sobre él. Sorprendentemente, la inteligencia artificial no solo proporcionó datos personales reales como la cantidad y género de sus hijos o su ciudad natal, sino que además añadió una narrativa inventada y alarmante, afirmando falsamente que Holmen había matado a dos de sus hijos y había intentado asesinar a un tercero.

 

“El hecho de que alguien pueda leer este artículo y creer que es cierto es lo que más me asusta”, declaró Hjalmar Holmen en un comunicado difundido por Noyb. La organización denuncia que este tipo de situaciones no es aislado y resalta que ChatGPT tiene tendencia a “alucinar”, término que la industria tecnológica utiliza para describir cuando las inteligencias artificiales generan información incorrecta debido a datos inexactos o suposiciones erróneas.

OpenAI ha afirmado recientemente que actualizó ChatGPT para que obtenga información directamente desde internet cuando se trate de preguntas específicas sobre individuos y ya no presenta a Arve Hjalmar Holmen como un asesino. No obstante, Noyb sostiene que la información falsa aún podría estar presente en los conjuntos de datos utilizados por la inteligencia artificial, lo que no soluciona completamente el problema.

En su queja formal, Noyb exige a la autoridad noruega que imponga una multa significativa a OpenAI y obligue a la compañía estadunidense a eliminar inmediatamente los resultados difamatorios de sus sistemas. Además, piden que se realicen ajustes urgentes al modelo de inteligencia artificial para evitar nuevas inexactitudes que puedan afectar negativamente la reputación de las personas.

Comparte esta nota:

spot_imgspot_img

Popular

Más de esta categoría
Related

Malagón se lesionó

Alarmas encendidas en Coapa y en el Tricolor. Luis...

Refuerzan la seguridad de los estudiantes tras acuerdo entre la UACH y Policía Municipal

Para brindar más seguridad a estudiantes universitarios, la Dirección...

Irán amenaza a Trump

  Alí Larijani, jefe del Consejo Superior de Seguridad de...

Diputados eligen como titular de la ASF a Aureliano Hernández, hijo del exsecretario particular de Sheinbaum

Con 472 votos en pro, Aureliano Hernández Palacios Cardel,...