El teléfono suena. Es el secretario de Estado llamando. ¿O no?
Para los conocedores de Washington, ver y oír ya no es creer, gracias a una serie de incidentes recientes que involucran deepfakes que suplantan a altos funcionarios de la administración del presidente Donald Trump.
Las falsificaciones digitales también están llegando a las empresas de Estados Unidos, ya que bandas criminales y hackers asociados con adversarios como Corea del Norte utilizan videos y audios sintéticos para hacerse pasar por directores de empresas y candidatos a empleos de bajo nivel para acceder a sistemas críticos o secretos empresariales.
Gracias a los avances en inteligencia artificial, crear deepfakes realistas es más fácil que nunca, causando problemas de seguridad para gobiernos, empresas e individuos privados y haciendo que la confianza sea la moneda más valiosa de la era digital.
Responder al desafío exigir leyes, mejor alfabetización digital y soluciones técnicas que combatan la IA con más IA.
“Como humanos, somos notablemente susceptibles al engaño”, dijo Vijay Balasubramaniyan, CEO y fundador de la empresa tecnológica Pindrop Security. Pero cree que las soluciones al desafío de los deepfakes pueden estar al alcance: “Vamos a contraatacar”.
Los deepfakes de IA se convierten en una amenaza para la seguridad nacional
Este verano, alguien utilizó IA para crear un deepfake del secretario de Estado Marco Rubio en un intento de comunicarse con ministros extranjeros, un senador estadounidense y un gobernador a través de mensajes de texto, correo de voz y la aplicación de mensajería Signal.
En mayo, alguien se hizo pasar por la jefa de despacho de Trump, Susie Wiles.
Otro falso Rubio apareció en un deepfake a principios de este año, diciendo que quería cortar el acceso de Ucrania al servicio de internet Starlink de Elon Musk. El gobierno de Ucrania posteriormente refutó la afirmación falsa.
Las implicaciones para la seguridad nacional son: las personas que piensan que están conversando con Rubio o Wiles, por ejemplo, podrían discutir información sensible sobre negociaciones diplomáticas o estrategia militar.
“Estás tratando de extraer secretos sensibles o información competitiva o estás buscando acceso, a un servidor de correo electrónico u otra red sensible”, dijo Kinny Chan, director general de la firma de ciberseguridad QiD, sobre las posibles motivaciones.
Los medios sintéticos también pueden tener como objetivo alterar el comportamiento. El año pasado, los demócratas en Nueva Hampshire recibieron una llamada automática instándolos a no votar en las próximas primarias del estado. La voz en la llamada sonaba sospechosamente como la del entonces presidente Joe Biden, pero en realidad fue creada usando IA.
Su capacidad para engañar hace que los deepfakes de IA sean un arma potente para actores extranjeros. Tanto Rusia como China han utilizado desinformación y propaganda dirigida a los estadounidenses como una forma de socavar la confianza en las alianzas e instituciones democráticas.
Steven Kramer, el consultor político que admitió haber enviado las llamadas automáticas falsas de Biden, dijo que quería enviar un mensaje sobre los peligros que los deepfakes representan para el sistema político estadounidense. Kramer fue absuelto el mes pasado de los cargos de supresión de votación y suplantación de un candidato.
“Hice lo que hice por 500 dólares”, dijo Kramer. ”¿Puedes imaginar lo que sucedería si el gobierno chino decidiera hacer esto?”.


