Los culpables están utilizando tecnología de IA para tomar fotos benignas de personas, incluidos menores, y convertirlas en imágenes sexualmente explícitas con el fin de extorsionar, advierte el FBI.
El FBI advierte de que los estafadores están utilizando tecnología de IA para crear fotos y vídeos deepfake sexualmente explícitos de personas en un intento de extorsionarlas, también conocido como «sextorsión».
La amenaza es especialmente inquietante porque se aprovecha de las fotos benignas que la gente publica en sus cuentas de redes sociales, que a menudo son públicas. Gracias a los avances en el software de edición de imágenes y vídeos, un malhechor puede tomar esas mismas fotos y utilizarlas para crear porno generado por inteligencia artificial con la cara de la víctima.
«El FBI sigue recibiendo denuncias de víctimas, incluidos menores y adultos sin consentimiento, cuyas fotos o vídeos han sido alterados para convertirlos en contenido explícito», afirma la agencia en la alerta. «Las fotos o videos son luego difundidos públicamente en las redes sociales o sitios web pornográficos, con el propósito de acosar a las víctimas o esquemas de sextorsión».
Como resultado, el FBI está advirtiendo al público sobre el peligro de publicar fotos y vídeos de sí mismos en línea. «Aunque aparentemente inocuas cuando se publican o comparten, las imágenes y los vídeos pueden proporcionar a los actores maliciosos un abundante suministro de contenidos que explotar para actividades delictivas».
El FBI no precisó cuántas denuncias ha recibido. Pero la agencia emitió la alerta porque ha visto miles de esquemas de sextorsión dirigidos a menores. Puede tratarse de un depredador en línea que se hace pasar por una chica atractiva y engaña a un adolescente para que le envíe desnudos. A continuación, el estafador amenaza con publicar los desnudos en Internet a menos que se le pague.
En la alerta de hoy, el FBI señala que los esquemas de extorsión sexual recientes también han implicado el uso de deepfakes. «A partir de abril de 2023, el FBI ha observado un aumento de las víctimas de extorsión sexual que denuncian el uso de imágenes o vídeos falsos creados a partir de contenido publicado en sus redes sociales o publicaciones en Internet, proporcionado al actor malicioso a petición, o capturado durante chats de vídeo», dijo la agencia. En algunos casos, los depredadores también utilizan las deepfakes para presionar a la víctima para que les envíe «imágenes o vídeos reales de temática sexual».
Mientras tanto, el aumento de los deepfakes maliciosos podría hacer que más estados prohibieran su uso. Sólo unos pocos estados, como Virginia y California, han prohibido el porno deepfake. Pero el mes pasado, el diputado Joe Morelle (demócrata de Nueva York) presentó una ley federal para prohibir los deepfakes no consentidos, convirtiéndolos en un delito penal.