De momento, las herramientas son para creadores y beneficiarán sobre todo a personajes públicos y músicos.
YouTube está trabajando en varias herramientas de detección de falsificaciones para ayudar a los creadores a encontrar vídeos en los que se utilicen versiones de sus voces o rostros generadas por inteligencia artificial sin su consentimiento, según anunció el jueves la plataforma propiedad de Google.
Se esperan dos herramientas distintas, pero YouTube aún no ha comunicado la fecha de lanzamiento de ninguna de ellas. La primera es una herramienta de detección de voces de cantantes que se añadirá al sistema Content ID de YouTube. Content ID comprueba automáticamente los casos de infracción de los derechos de autor y puede retirar, por ejemplo, películas enteras o copias de canciones que pertenezcan a un músico consagrado.
Esta primera función de detección de IA estará destinada principalmente a los músicos cuyas voces son imitadas por la IA para producir nuevas canciones, pero no está claro si la herramienta funcionará eficazmente con artistas menos famosos cuyas voces no son ampliamente reconocidas. Sin embargo, es probable que ayude a los grandes sellos discográficos a mantener a los imitadores de IA fuera de YouTube y a artistas de la talla de Drake, Billie Eilish o Taylor Swift a encontrar y eliminar canales que publiquen canciones de IA que los imiten.
La segunda herramienta de detección ayudará a figuras públicas como influencers, actores, deportistas o artistas a rastrear y marcar los medios generados por IA de sus rostros en YouTube. Pero no está claro si YouTube desplegará proactivamente la herramienta en algún momento para detectar imágenes generadas por IA que suplantan a personas reales que no son famosas ni suben vídeos.
Un representante de YouTube no ha respondido directamente a esta pregunta, pero ha declarado que la política de privacidad de YouTube, recientemente actualizada, permite a cualquiera solicitar la eliminación de contenido de suplantación de identidad generado por IA o deepfake, por lo que parece que las personas que suplantan a personas reales tendrán que perseguir activamente las suplantaciones para conseguir que se eliminen.
YouTube tampoco ha respondido si consideraría la posibilidad de utilizar esta herramienta para eliminar de forma proactiva la plaga de vídeos de estafa generados por IA. Estos vídeos suplantan a personajes famosos como Elon Musk y han aparecido en YouTube innumerables veces, a menudo en cuentas pirateadas, en los últimos años. Las directrices comunitarias de YouTube no permiten el spam, las estafas ni el contenido engañoso, pero los espectadores deben denunciar manualmente los vídeos para que sean retirados.
Mientras que Google y prácticamente todas las demás grandes empresas tecnológicas han evangelizado el potencial de la IA y han tratado de encontrar maneras de añadirla a todos los rincones de sus negocios, el acceso generalizado, barato o gratuito a las herramientas de IA también significa que se ha vuelto mucho más fácil hacer deepfake media de otras personas. El año pasado, un estudio descubrió que el número de vídeos deepfake en línea había aumentado un 550% desde 2021. Se rastrearon más de 95.000 vídeos deepfake en Internet, y se observó que el 98% de ellos eran pornográficos y que un asombroso 99% de las personas suplantadas eran mujeres.
El Departamento de Seguridad Nacional de Estados Unidos también ha calificado los deepfakes de «amenaza creciente», señalando el uso indebido de la tecnología de sincronización labial «Wav2Lip» basada en IA como motivo de preocupación. Incluso un vídeo de Instagram de 15 segundos puede ser material suficiente para crear pornografía deepfake de una persona, señala el DHS.
En última instancia, YouTube dice que quiere que la IA «mejore la creatividad humana, no la sustituya», y está desarrollando estas nuevas herramientas de detección de deepfakes para ayudar a las figuras públicas a eliminar las suplantaciones a medida que se difunden.