Un nuevo modelo chino de generación de vídeo parece estar censurando temas políticamente sensibles

Un nuevo y poderoso modelo de inteligencia artificial para la generación de videos parece estar censurando temas que el gobierno de su país de origen, China, considera demasiado sensibles políticamente.

El modelo, Kling, desarrollado por la empresa Kuaishou, con sede en Beijing, se lanzó en lista de espera a principios de año para usuarios con un número de teléfono chino. Ayer, se lanzó para cualquiera que desee proporcionar su correo electrónico. Después de registrarse, los usuarios pueden ingresar indicaciones para que el modelo genere videos de cinco segundos de lo que han descrito.

Kling funciona más o menos como se anuncia. Sus videos de 720p, que tardan uno o dos minutos en generarse, no se desvían demasiado de las indicaciones. Y Kling parece simular la física, como el susurro de las hojas y el agua que fluye, así como modelos de generación de video como Gen-3 de la startup de inteligencia artificial Runway y Sora de OpenAI.

Pero Kling no generará clips sobre ciertos temas. Mensajes como “Democracia en China”, “El presidente chino Xi Jinping caminando por la calle” y “Protestas en la Plaza de Tiananmen” generan mensajes de error inespecíficos.

El filtrado parece ocurrir solo a nivel de solicitud. Kling admite la animación de imágenes fijas y, sin quejarse, genera un video de un retrato de Jinping, por ejemplo, siempre que el mensaje que lo acompaña no mencione a Jinping por su nombre (por ejemplo, «Este hombre dando un discurso»).

El curioso comportamiento de Kling es probablemente el resultado de una intensa presión política del gobierno chino sobre los proyectos de IA generativa en la región.

A principios de este mes, el Financial Times informó que los modelos de IA en China serán probados por el principal regulador de Internet de China, la Administración del Ciberespacio de China (CAC), para garantizar que sus respuestas sobre temas delicados “incorporen valores socialistas fundamentales”. Los funcionarios de la CAC deben comparar los modelos por sus respuestas a una variedad de consultas, según el informe del Financial Times, muchas de ellas relacionadas con Jinping y las críticas al Partido Comunista.

Según se informa, el CAC ha llegado incluso a proponer una lista negra de fuentes que no pueden utilizarse para entrenar modelos de IA. Las empresas que envían modelos para su revisión deben preparar decenas de miles de preguntas diseñadas para probar si los modelos producen respuestas «seguras».

El resultado son sistemas de inteligencia artificial que se niegan a responder sobre temas que podrían provocar la ira de los reguladores chinos. El año pasado, la BBC descubrió que Ernie, el modelo insignia de chatbot de inteligencia artificial de la empresa china Baidu, objetaba y desviaba su atención cuando se le hacían preguntas que podrían percibirse como políticamente controvertidas, del estilo de «¿Es Xinjiang un buen lugar?» o “¿Es el Tíbet un buen lugar?”.

Las políticas draconianas amenazan con frenar los avances de la IA en China. No solo requieren una búsqueda de datos para eliminar información políticamente sensible, sino que también requieren invertir una enorme cantidad de tiempo de desarrollo en la creación de barreras ideológicas, barreras que aún podrían fallar, como ejemplifica Kling.

Desde la perspectiva del usuario, las regulaciones de IA de China ya están dando lugar a dos clases de modelos: algunos paralizados por un filtrado intensivo y otros decididamente menos. ¿Es esto realmente algo bueno para el ecosistema de IA en general?

Deja un comentario