A principios de esta semana, el principal regulador de la privacidad de la UE puso fin a su procedimiento judicial relacionado con el tratamiento de datos de los usuarios por parte de X para entrenar su chatbot Grok AI, pero la saga no ha terminado todavía para la plataforma de medios sociales propiedad de Elon Musk antes conocida como Twitter.
La Comisión Irlandesa de Protección de Datos (DPC) ha confirmado que ha recibido, y «examinará», una serie de quejas que se han presentado en virtud del Reglamento General de Protección de Datos (GDPR) del bloque.
«El CPD examinará ahora en qué medida el tratamiento que se ha llevado a cabo cumple con las disposiciones pertinentes del RGPD», dijo el regulador. «Si, tras ese examen, se establece que TUIC [Twitter International Unlimited Company, como todavía se conoce a la principal filial irlandesa de X] ha infringido el GDPR, el DPC considerará entonces si se justifica el ejercicio de alguno de sus poderes correctivos y, en caso afirmativo, cuál o cuáles».
X aceptó suspender el tratamiento de datos para la formación Grok a principios de agosto. El compromiso adquirido por X se hizo permanente a principios de esta semana. El acuerdo obligaba a X a eliminar y dejar de utilizar los datos de los usuarios europeos recopilados entre el 7 de mayo de 2024 y el 1 de agosto de 2024 para entrenar su inteligencia artificial. Pero ahora está claro que no se exige a X que elimine ningún modelo de IA entrenado con esos datos.
Hasta ahora, X no se ha enfrentado a ninguna sanción del CPD por procesar los datos personales de los europeos para entrenar a Grok sin el consentimiento de la gente, a pesar de la acción judicial urgente del CPD para bloquear la recopilación de datos. Las sanciones en virtud del GDPR pueden ser duras, alcanzando hasta el 4% de la facturación anual global. (Dado que los ingresos de la empresa están ahora en caída libre, y bien podrían llegar a los 500 millones de dólares este año según las cifras trimestrales comunicadas, eso podría escocer especialmente).
Los reguladores también están facultados para ordenar cambios operativos exigiendo que cese la infracción. Pero las denuncias pueden tardar mucho tiempo, incluso varios años, en investigarse y ejecutarse.
Esto es importante porque, aunque se ha obligado a X a dejar de utilizar los datos de los europeos para entrenar a Grok, todavía puede utilizar los modelos de inteligencia artificial que ya ha entrenado con los datos de personas que no dieron su consentimiento, sin que hasta ahora se haya producido ninguna intervención urgente ni sanción para impedirlo.
A la pregunta de si el compromiso que el CPD obtuvo de X el mes pasado obligaba a X a eliminar cualquier modelo de IA entrenado con datos de europeos, el CPD confirmó que no: «El compromiso no obliga a TUIC a llevar a cabo esta acción; obliga a TUIC a cesar permanentemente el tratamiento de los conjuntos de datos cubiertos por el compromiso», dijo un portavoz.
Algunos dirán que es una buena forma de que X (u otros que entrenan modelos) eluda las normas de privacidad de la UE: Paso 1: hacerse discretamente con los datos de la gente; Paso 2: utilizarlos para entrenar modelos de IA y, cuando el gato esté fuera de la bolsa y los reguladores finalmente llamen a la puerta, comprometerse a borrar los datos, dejando intactos los modelos de IA entrenados. Paso 3: ¿¡Ganancias basadas en Grok!?
Preguntado por este riesgo, el CPD respondió diciendo que el objetivo de su procedimiento judicial urgente había sido actuar ante la «preocupación significativa» de que el tratamiento por parte de X de los datos de usuarios de la UE y el EEE para formar a Grok «suponía un riesgo para los derechos y libertades fundamentales de los interesados». Pero no ha explicado por qué no tiene la misma preocupación apremiante por los riesgos que supone para los derechos y libertades fundamentales de los europeos que su información se incorpore a Grok.
Se sabe que las herramientas de IA generativa producen información falsa. El giro que Musk da a esta categoría es también intencionadamente irreverente, o «antidespertador», como él lo llama. Eso podría aumentar los riesgos sobre los tipos de contenido que puede producir sobre los usuarios cuyos datos se ingirieron para entrenar al bot.
Una de las razones por las que el regulador irlandés puede mostrarse más cauto a la hora de abordar esta cuestión es que estas herramientas de IA son todavía relativamente nuevas. Además, los organismos europeos de control de la privacidad no están seguros de cómo aplicar el RGPD a una tecnología tan novedosa. Además, no está claro si los poderes del reglamento se extenderían a poder ordenar la eliminación de modelos de IA si una tecnología se ha entrenado con datos procesados ilegalmente.
Pero como las denuncias siguen acumulándose en este ámbito, las autoridades de protección de datos tendrán que agarrar el toro por los cuernos tarde o temprano.
Avinagrarse con los pepinillos
Por otra parte, el viernes se conoció la salida del jefe de asuntos globales de X. Reuters ha informado de la marcha de Nick Pickles, un británico que trabajó durante una década en Twitter y ascendió durante el mandato de Musk.
En un post en X, Pickles afirma que tomó la decisión de marcharse «hace varios meses», pero no da más detalles sobre sus motivos.
Sin embargo, está claro que la empresa tiene mucho que hacer, como lidiar con una prohibición en Brasil y las consecuencias políticas en el Reino Unido por su papel en la difusión de desinformación relacionada con los disturbios en el país el mes pasado, con la inclinación personal de Musk por echar leña al fuego (incluyendo una publicación en X para sugerir que para el Reino Unido «la guerra civil es inevitable»).
En la UE, X también está siendo investigada en virtud del marco de moderación de contenidos del bloque. En julio se presentó una primera serie de denuncias en virtud de la Ley de Servicios Digitales. Musk también recibió recientemente una advertencia personal en una carta abierta del comisario de Mercado Interior, Thierry Breton, a la que el multimillonario amante del caos respondió con un meme insultante.