El fabricante del chatbot Grok dice que la legislación podría ayudar a proteger al público, haciéndose eco del CEO de Anthropic. Google, Meta y OpenAI afirman que frenaría la innovación.
Elon Musk ha salido en apoyo del proyecto de ley SB 1047 de California, que introduciría nuevos mecanismos de seguridad y responsabilidad para los grandes sistemas de IA.
«Esta es una decisión difícil y hará que algunas personas se molesten pero, considerando todas las cosas, creo que California probablemente debería aprobar el proyecto de ley de seguridad de IA SB 1047», escribe Musk en X. «Durante más de 20 años, he sido un defensor de la regulación de la IA, al igual que regulamos cualquier producto/tecnología que sea un riesgo potencial para el público».
Musk se une al CEO de Anthropic, Dario Amodei, en el apoyo al proyecto de ley. Amodei afirma que es necesaria para proteger al público y aumentar la transparencia en la industria. Otros grandes actores se oponen, como Google, Meta, OpenAI y algunos miembros del Congreso, entre ellos Nancy Pelosi. Dicen que podría ahogar la innovación y ralentizar el progreso.
El proyecto de ley SB 1047 se somete esta semana a una votación final en la Asamblea estatal. Si se aprueba, pasará al Gobernador Gavin Newsom para que la firme o la vete antes del 30 de septiembre. Los legisladores del estado de California presentaron 65 proyectos de ley relacionados con la IA esta temporada legislativa, tocando una serie de temas que van desde el sesgo algorítmico a la protección de la propiedad intelectual, informa Reuters. Muchos ya han muerto, mientras que el SB 1047 sigue en pie.
El proyecto de ley exigiría a las empresas que inviertan al menos 100 millones de dólares en desarrollar potentes modelos de IA que los prueben antes de su lanzamiento, e introduce un interruptor de apagado para desconectarlos si se descontrolan tras su lanzamiento. Se trata de medidas «razonables y aplicables», afirma el senador del Estado de California Scott Wiener, que presentó originalmente el proyecto de ley. Dice que OpenAI ya se ha comprometido a realizar esas evaluaciones de seguridad.
El científico jefe de IA de Meta, Yann LeCun, dice que el proyecto de ley tendría «consecuencias apocalípticas en el ecosistema de IA» porque regularía el proceso de investigación y desarrollo. «Lo triste es que la regulación de la I+D de IA se basa en la ilusión de ‘riesgos existenciales’ impulsada por un puñado de grupos de expertos delirantes y descartada como una tontería (o al menos ampliamente prematura) por la gran mayoría de investigadores e ingenieros en el mundo académico, las empresas emergentes, las empresas más grandes y las firmas de inversión», dice LeCun.
Aunque Musk apoya la SB 1047, tiene un historial algo mixto en materia de seguridad y responsabilidad de la IA. Por un lado, se unió al CEO de Apple, Steve Wozniak, en la firma de una carta de 2023 en la que pide una pausa en el desarrollo de toda la industria hasta que se comprendan mejor los riesgos sociales. También ha demandado a OpenAI dos veces este año.
Por otro lado, su chatbot Grok recientemente recibió críticas por crear imágenes falsas y realistas de Donald Trump y la vicepresidenta Kamala Harris, que podrían difundir información errónea antes de las elecciones presidenciales de Estados Unidos. Los sistemas de conducción autónoma impulsados por IA de Tesla también se han visto envueltos en múltiples demandas relacionadas con accidentes letales, a los que el fabricante de vehículos eléctricos niega que su tecnología haya contribuido.