El consejero delegado de OpenAI, Sam Altman, abandona la comisión interna que OpenAI creó en mayo para supervisar las decisiones «críticas» en materia de seguridad relacionadas con los proyectos y operaciones de la empresa.
En un artículo publicado el lunes en su blog, OpenAI ha informado de que la comisión, el Comité de Seguridad y Protección, se convertirá en un grupo «independiente» de supervisión del consejo presidido por el profesor de Carnegie Mellon Zico Kolter, e integrado por el consejero delegado de Quora Adam D’Angelo, el general retirado del ejército estadounidense Paul Nakasone y la ex vicepresidenta ejecutiva de Sony Nicole Seligman. Todos ellos son miembros de la junta directiva de OpenAI.
OpenAI señaló en su publicación que la comisión realizó una revisión de seguridad de o1, el último modelo de IA de OpenAI, aunque Altman seguía participando en ella. El grupo seguirá recibiendo información periódica de los equipos de seguridad y protección de OpenAI, según la empresa, y mantendrá la potestad de retrasar los lanzamientos hasta que se aborden los problemas de seguridad.
«Como parte de su trabajo, el Comité de Seguridad y Protección … continuará recibiendo informes periódicos sobre las evaluaciones técnicas para los modelos actuales y futuros, así como informes de seguimiento posterior al lanzamiento en curso», escribió OpenAI en el post. «Nos basamos en nuestros procesos y prácticas de lanzamiento de modelos para establecer un marco integrado de seguridad y protección con criterios de éxito claramente definidos para los lanzamientos de modelos».
La salida de Altman del Comité de Seguridad se produce después de que cinco senadores estadounidenses plantearan dudas sobre las políticas de OpenAI en una carta dirigida a Altman este verano. Casi la mitad del personal de OpenAI que en su día se centró en los riesgos a largo plazo de la IA se ha marchado, y ex investigadores de OpenAI han acusado a Altman de oponerse a una regulación «real» de la IA en favor de políticas que promueven los objetivos corporativos de OpenAI.
En este sentido, OpenAI ha aumentado drásticamente sus gastos en grupos de presión federales, presupuestando 800.000 dólares para los primeros seis meses de 2024, frente a los 260.000 dólares de todo el año pasado. Altman también se unió esta primavera a la Junta de Seguridad y Protección de la Inteligencia Artificial del Departamento de Seguridad Nacional de Estados Unidos, que ofrece recomendaciones para el desarrollo y despliegue de la IA en las infraestructuras críticas de Estados Unidos.
Incluso con la destitución de Altman, hay pocos indicios de que el Comité de Seguridad vaya a tomar decisiones difíciles que afecten seriamente a la hoja de ruta comercial de OpenAI. Resulta revelador que OpenAI dijera en mayo que trataría de responder a las «críticas válidas» a su trabajo a través de la comisión.
En un artículo de opinión publicado en mayo en The Economist, Helen Toner y Tasha McCauley, ex miembros de la junta directiva de OpenAI, afirmaron que no creían que se pudiera confiar en que OpenAI, tal y como existe en la actualidad, rindiera cuentas. «Basándonos en nuestra experiencia, creemos que el autogobierno no puede soportar de forma fiable la presión de los incentivos lucrativos», escribieron.
Y los incentivos lucrativos de OpenAI van en aumento.
Se rumorea que la empresa está a punto de recaudar más de 6.500 millones de dólares en una ronda de financiación que valoraría a OpenAI en más de 150.000 millones de dólares. Para cerrar el acuerdo, OpenAI podría abandonar su estructura corporativa híbrida sin ánimo de lucro, que buscaba limitar los beneficios de los inversores en parte para garantizar que OpenAI se mantuviera alineada con su misión fundacional: desarrollar una inteligencia artificial general que «beneficie a toda la humanidad».