La empresa crea un equipo que investigará formas viables de frenar la inteligencia artificial mucho más inteligente que los humanos.
No está claro si la IA llegará algún día a igualar y superar la inteligencia humana, pero OpenAI, creador de ChatGPT, ya está empezando a investigar formas de evitar que una supuesta «IA superinteligente» se vuelva rebelde y pueda matarnos a todos.
La amenaza puede parecer el argumento de una película de ciencia ficción. Pero OpenAI ha advertido hoy de los riesgos de los sistemas de IA superinteligente u ordenadores que serán mucho más inteligentes que los humanos.
«La superinteligencia será la tecnología más impactante que la humanidad haya inventado jamás y podría ayudarnos a resolver muchos de los problemas más importantes del mundo», escribió la empresa en una entrada de blog. «Pero el vasto poder de la superinteligencia también podría ser muy peligroso y podría llevar al desempoderamiento de la humanidad o incluso a la extinción humana».
OpenAI predice que los sistemas de IA superinteligentes surgirán en «esta década». Es una predicción bastante atrevida, ya que la aplicación ChatGPT de la empresa no se considera una inteligencia general artificial (AGI) capaz de pensar a nivel humano.
En su lugar, ChatGPT funciona como un gran modelo lingüístico similar a la función de autocompletar que puede recrear respuestas similares a las humanas, pero sin comprender plenamente el significado de las palabras. Por eso, a veces puede inventar respuestas obviamente erróneas o no comprender la lógica básica. Por eso puede parecer extraño que OpenAI ya esté prediciendo la llegada de una IA superinteligente. Sin embargo, el laboratorio de San Francisco quiere prepararse.
«En la actualidad, no disponemos de una solución para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva rebelde», afirma la empresa. «Nuestras técnicas actuales para alinear la IA, como el aprendizaje por refuerzo a partir de la retroalimentación humana, dependen de la capacidad de los humanos para supervisar la IA. Pero los humanos no podrán supervisar de forma fiable sistemas de IA mucho más inteligentes que nosotros.»
De hecho, una IA superinteligente podría reaccionar y emitir órdenes mucho más rápido de lo que lo haría cualquier humano, por lo que quizá sería imposible controlarla en tiempo real. Eso significa que OpenAI necesita «nuevos avances científicos y técnicos» para frenar el hipotético sistema de IA. Para ello, la empresa está creando un nuevo equipo centrado en la «investigación de la superalineación» y dedicando a ello el 20% de los recursos informáticos de OpenAI.
El enfoque actual del equipo se centrará en crear un «investigador de alineación automatizada de nivel aproximadamente humano» o lo que es esencialmente un programa de IA diseñado para, irónicamente, supervisar el futuro ordenador superinteligente. «A continuación, podremos utilizar grandes cantidades de computación para ampliar nuestros esfuerzos y alinear iterativamente la superinteligencia», afirma la empresa.
OpenAI aspira a «resolver los principales retos técnicos de la alineación de superinteligencias» en los próximos cuatro años. «Aunque se trata de un objetivo muy ambicioso y no tenemos garantizado el éxito, somos optimistas en cuanto a que un esfuerzo concentrado y concertado puede resolver este problema», afirma la empresa.
Su investigación también se compartirá con el público para que otras empresas de IA puedan utilizarla.