La IA generativa hará que las gafas inteligentes sean «significativamente más útiles», afirma Cristiano Amon a CNBC.
Qualcomm se prepara para entrar en la carrera de la realidad mixta con unas gafas inteligentes.
En una entrevista reciente con la CNBC, Cristiano Amon, consejero delegado de Qualcomm, reveló que el fabricante de chips, en colaboración con Samsung y Google, está desarrollando unas gafas de realidad mixta que pueden conectarse al smartphone del usuario.
«Va a ser un producto nuevo, nuevas experiencias», declaró Amon a la CNBC.
El año pasado, durante el evento Unpacked del Galaxy S23 de Samsung, pudimos echar un vistazo. En aquel momento, Amon e Hiroshi Lockheimer, vicepresidente senior de plataformas y ecosistemas de Google, promocionaron la continua colaboración entre ambas compañías y ofrecieron vagas promesas de nuevas experiencias de realidad mixta.
«En XR, estamos trabajando para crear una nueva era de experiencias digitales altamente inmersivas que difuminen las líneas entre nuestros mundos físico y digital», dijo Amon el año pasado.
Esta semana, en la CNBC, Amon afirmó que Qualcomm está «increíblemente satisfecha por el éxito» de las gafas inteligentes Ray-Ban Meta, que funcionan con la plataforma Snapdragon AR1 Gen 1 de Qualcomm. Pero el despliegue de la tecnología de IA generativa hará que las gafas inteligentes sean «significativamente más útiles», afirma.
«Su popularidad va a crecer. Van a escalar», según Amon, cuyo objetivo final es conseguir que todo el que tenga un teléfono «se compre unas gafas de compañía para acompañarlo».
El consejero delegado de Qualcomm dio pocos detalles, pero sugirió que las gafas de Samsung/Google serán ligeras. «Creo que tenemos que llegar a un punto en el que las gafas no sean diferentes de llevar unas gafas normales o unas gafas de sol», afirmó. Así que lo más probable es que se parezca más a un accesorio de moda portátil que a un enorme ordenador espacial como el Vision Pro de Apple.
Es posible que hayamos podido echar un primer vistazo durante el Google I/O de mayo. Durante una demostración del Proyecto Astra, una empleada de Google utiliza el agente de IA para encontrar sus gafas y ponérselas. La vista del teléfono desapareció y pareció ser sustituida por una vista AR a través de las propias gafas, con una pantalla.