La «IA emocional» puede ser la próxima tendencia en software empresarial

A medida que las empresas experimentan con la integración de la IA en todas partes, una tendencia inesperada es que recurren a ella para ayudar a sus numerosos robots recién descubiertos a comprender mejor las emociones humanas.

Es un área denominada «IA emocional», según el nuevo informe de PitchBook Enterprise Saas Emerging Tech Research, que predice que esta tecnología va en aumento.

El razonamiento es el siguiente: Si las empresas ponen asistentes de IA a disposición de ejecutivos y empleados, y hacen que los chatbots de IA sean vendedores de primera línea y representantes de atención al cliente, ¿cómo puede una IA funcionar bien si no entiende la diferencia entre un «¿Qué quieres decir con eso?» enfadado y un «¿Qué quieres decir con eso?» confuso?

La IA emocional pretende ser el hermano más sofisticado del análisis de sentimientos, la tecnología anterior a la IA que intenta destilar las emociones humanas de las interacciones basadas en texto, sobre todo en las redes sociales. La IA de las emociones es lo que podríamos llamar multimodal: emplea sensores visuales, de audio y de otros tipos combinados con el aprendizaje automático y la psicología para intentar detectar las emociones humanas durante una interacción.

Los principales proveedores de IA en la nube ofrecen servicios que permiten a los desarrolladores acceder a las capacidades de IA emocional, como la Emotion API de los servicios cognitivos de Microsoft Azure o el servicio Rekognition de Amazon Web Services. (Este último ha tenido su cuota de controversia a lo largo de los años).

Aunque la IA emocional, incluso ofrecida como un servicio en la nube, no es nueva, el repentino aumento de los bots en la fuerza de trabajo le da más futuro en el mundo de los negocios del que tenía antes, según PitchBook.

«Con la proliferación de asistentes de IA e interacciones totalmente automatizadas entre humanos y máquinas, la IA emocional promete permitir interpretaciones y respuestas más humanas», escribe en el informe Derek Hernández, analista sénior de tecnologías emergentes de PitchBook.

«Las cámaras y los micrófonos son parte integrante del hardware de la IA de las emociones. Pueden estar en un portátil, un teléfono o ubicados individualmente en un espacio físico. Además, es probable que el hardware para llevar puesto ofrezca otra vía para emplear la IA emocional más allá de estos dispositivos», explica Hernández. (Así que si ese chatbot de atención al cliente pide acceso a la cámara, puede que sea por esto).

Para ello, se está lanzando un creciente grupo de startups. Esto incluye a Uniphore (con un total de 610 millones de dólares recaudados, incluidos 400 millones en 2022 liderados por NEA), así como MorphCast, Voicesense, Superceed, Siena AI, audEERING y Opsis, cada una de las cuales también recaudó sumas modestas de varios VC, según estimaciones de PitchBook.

Por supuesto, la IA emocional es un enfoque muy Silicon Valley: Usar la tecnología para resolver un problema causado por el uso de la tecnología con humanos.

Pero incluso si la mayoría de los robots de IA eventualmente obtendrán alguna forma de empatía automatizada, eso no significa que esta solución realmente funcione.

De hecho, la última vez que la IA emocional despertó un gran interés en Silicon Valley, alrededor de 2019, cuando gran parte del mundo de la IA/ML aún se centraba en la visión por ordenador y no en el lenguaje generativo y el arte, los investigadores echaron por tierra la idea. Ese año, un equipo de investigadores publicó una meta-revisión de estudios y llegó a la conclusión de que la emoción humana en realidad no puede ser determinada por los movimientos faciales. En otras palabras, esta idea de que podemos enseñar a una IA a detectar los sentimientos de un humano haciéndole imitar cómo otros humanos intentan hacerlo (leyendo caras, lenguaje corporal, tono de voz) es algo errónea en su suposición.

También existe la posibilidad de que la regulación de la IA, como la Ley de IA de la Unión Europea, que prohíbe los sistemas de detección de emociones por visión artificial para determinados usos, como la educación, pueda acabar con esta idea de raíz. (Algunas leyes estatales, como la BIPA de Illinois, también prohíben la recopilación de lecturas biométricas sin permiso).

Todo esto nos da una visión más amplia de este futuro de IA en todas partes que Silicon Valley está construyendo de forma alocada. O bien estos robots de IA intentarán comprender las emociones para realizar trabajos como atención al cliente, ventas y recursos humanos y todas las demás tareas que los humanos esperan asignarles, o tal vez no sean muy buenos en ninguna tarea que realmente requiera esa capacidad. Tal vez lo que estemos viendo es una vida de oficina llena de robots de IA al nivel de Siri alrededor de 2023. En comparación con un robot requerido por la dirección que adivina los sentimientos de todos en tiempo real durante las reuniones, ¿quién puede decir cuál es peor?

Deja un comentario