¿Qué sabe tu móvil de tu tristeza?

¿Qué sabe tu móvil de tu tristeza?

La computación afectiva quiere dotar de inteligencia emocional a los dispositivos para lograr una comunicación más íntima y personalizada con el usuario

Estás viendo la televisión. De repente, te das cuenta de que una avispa sube por tu brazo. ¿Cómo reaccionas?”. Esta es una de las preguntas del ficticio test Voight-Kampff, utilizado en Blade Runner para detectar la falta de empatía en un sujeto. Si las respuestas del interrogado desvelan esa incapacidad para identificarse emocionalmente con otros seres, el diagnóstico queda claro: estamos delante de un androide.

Dejando a un lado la ciencia ficción, lo cierto es que en el mundo real esa capa emocional viene a ser la guinda del pastel de la robótica, ahora que la inteligencia artificial es cada vez más sofisticada, incluso aquella que habita en nuestros dispositivos móviles. Y la cosa no hace más que mejorar, como lo demuestra el reciente lanzamiento de la familia Huawei Mate 10, una serie de smartphones que dan otra vuelta de tuerca a la inteligencia artificial gracias a su procesador Kirin 970. Este chipset con unidad de procesamiento neuronal simula el pensamiento humano y es capaz de analizar el entorno, lo cual hace que en cierto modo los teléfonos sean más “conscientes” de las necesidades de los usuarios para ofrecerles servicios mucho más personalizados y accesibles en todo momento.

¿Se conseguirá también pronto que un teléfono móvil o una tableta imite emociones o que, al menos, consiga interpretarlas y responder de manera consecuente? Eso es algo en lo que trabaja Javier Hernández, investigador del Grupo de Computación Afectiva del MIT, área que explora cómo dotar a las tecnologías de inteligencia emocional, una capacidad que muchos consideran crítica para lograr relaciones mucho más naturales entre los humanos y la inteligencia artificial. Entre otros objetivos, este grupo del MIT busca que en el futuro cualquier dispositivo sea capaz de entendernos mucho mejor y nuestra comunicación con estas máquinas sea más íntima y personalizada. “Por ejemplo, si el móvil detecta que estamos pasando por un mal momento, quizás filtre las noticias para discriminar las más negativas, nos recomiende escuchar una canción que nos gusta o nos sugiera hablar con alguien cercano para aliviarnos y mejorar nuestro estado de ánimo”, según Hernández.

Esta personalización de contenidos es una de las principales áreas en las que la computación afectiva aportará ventajas significativas. No en vano, se trata de una selección realizada a partir del estudio de las emociones del usuario, así que gracias a ella se proporcionará un remedio para una necesidad concreta de una persona y podrá garantizarse, casi con total seguridad, que causa el efecto deseado. Esto ya se está aplicando para mejorar anuncios publicitarios, pero en el futuro también se utilizará en videojuegos y películas cuyo argumento cambiará dinámicamente en función de nuestro estado emocional.

Cómo reconoce una máquina las emociones

Existen varios métodos para medir las emociones. En el caso del estrés, por ejemplo, algunos de los más comunes incluyen el análisis de hormonas como el cortisol o la adrenalina, que se pueden medir en la saliva y en la sangre. Sin embargo, estas mediciones son muy intrusivas, pueden verse afectadas por los ritmos circadianos y su análisis es costoso y lento. Otro método mucho menos intrusivo es que el dispositivo pregunte al usuario cómo se siente, pero es algo más subjetivo, requiere la atención cognitiva de la persona y las respuestas se ven afectadas por posibles problemas de memoria.

Para solucionar estas barreras, muchas de las investigaciones actuales combinan las últimas tecnologías con inteligencia artificial para facilitar una medición automática y mucho más cómoda de las emociones. En este sentido, los móviles ya incorporan cámaras que captan gestos, expresiones faciales o incluso cambios en el color de la piel que pueden indicar distintos estados de ánimo (rubor, ira, miedo…); otros dispositivos como los eye-trackers recopilan información a partir de la dilatación y el seguimiento de las pupilas; y los micrófonos capturan el lenguaje y las variaciones en la entonación o el volumen de la voz. Pero, además, es posible recabar datos difícilmente observables a través de sensores que miden aspectos como la respiración, el pulso, la reacción de la piel ante determinados estímulos, la temperatura corporal o, incluso, utilizar electrodos para detectar la actividad cerebral. Todo para conseguir que esa inteligencia artificial con la que cada vez tenemos más trato sea, poco a poco, menos fría.

Otro objetivo de la aplicación de inteligencia emocional a los dispositivos es la optimización de la comunicación. En este sentido, Hernández afirma que muchos de los estudios del MIT están centrados en utilizar la computación afectiva como una “prótesis comunicativa” que ayude a personas con discapacidades a expresarse y a entender las emociones de otros. “En el futuro, dichas tecnologías no sólo nos mantendrán más conectados, sino que también nos ayudarán a entendernos mejor”, remarca.

Más de dos décadas de recorrido

En definitiva, estas investigaciones tratan de maximizar el bienestar emocional y, por lo tanto, aumentar nuestras capacidades y mejorar nuestra calidad de vida. Pero la computación afectiva no es una disciplina incipiente, sino que cuenta con más de dos décadas de recorrido. De hecho, el término fue acuñado en 1995 por la doctora del MIT Rosalind Picard en un estudio en el que ya avanzaba lo siguiente: “los ordenadores no sólo están comenzando a adquirir la capacidad de expresar y reconocer sentimientos, sino que pronto se les podría dar la capacidad de tener emociones”. Tal y como comenta Hernández a EL PAÍS Retina, en aquel entonces esta afirmación sonaba “muy radical” y no fue bien acogida por muchos que pensaban que las emociones eran irracionales y, por lo tanto, una distracción en la toma de decisiones. “Sin embargo, actualmente la relevancia de las emociones está mucho más demostrada y la idea de máquinas que pueden captarlas, entenderlas y simularlas no sólo no es rechazada, sino que se considera necesaria para establecer un vínculo más personal con las tecnologías”, remarca el investigador del MIT.

De hecho, ya existen varias tecnologías que pueden monitorizar e interpretar distintas señales emocionales en casos muy específicos. Por ejemplo, algunas empresas las utilizan para estudiar las expresiones faciales con el fin de entender el estado emocional de las personas mientras ven anuncios comerciales y otras emplean tecnologías muy similares para ayudar a gente con autismo a comunicarse mejor. Además, recientemente, la eclosión de los wearables ha popularizado brazaletes, relojes y otros dispositivos inteligentes que monitorizan los “niveles de estrés” y recomiendan ejercicios de relajación durante el día a día.

Hasta llegar a este punto, durante las dos últimas décadas hemos vivido una revolución en la creación de biosensores que permiten medir información relacionada con las emociones de una manera sencilla y con un bajo coste. “Estas mejoras, junto al incremento de conectividad a través de Internet y los avances en inteligencia artificial, nos están permitiendo tener un entendimiento mucho más profundo sobre las emociones y su posible uso en la tecnología”, puntualiza Hernández.

Cómo reconoce una máquina las emociones

Existen varios métodos para medir las emociones. En el caso del estrés, por ejemplo, algunos de los más comunes incluyen el análisis de hormonas como el cortisol o la adrenalina, que se pueden medir en la saliva y en la sangre. Sin embargo, estas mediciones son muy intrusivas, pueden verse afectadas por los ritmos circadianos y su análisis es costoso y lento. Otro método mucho menos intrusivo es que el dispositivo pregunte al usuario cómo se siente, pero es algo más subjetivo, requiere la atención cognitiva de la persona y las respuestas se ven afectadas por posibles problemas de memoria.

Para solucionar estas barreras, muchas de las investigaciones actuales combinan las últimas tecnologías con inteligencia artificial para facilitar una medición automática y mucho más cómoda de las emociones. En este sentido, los móviles ya incorporan cámaras que captan gestos, expresiones faciales o incluso cambios en el color de la piel que pueden indicar distintos estados de ánimo (rubor, ira, miedo…); otros dispositivos como los eye-trackers recopilan información a partir de la dilatación y el seguimiento de las pupilas; y los micrófonos capturan el lenguaje y las variaciones en la entonación o el volumen de la voz. Pero, además, es posible recabar datos difícilmente observables a través de sensores que miden aspectos como la respiración, el pulso, la reacción de la piel ante determinados estímulos, la temperatura corporal o, incluso, utilizar electrodos para detectar la actividad cerebral. Todo para conseguir que esa inteligencia artificial con la que cada vez tenemos más trato sea, poco a poco, menos fría.

Retina

24/09/2018
Normas