Los automóviles pronto podrán detectar y reaccionar ante sus emociones

Imagina que estás en tu viaje diario al trabajo, conduciendo por una carretera llena de gente mientras intentas resistirte a mirar tu teléfono. Ya estás un poco estresado porque no dormiste bien, te levantaste tarde y tienes una reunión importante en un par de horas, pero simplemente no te sientes bien.

De repente, otro automóvil lo interrumpe y se acerca demasiado a su parachoques delantero cuando cambia de carril. Tus emociones que ya están a fuego lento saltan a toda marcha, y te acuestas en la bocina y gritas maldiciones que nadie puede escuchar.

Excepto que alguien, o más bien, algo, puede escuchar: su automóvil. Al escuchar sus palabras de enojo, tono agresivo y voz alzada, y al ver su ceño fruncido, la computadora de a bordo entra en modo de «alivio», como se programó para que detecte que está enojado. Reproduce música relajante al volumen justo, libera una bocanada de aceite esencial ligero con aroma a lavanda, y tal vez incluso dice algunas citas meditativas para calmarlo.

¿Qué te parece espeluznante? ¿Servicial? ¿Increíble? ¿Extraño? ¿Te calmarías o te enojarías aún más porque un auto te diga qué hacer?

Escenarios como este (tal vez sin la parte de aceite de lavanda) podrían no ser imaginarios por mucho más tiempo, especialmente si las empresas que trabajan para integrar la inteligencia artificial de lectura de emociones en autos nuevos se salen con la suya. Y no solo se trata de que su automóvil lo tranquilice cuando está molesto; dependiendo de qué tipo de regulaciones se promulguen, los sensores, la cámara y el micrófono del automóvil podrían recopilar todo tipo de datos sobre usted y venderlos a terceros .

Computadoras y sentimientos

Del mismo modo que los sistemas de IA pueden ser entrenados para distinguir entre la imagen de un perro y la de un gato, pueden aprender a diferenciar entre un tono de voz enojado o una expresión facial y uno feliz. De hecho, hay toda una rama de la inteligencia artificial dedicada a crear sistemas que pueden reconocer y reaccionar ante las emociones humanas; se llama computación afectiva.

Las IA que leen las emociones aprenden cómo se ven y suenan las diferentes emociones de grandes conjuntos de datos etiquetados; «Sonrisa = feliz», «lágrimas = triste», «gritos = enojado», y así sucesivamente. Es probable que los sistemas más sofisticados incluso puedan captar las microexpresiones que parpadean en nuestras caras antes de que tengamos la oportunidad de controlarlas conscientemente, como lo detalla Daniel Goleman en su innovador libro «Inteligencia emocional«.

La empresa informática afectiva llamada tambien «Affectiva«, un spin-off del MIT Media Lab, dice que sus algoritmos están entrenados en 9,5 millones de videos faciales (videos de los rostros de las personas mientras realizan una actividad, tienen una conversación o reaccionan a los estímulos) que representan alrededor de 5 mil millones de marcos faciales. Fascinantemente, Affectiva dice que su software incluso puede explicar las diferencias culturales en la expresión emocional (por ejemplo, es más normalizado en las culturas occidentales ser muy expresivo emocionalmente, mientras que las culturas asiáticas tienden a favorecer el estoicismo y la cortesía), así como las diferencias de género.

¿Pero por qué?

Como reportado en la revista Motherboard, empresas como Affectiva, Cerence, Xperiy Eyeris tiene planes en marcha para asociarse con fabricantes de automóviles e instalar sistemas de inteligencia artificial que leen emociones en autos nuevos. Regulaciones aprobadas el año pasado en Europa y un proyecto de ley recién presentado Este mes en el Senado de los EE. UU. están ayudando a que la idea de «monitoreo del conductor» sea menos extraña, principalmente al enfatizar los beneficios de seguridad de los sistemas de advertencia preventiva para conductores cansados ​​o distraídos (¿recuerdan esa parte al principio sobre miradas furtivas a su teléfono? Sí, ese).

Más en Nanova ||  ¿Cómo manejaría la humanidad una invasión alienígena?

Sin embargo, la somnolencia y la distracción no pueden llamarse realmente emociones, entonces, ¿por qué están agrupadas bajo un paraguas que tiene muchas otras implicaciones, incluida la que muchos pueden considerar una inquietante violación de la privacidad al estilo del Gran Hermano?

Nuestras emociones, de hecho, se encuentran entre las cosas más privadas sobre nosotros, ya que somos los únicos que conocen su verdadera naturaleza. Hemos desarrollado la capacidad de ocultar y disfrazar nuestras emociones, y esto puede ser una habilidad útil en el trabajo, en las relaciones y en escenarios que requieren negociación o poner una cara de juego.

Y no sé tú, pero he tenido más de un buen llanto en mi auto. Es una especie de lugar perfecto para ello; privado, aislado, insonorizado.

Poner sistemas en automóviles que puedan reconocer y recopilar datos sobre nuestras emociones con el pretexto de prevenir accidentes debido al estado mental de distracción o al estado físico de sueño, entonces, parece un poco como un cebo y un interruptor.

¿Una carretera hacia la invasión de la privacidad?

Las regulaciones europeas ayudarán a evitar que los datos del conductor se usen para cualquier propósito que no sea garantizar un viaje más seguro. Pero Estados Unidos se está quedando rezagado en el frente de la privacidad, con compañías de automóviles en gran parte libres de cualquier ley aplicable que les impida usar los datos del conductor como les plazca.

Affectiva lista los siguientes casos de uso para el monitoreo de ocupantes en automóviles: personalizar recomendaciones de contenido, proporcionar recomendaciones de rutas alternativas, adaptar condiciones ambientales como iluminación y calefacción, y comprender la frustración del usuario con asistentes virtuales y diseñar esos asistentes para que sean conscientes de las emociones para que sean menos frustrante.

Nuestros teléfonos ya hacen los dos primeros (aunque, se supone, no debemos mirarlos mientras conducimos, pero la mayoría de los autos ahora le permiten usar bluetooth para mostrar el contenido de su teléfono en el tablero), y el tercero es simplemente un asunto de extender una mano para girar un dial o presionar un botón. La última parece una solución para un problema que no existiría sin dicha … solución.

Sin embargo, a pesar de lo innecesario e inquietante que pueda parecer, la IA de lectura de emociones no va a desaparecer, en automóviles u otros productos y servicios donde podría proporcionar valor.

Además de la IA automotriz, Affectiva también fabrica software para clientes en el espacio publicitario. Con el consentimiento, la cámara incorporada en las computadoras portátiles de los usuarios los graba mientras miran anuncios, evaluando su respuesta emocional, qué tipo de marketing es más probable que los involucre y la probabilidad de que compren un producto determinado. La tecnología de reconocimiento de emociones es también se utiliza o considerado para su uso en aplicaciones de salud mental, centros de llamadas, monitoreo de fraude y educación, entre otros.

En una charla TED, del 2015, la cofundadora de Affectiva, Rana El-Kaliouby, le dijo a su audiencia que estamos viviendo en un mundo cada vez más desprovisto de emoción, y su objetivo era traer las emociones de vuelta a nuestras experiencias digitales. Pronto estarán en nuestros autos también; queda por ver si los beneficios superarán los costos.

Comparte en: