POLÍTICA

Desarrollan la primera tecnología portátil de reconocimiento de emociones humanas en tiempo real



Si nuestros aparatos de uso cotidiano supieran cómo nos sentimos, podrían hacernos la vida mucho más fácil. Nos recomendarían películas, música, consumos y lugares a donde ir, según si estamos tristes, melancólicos, o eufóricos.

El dispositivo integra lenguaje verbal y no verbal para interpretar las emociones humanas y brindar recomendaciones

Esta tecnología ya existe y aspira a iniciar una nueva generación de dispositivos portátiles inteligentes. Científicos del Instituto Nacional de Ciencia y Tecnología de Ulsan (UNIST), en Corea, crearon un dispositivo electrónico capaz de leer e interpretar las emociones, sentimientos y actitudes humanas, en tiempo real.

“Comprender y extraer con precisión información emocional ha sido durante mucho tiempo un desafío debido a la naturaleza abstracta y ambigua de los afectos humanos como las emociones, los estados de ánimo y los sentimientos”, sostienen los investigadores.

Este Sistema Personalizado de Interfaz Facial Integrada en la Piel (o PSiFI) se trata de un conjunto de sensores que se ubican sobre distintas partes del rostro y el cuello, y que pueden recopilar e integrar datos, tanto lo que las personas dicen, como los movimientos de los músculos faciales y la voz. Integrando todo –lenguaje verbal y no verbal- obtiene una visión completa de las emociones humanas.

Cada sensor funciona por el principio de la carga de fricción, que ocurre cuando los materiales se rozan entre sí, se cargan positiva o negativamente, y generan electricidad estática. En este caso, los sensores miden la piel y los músculos que usamos al gesticular, como la comisura de ojos, la boca y las cuerdas vocales.

El sistema utiliza el aprendizaje automático y está integrado a un circuito de procesamiento de datos que le permite reconocer con precisión las emociones de una persona en el momento en que ocurren.

“Esta tecnología innovadora está preparada para revolucionar varias industrias, incluidos los sistemas portátiles de próxima generación que brindan servicios basados en las emociones”, sostiene la Universidad en un comunicado.

Pruebas en entornos inteligentes

Para evaluar el funcionamiento del sistema, lo pusieron a prueba en una aplicación de conserjería digital de realidad virtual, en la que se brindan servicios personalizados basados en las emociones de los usuarios, en diversos entornos, como oficinas y hogares inteligentes.

El sistema mostró alta precisión en el reconocimiento emocional con un entrenamiento mínimo.

“Esto abre posibilidades para dispositivos portátiles de reconocimiento de emociones y servicios de plataforma digital basados en emociones de próxima generación en el futuro”, dijo Jin Pyo Lee, el primer autor del estudio.

“Para una interacción efectiva entre humanos y máquinas, los dispositivos de interfaz hombre-máquina (HMI) deben ser capaces de recopilar diversos tipos de datos y manejar información integrada compleja. Este estudio ejemplifica el potencial del uso de emociones, que son formas complejas de información humana, en sistemas portátiles de próxima generación.” dijo el profesor Jiyun Kim, coautor de la investigación.

La investigación cuenta con el apoyo de la Fundación Nacional de Investigación de Corea (NRF) y el Instituto Coreano de Materiales (KIMS), dependiente del Ministerio de Ciencia y TIC. Los detalles del desarrollo se publicaron en Nature Communications.

Comentarios

comentarios

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button

REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS REBOS