Tecnología

El Big Data también tiene sentimientos

big-data-personas

‘MixedEmotions’ es un proyecto de la Unión Europea que pretende aprovechar la capacidad del Big Data para reconocer mejor las emociones básicas de los humanos.

Para muchos, los datos no son más que unos y ceros. Pero, para muchos otros, esos mismos datos pueden llevar intrínsecos valores que trascienden más allá de lo puramente cuantitativo. Podemos llamarlos cualidades extranuméricas o, simplemente, sentimientos. De hecho, el Big Data también puede aportar información muy rica sobre las emociones expresadas por los usuarios mediante no sólo textos, sino además voz y vídeo.

En ese sentido, un proyecto europeo llamado ‘MixedEmotions’, empleará 3,5 millones de euros de ayudas públicas para desarrollar una tecnología que permita identificar, clasificar y caracterizar las emociones en voz, textos y vídeos aplicando técnicas de Big Data en tiempo real. Se trata de un programa de investigación de dos años que contará, asimismo, con la participación de una firma española, Paradigma, y la Universidad Politécnica de Madrid.

Un largo recorrido

Los primeros trabajos sobre la caracterización lingüística de la emoción desvelaban que las emociones, en gran medida, podían ser caracterizadas a partir de tres dimensiones: la valencia afectiva primaria (que va desde positivo hasta negativo), la excitación (que va desde la calma hasta la agitación) y una tercera dimensión que inicialmente se la etiquetó como “dominio” o “control” y que tiene una significancia menor.

De ahí surgieron modelos clásicos como el de Paul Ekman que propuso un conjunto de 6 emociones básicas: alegría, tristeza, ira, miedo, asco y sorpresa y a las que Robert Plutchik añadió dos más, la confianza y la anticipación. Divididas en tres niveles de excitación, surgían 24 categorías de emoción que algunos modelos actuales ya elevan hasta casi 300 emociones.

Ahora, ‘MixedEmotions’, que forma parte del programa Horizon 2020 de la Unión Europea, pretende aprovechar la capacidad de las máquinas para reconocer mejor las emociones básicas de los humanos para extraer conclusiones a partir de una gran cantidad de datos en tiempo real procedentes de distintas fuentes y así aportar una capa adicional de valor al análisis de los datos extraídos.

Cómo lo van a hacer

Para lograr esta titánica misión, los agentes público-privados implicados van a llevar a cabo tres iniciativas paralelas en el Viejo Continente. La primera es un caso de televisión social en el que comprobar las emociones frente a determinadores presentadores o actores y las reacciones ante determinadas noticias o contenidos. Esto permitiría hacer recomendaciones y sugerencias de contenidos y a ayudar a preparar una programación más inteligente y personalizada a los gustos de cada usuario.

Otro de los experimentos consiste en el análisis de reputación digital para valorar comentarios más allá del tono positivo o negativo e identificar en tiempo real otros signos de emociones vinculados a una marca o un producto. Esto permitiría detectar con antelación posibles incidencias y valorar las opciones de comercialización de productos y servicios en diferentes mercados.

Por último, se estudiará el funcionamiento de un centro de operaciones de un call center para optimizar los algoritmos de reconocimiento de voz y emociones en el contexto de grandes volúmenes de datos, canales de interacción e idiomas. Esto permitiría identificar sentimientos y proponer pautas de actuación.

Sobre el autor de este artículo

Alberto Iglesias Fraga

Periodista especializado en TIC que ha dejado su impronta en medios como TICbeat, Movilonia, Todrone, ComputerWorld, CIO España, Kelisto, iPhonizate o el blog Think Big de Telefónica, entre otros. También es consultor de comunicación en INDIE PR y ha fundado la web sobre series y cine http://revistaroulette.com. Ganador del XVI Premio Accenture de Periodismo.