18 noviembre 2019

¿Las emociones nos diferencian de la Inteligencia Artificial?  

Sara MolinaPor Sara Molina
TWITTER @SaraMolinaPT

Dan Linna, profesor y colega mío de Legal Hackers, ha liderado recientemente en el Centro LegalRnD de la Facultad de Derecho de la Universidad Estatal de Michigan un encuentro cuyo objetivo fue identificar una agenda de investigación para el talento legal y la innovación. Partieron de imaginar un mundo, no muy lejano, donde las escuelas de derecho, los despachos y los clientes comparten una piedra de toque común para el desarrollo de los abogados. El resultado es el Modelo Delta que  se expresa en el siguiente gráfico.

Como puede observarse, la inteligencia emocional es uno de los pilares del modelo que se presenta y como puede observarse tiene un gran peso en los factores a destacar:

En paralelo a ello, las investigaciones más punteras en Inteligencia Artificial muestran un creciente interés en la investigación de emociones artificiales para desarrollar sistemas similares a los humanos. Por ello, como la emoción se considera un punto crítico del comportamiento humano y diferenciador, el módulo de razonamiento de un sistema inteligente o un robot autónomo tiende a tener como objetivo emular o anticipar reacciones humanas.

Desde hace tiempo se dispone de evidencias empíricas  sobre cómo la emocionalidad de los estímulos afecta a su procesamiento cognitivo (Bayer, Sommer & Schacht, 2011; Citron, 2012; Fraga et al., 2011; Kousta et al., 2009) y se ha comprobado que el contenido emocional de las palabras (la base del aprendizaje del Procesamiento del lenguaje natural de la IA) afecta al comportamiento de las personas.

Según Bradley & Lang, las emociones pueden ser descritas en términos de dos dimensiones básicas:

  • la valencia afectiva (que varía de desagradable o negativa a agradable o positiva);
  • y la activación emocional o arousal (que varía de relajante o poco activadora a muy activadora y proviene del cerebro reptiliano).

Estos autores se refieren también a una tercera dimensión, la dominancia (que varía desde bajo control a fuera de control), que no se controla o manipula habitualmente debido a su menor consistencia y a su elevada correlación con las otras dos.

Además Bradley & Lang recopilaron ya en 1999 las valoraciones subjetivas en valencia, arousal y dominancia, así como la frecuencia de un conjunto de 1034 palabras en el Affective Norms for English Words (ANEW) y se han ido publicando nuevas bases de palabras en diversos idiomas que sirven para trabajar sobre la generación de emociones sintéticas.

A nivel técnico, todavía estamos lejos de que las máquinas puedan tener conciencia (si llegan a tenerla). Sin embargo, el peligro es que es relativamente fácil enseñar a una inteligencia artificial a reconocer emociones (algo que ya se aplica por empresas para conocer por ejemplo el “sentimiento” del público hacia las marcas) y lo que es más peligroso, a fingir emociones: lo que abre las puertas a que los humanos podamos ser manipulados emocionalmente por una inteligencia artificial. No obstante, aunque “la empatía de las máquinas se puede programar” –como se está viendo ya en asistentes digitales de voz que responden a cuestiones banales a modo de broma- se está utilizando fundamentalmente para hacer que los asistentes sean más “amigables”.

Ya en el año 2012 un grupo de investigación de la Universidad Pablo de Olavide de Sevilla, liderado por José Luis Salmerón, logró diseñar un sistema de inteligencia artificial que era capaz de conseguir que las máquinas emularan las denominadas emociones sintéticas. Este descubrimiento marcó un hito a nivel mundial, ya que nadie hasta el momento lo había logrado, y consiguió revolucionar el panorama internacional de la robótica y llevar el uso de la inteligencia emocional a otro nivel hasta ahora inexplorado.

En su opinión, “existen multitud de razones para la construcción de máquinas y robots que piensen de manera inteligente”. Según este investigador, “algunos expertos esperan que las máquinas inteligentes superen con creces nuestras capacidades cognitivas y razonen de manera racionalmente perfecta. Otros consideran, por el contrario, que se han de diseñar robots que piensen de igual forma que lo hacen los humanos, considerando también nuestras limitaciones”.

“La inclusión de emociones artificiales permite a las máquinas incorporar nuevas funcionalidades y tenerlas en cuenta a la hora de realizar sus actividades. Las emociones artificiales en las máquinas mejoraría sensiblemente sus aplicaciones y las dotaría de una mayor autonomía, pudiendo adaptarse a la interacción con los seres humanos”, afirma Salmerón.

De esta forma, él plantea que se puedan crear robots o cualquier otro tipo de máquina que se adaptaran o anticiparan las emociones humanas o incluso tuvieran las suyas propias. Así, un robot podría, por ejemplo, sentir hambre si tuviera un nivel bajo de energía o alegría cuando realizara su trabajo correctamente. También permitiría que anticipase las emociones de los seres humanos, de forma que adaptara sus acciones para que produjera emociones positivas en las personas.

En 2016, otro grupo de investigadores, en este caso pertenecientes al equipo de ingenieros de la marca de automovilismo Honda, anunciaron otro descubrimiento dentro del campo de las emociones sintéticas. Desarrollaron una inteligencia emocional capaz de reconocer emociones y empatizar con los usuarios de sus coches autónomos.

A su vez recientemente investigadores de la Universidad Politécnica de Valencia crearon un prototipo de un robot que era capaz, al igual que en el caso de Honda, de interactuar con las personas dependiendo de su estado emocional. Así lo afirmó Vicente Julián, uno de los investigadores al mando del proyecto: “El resultado de la monitorización de emociones se utiliza de una manera innovadora en la que se pretende identificar uno o varios estados emocionales de un grupo de personas y cómo estos estados se propagan a lo largo del tiempo. El robot interpreta dichos cambios emocionales y los utiliza en su toma de decisiones”.

Hace unos meses tuve el honor de participar en la obra colectiva de Wolters Kluwer dirigida por Paloma Llaneza: Ellas. Retos, amenazas y oportunidades en un mundo conectado”, en el que 19 autoras revisábamos aspectos tecnológicos, económicos, éticos y legislativos de la nueva sociedad digital en la era de las redes sociales, la inteligencia artificial y los “objetos conectados”. En mi capítulo “Robots que piensan y se emocionan” analizo aspectos de la inteligencia artificial que pueden pasar desapercibidos, como la ética de las emociones y la inteligencia artificial (es decir, si la inteligencia artificial debería poder “fingir emociones”) y otros temas como los sistemas de aprendizaje y conocimiento.

En mi opinión, es la conciencia precisamente la que determina el elemento diferenciador con las personas en cuanto a inteligencia emocional y no tengo tan claro que esta futurología más allá de las películas llegue a alcanzarse. 

Sara Molina
Twitter: @saramolinapt
Web: http://nizepartners.com/
Blog: https://legaltechies.es/blog/
Comunidad online de la Abogacía: www.abogacia.es/comunidad/saramolinapt/

Comparte: