¿Qué pasará cuando los robots asistenciales sepan leer nuestro lenguaje corporal?

Ya existen en Japón seis mil robots asistenciales dedicados al cuidado de mayores en sus hogares. En un país con un 20% de la población mayor de 65 años -y donde se proyecta una escasez de 1 millón de cuidadores para el año 2025- la inversión en software robótico no industrial, y los subsidios para que los centros de ancianos adopten la robótica, se ha convertido en una prioridad.

Pero ¿qué pasa en Europa y más específicamente en España?

Según Eurostat, en el año 2060 el 29,5% de la población europea tendrá más de 65 años. Por otra parte, los datos del Imserso muestran la inversión que, desde hace años, padece España en su curva de crecimiento poblacional, con la cúspide creciendo más que la base.

El papel de la sinergología

Para conseguir que los robots asistenciales puedan ser realmente eficaces en su labor, habrá que resolver antes algunas cuestiones. Una de ellas será que las máquinas sean capaces de comprender las emociones que transmitimos las personas a través de nuestro lenguaje corporal.

De esto se ocupa precisamente la sinergología, una disciplina que, a través del método científico, decodifica e interpreta los más de 2.400 gestos, y micromovimientos que, de forma semiconsciente e inconsciente –y continuamente- empleamos los seres humanos en nuestra comunicación.

Arancha Gayoso es una de las pocas sinergólogas acreditadas que hay en el mundo. En su opinión, para conseguir este objetivo, “sería importante que la robótica incorporara, a través de la Inteligencia Artificial y Machine Learning, el significado del lenguaje de nuestro cuerpo”. Arancha sabe lo que dice.

Desde su empresa de Consultoría y Coaching Ejecutivo ha trabajado para la mayoría de las grandes empresas españolas, e instituciones públicas. A través de talleres y cursos, esta sinergóloga ayuda a mejorar la comprensión del otro en procesos de negociación, ventas y liderazgo.

sinergologiaObjetivo: conseguir una comunicación más natural e intuitiva posible

Según Guy Hoffman, un investigador especializado en el estudio de las relaciones entre robots y humanos, “cuando la máquina comprenda qué queremos decir con nuestro lenguaje corporal se habrá conseguido algo muy importante: que la comunicación máquina/usuario sea lo más natural e intuitiva posible, sin necesidad de recurrir a teclados, ratones u otros periféricos que intermedien. Sin embargo, hoy por hoy, la interacción, aún siendo ya multimodal, todavía no es comparable a la que utilizamos los seres humanos para comunicarnos entre nosotros”.

Esto se debe, entre otras razones, y en opinión de Arancha Gayoso,a que “la interacción entre personas no sólo implica el uso de la voz o los silencios, sino, también, al intercambio de información implícita y subyacente, como la relacionada con las emociones de los interlocutores. Dicha información se transmite por canales diversos, entre ellos, el lenguaje gestual”.

Computación afectiva y sinergología

Parece evidente que, para que humanos y humanoides podamos entendernos, será necesaria, entre otras muchas aportaciones, la de dos áreas de investigación. Por una parte, la computación afectiva, el campo que se ocupa del estudio del reconocimiento, gestión y generación de emociones y que ya acumula diversos trabajos relacionados con el análisis, mediante visión artificial, de la gestualidad del ser humano. Por otro lado, está la sinergología.

Para Arancha Gayoso los dos beneficios más importantes que aportaría a un robot asistencial un software con programación sinergológica serían “en primer lugar, poder adecuar las respuestas verbales del robot a las emociones que siente el anciano, aunque éste no las exprese verbalmente. Además, mejoraría la vinculación entre el anciano y su robot asistencial, ya que, como todo robot social, su función principal es la de imitar habilidades sociales. El robot nunca podrá sentir emociones, pero tendrá que saber interpretarlas para responder adecuadamente”.

Contexto más léxico gestual

A partir de bases de datos de imágenes de video, programadores e investigadores podrán estructurar la información no verbal que nuestro cuerpo proporcionará a la máquina. Para Philippe Turchet, padre de la sinergología, la clave está en que “el significado de un mismo movimiento puede ser diferente según las situaciones en las que se dé. Analizar un solo gesto por separado, sin considerar otros indicadores (como, por ejemplo, el contexto), podría conducir a un observador a una conclusión errónea. Es evidente que, si dicho observador es un robot, su reacción puede llevar a consecuencias no deseadas”.

En palabras del director del Laboratorio de Robótica de la Universidad Carlos III de Madrid, “la robótica asistencial supondrá, además de un avance tecnológico, pasar de la domótica tradicional en hogares, hospitales y oficinas, donde nada se mueve, al uso de electrodomésticos robotizados que, además de moverse, puedan atender a personas que lo necesiten”. Así que parece que máquinas y humanos estamos obligados a entendernos… de palabra y de gesto.

Momentos de felicidad para ser felizArtículo escrito por Pepe Varela, Periodista y community manager

Si te gustó este artículo lo puedes compartir en tus redes (aunque lo leas unos días después de su fecha de publicación). También si quieres seguir este blog suscríbete a su newsletter

 

Leotron gama

¿Te gusta?