Alice cares. Vers l’empathie artificielle

Dans un monde où les personnes âgées sont appelées à être de plus en plus nombreuses et où leurs enfants semblent moins présents auprès d’elles, qui fournira à ces personnes une compagnie et des échanges affectifs ? Depuis quelques années, les progrès de la technologie ont donné le jour à des robots anthropomorphes qui remplissent partiellement cette fonction empathique. Le film Alice Cares permet, sur un mode très documentaire, de visualiser ce futur proche. Il en met en scène un tel agent de compagnie joliment prénommé Alice. Ce petit humanoïde de 80 cm de haut a le corps d’un automate et le visage d’une petite fille[1]. Il ne marche pas, mais sait déjà se tenir assis dans un fauteuil, et faire beaucoup d’autres choses, comme poser des questions aux personnes âgées sur ce qu’elles font, ce qui entretient leurs facultés conversationnelles. Si la personne aime chanter, Alice lui fournit la musique d’accompagnement et l’encourage par ses mimiques. Et si son hôte désire lui montrer un album de famille, Alice s’extasie sur la beauté de ses enfants et petits-enfants. Par la variation et la multiplicité de ses intonations, elle invite les personnes âgées à exprimer davantage la palette de leurs propres émotions.

Une véritable compagnie, donc, doublée d’un coach en rééducation physique qui rappelle à son propriétaire l’importance de faire chaque jour quelques exercices simples pour ne pas perdre sa motricité. Programmée à cet effet, Alice montre l’exercice, observe ce que la personne âgée est capable de faire, puis refait le mouvement et invite la personne âgée à se corriger. Et ce, chaque jour et à heure fixe.

Enfin, le robot rappelle à son propriétaire les dates anniversaires de ses enfants et petits-enfants, et l’encourage à réaliser ces gestes simples consistant à chercher une carte à leur envoyer, ou à trouver la motivation suffisante pour leur téléphoner. Ce qui permet à ces personnes de conserver le sentiment de gérer leur propre vie.

 Pourquoi nous attribuons des intentions aux robots

 Il ne serait pas étonnant, dès lors, que les propriétaires âgés de tels robots s’attachent à ce compagnon de tous les jours. Jusqu’à brouiller les habituelles frontières entre ce que l’on peut éprouver pour une machine et pour un humain. Dans les maisons de retraite, des personnes âgées tricotent des vêtements pour les robots Nao, et de vieilles dames donnent à leur robot installé à domicile le prénom de leur mari disparu. Alors, une fois ce robot personnalisé par un prénom et des vêtements, ne devient-il pas beaucoup plus qu’une simple machine, un confident privilégié des pensées et des émotions de son utilisateur ?

Prêter des intentions, des émotions, voire des pensées à un robot relève d’une tendance générale de l’être humain. Nos lointains ancêtres n’ont dû leur survie qu’à leur capacité d’essayer de comprendre leur environnement, et le seul moyen dont ils ont longtemps disposé était la projection. Ils attribuaient des intentions au vent, à la foudre, ou au mouvement des feuilles sur les arbres, et bien sûr aussi aux animaux qu’ils chassaient ou dont ils devaient se protéger. Imaginer que l’ensemble du monde puisse réagir comme eux aux mêmes situations était le seul moyen dont ils disposaient pour tenter d’anticiper les événements. Et, pour ce qui concerne les animaux tout au moins, ce n’était pas un si mauvais moyen. Cette attitude n’a pas totalement disparu de notre vie psychique puisque nous aimons les poèmes et les récits dans lesquels le monde inanimé pense et éprouve comme nous, et que nous apprécions de nous entourer d’objets anthropomorphes, comme le montre le succès du design qui met des yeux sur nos tirebouchon et donne un visage à nos salières. Ces dernières années, les neurosciences se sont beaucoup intéressées aux structures de notre cerveau qui détectent des intentions derrière les mouvements d’objets animés. Il y a une dizaine d’années, Susan Blakemore, Jean Decety et leurs collègues de l’Inserm et de l’université d’état de Washington à Seattle ont ainsi montré que certaines zones cérébrales comme le sillon temporal supérieur ou le cortex pariétal supérieur entrent en action lorsque nous attribuons une intention à une figure géométrique qui « envoie » une boule vers une autre figure sur un écran. Ces structures cérébrales sont réputées participer à notre « théorie de l’esprit », c’est-à-dire notre capacité à prêter différentes pensées à autrui, et à savoir que ce dernier pense lui aussi, comme nous. La tentation d’imaginer qu’un robot a les mêmes émotions que nous ne serait donc finalement que la manifestation d’une caractéristique générale de l’être humain, et comme toutes les manifestations, celle-ci serait très inégalement répartie : certains la possèderaient beaucoup, d’autres moins et quelques-uns pas du tout. Bref, il ne s’agirait que de subjectivité personnelle.

Les robots qui « ont du cœur »

 Eprouver de l’empathie avec une machine, pouvoir interagir avec elle comme avec un de nos semblables, relève de ce qu’on appelle de plus en plus aujourd’hui l’empathie artificielle. De nombreux laboratoires travaillent en effet à simplifier les interfaces homme-machine de façon à ce que nous puissions communiquer avec un robot exactement de la même façon qu’avec un humain : nous lui parlons, et il est capable non seulement de comprendre ce que nous lui disons, mais aussi d’identifier l’état affectif dans lequel nous nous trouvons, et de nous répondre avec des intonations et des mimiques adaptées. D’ores et déjà, Alice peut suivre les déplacements de ses interlocuteurs grâce à la mobilité de sa tête et de ses yeux, leur témoigner un intérêt appuyé par le regard, et réagir à ce qu’ils disent par un large éventail de mimiques.

L’empathie artificielle va donc encourager la tendance de l’utilisateur des robots à les considérer comme des créatures vivantes, voire humaines. Mais un autre élément intervient dans cette situation : la façon dont les robots sont présentés et vendus à leurs utilisateurs. En effet, certains fabricants parlent « d’émo-robots » ayant des émotions, et même « du cœur », avec le risque de renforcer chez leurs utilisateurs la conviction que ces machines auraient des émotions et des intentions semblables à celles des humains. Quelques uns, essayent de limiter ce risque en donnant à leur robot une voix métallique – comme par pour le célèbre Nao -, mais d’autres font le choix d’une voix totalement humaine, comme dans le cas de Alice. Le problème est qu’à force de penser que leur robot pourrait avoir de vraies émotions, beaucoup d’utilisateurs risquent d’imaginer qu’il pourrait avoir aussi des sensations. Et le danger serait qu’une personne âgée mette sa propre vie en péril pour tenter de sauver son robot qu’elle voit trébucher ou en train de se brûler… La situation est tout à fait imaginable : il a déjà été constatée que des soldats américains utilisant des robots démineurs mettent parfois leur vie en danger pour épargner des dommages à la machine qui est en principe destiné à les protéger !

L’empathie artificielle pose aujourd’hui un problème épineux. Il s’agit du danger à penser que nos robots auraient des émotions « comme nous ». Ce serait d’oublier qu’ils resteront toujours connectés à leur fabricant. Dans les hôtels japonais tenus entièrement par des robots, les clients jouent avec les robots sont installés dans leur chambre, puis oublient de les débrancher lorsqu’il ils ont des activités plus intimes, bien qu’il soit indiqué que, « pour des raisons de sécurité, le robot est relié en permanence à un PC de sécurité »…

Nous voilà face à la question de la protection de la vie privée. Que l’on peut toujours évacuer en arguant que le désir de protéger sa vie privée est différent selon chacun, et que ceux qui voudront débrancher leur robot le pourront toujours. Mais cela dépend aussi de la façon dont ces machines sont conçues. Pour que l’utilisateur soit libre, plusieurs conditions doivent être réunies : qu’il puisse déplacer facilement le robot, que le bouton de déconnexion soit accessible, et que le fait de l’arrêter ne provoque pas une mise en scène de la mort subite ! Or c’est aujourd’hui exactement ce qui arrive lorsqu’on débranche un robot Pepper. Il semble frappé d’une crise cardiaque ! Aucune personne âgée ne prendra le risque d’une déconnexion dans cette situation.

Enfin, le dernier problème psychologique posé par l’introduction des robots concerne l’évolution des relations que nous aurons avec nos semblables. Alice est programmée pour formuler des jugements constamment positifs. L’une de ses premières phrases en arrivant chez quelqu’un est : « votre appartement est très joli », ou « vous êtes vraiment très bien installé ici ». Le robot domestique ne parle jamais de lui, il est toujours attentif à son maître, prêt à rebondir sur ce que celui-ci lui dit, de telle façon que beaucoup de relations humaines risquent finalement de paraître à la personne âgée bien plus frustrantes que celles qu’elle entretient avec son robot. Nous savons déjà que la pratique quotidienne du téléphone mobile a rendu beaucoup d’entre nous plus intolérants à l’attente. Les robots de compagnie pourraient bien de la même façon rendre beaucoup de leurs utilisateurs moins sensibles à la contradiction, voire plus intolérants au caractère toujours imprévisible des interlocuteurs humains. Les robots leur donneront-ils la certitude d’aimer et d’être aimées si importante pour l’équilibre émotionnel de chacun, et le sentiment que leur vie est vraiment utile, sans même parler d’une sensualité plus heureuse ? Il est à craindre que non. Mais ils risquent pourtant de se rendre rapidement indispensables parce qu’ils seront capables, en plus de tous les services bien réels et bien concrets qu’ils rendront, de satisfaire à la demande que le bon sens populaire a su si bien formuler : « Parlez-moi de moi, il n’y a que ça qui m’intéresse ».

Sauf si les programmes conçus pour ces robots prévoient aussi d’encourager les seniors à rencontrer d’autres humains, et à leur faciliter les démarches dans ce sens, au point de savoir s’effacer quand cette relation est établie. Mais quel pouvoir avons-nous chacun sur cette évolution ? Le pouvoir du consommateur, celui de refuser d’acheter des robots conçus uniquement comme des fournisseurs d’accès à des services tarifés. Pour augmenter nos chances de voir un jour des robots socialisants, boudons ceux qui n’y correspondent pas. Refusons les robots occupationnels, et attendons les robots humanisants.

Serge Tisseron

Bibliographie

Lévy-Bruhl L. (1927). L’âme primitive, Paris, PUF, 1963.

Tisseron S. (2015). Le jour où mon robot m’aimera, vers l’empathie artificielle, Paris, Albin Michel

[1] Conçu par Robocare. Plusieurs autres prototypes sont en expérimentation en France, comme le Nao, le Pepper et le Roméo de Aldebaran, et le Kompaï de Robosoft.

Une réflexion au sujet de « Alice cares. Vers l’empathie artificielle »

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *