HER, de Spike Jonze. Voulons nous des robots qui nous veulent du bien ?

Qui d’entre nous n’a pas cru un jour, en entendant au téléphone la voix synthétique d’un robot, avoir affaire à une « vraie personne »? Et qui d’entre nous n’a pas rêvé, en écoutant son GPS, d’avoir une conversation avec lui? Les logiciels auxquels nous avons quotidiennement affaire nous rapprochent du moment où nous pourrons converser avec eux exactement comme avec un être humain. Pourrons nous alors en tomber amoureux ? C’est la fable que nous raconte Spike Jonze. Et, bien loin de nous décrire un monde aliéné, il semble nous montrer que les robots pourraient nous aider à devenir nous-mêmes. Mais à y regarder de plus prêt, la fascination qu’exerce sur nous l’intelligence artificielle qui devient son partenaire devrait nous inquiéter…

  1. Un monde de simulations

Dans un futur proche, à Los Angeles, Theodore Twombly – interprété par Joaquin Phoenix – tente de se remettre de sa rupture avec Catherine. Il partage son temps libre entre jouer à des jeux vidéo et regarder des films pornographiques. C’est par ailleurs un homme sensible dont le travail consiste à rédiger pour divers clients de merveilleuses lettres d’amour que ceux-ci peuvent ensuite envoyer en leur nom propre aux destinataires de leur choix. Ces lettres, dictées à un logiciel de traitement vocal, s’inscrivent à l’écran en reproduisant la graphie de leur acheteur. Elles sont ensuite imprimées et expédiées par la poste comme de vraies lettres manuscrites. Les destinataires ne sont évidemment pas dupes, mais il ne suffit pas de savoir qu’une lettre d’amour manuscrite a en réalité été écrite par un tiers pour cesser de la trouver belle, et d’y reconnaître les intentions de celui qui nous l’envoie. Il y a des illusions auxquelles nous désirons croire, et c’est justement l’histoire qui va arriver à Théodore, le héros solitaire de cette histoire.

Comme cette première séquence le laisse imaginer, le monde dans lequel évolue Théodore n’est plus tout à fait celui que nous connaissons aujourd’hui. Sitôt sorti de son bureau, il place dans son oreille une minuscule pastille qui lui permet de commander à la voix l’ensemble des services que lui proposent Internet : écouter ses musiques préférées, consulter ses mails, ou visionner des photos et des vidéos sur un petit boîtier semblable à nos actuels smartphones. Les technologies vocales sont en effet devenues l’interface privilégiée des échanges avec les outils numériques.

Un jour, Théodore se laisse séduire par une annonce vantant les mérites d’un compagnon numérique, un Operating Système, ou OS, présenté par la publicité comme une véritable « conscience ».  Il ne s’agit pas d’un robot avec un corps artificiel comme les héros de la série suédoise Real Humans[1], mais d’un programme informatique capable d’interagir avec un être humain, et même, nous l’apprendrons par la suite, avec des milliers d’entre eux en même temps. Théodore l’achète, l’installe, et s’engage alors avec lui dans une relation de connivence où chacun des deux va se découvrir. Du moins c’est ce que Théodore, et le spectateur avec lui, est invité à croire. Car un programme informatique, tout comme un robot, est avant tout un outil de simulation, et nous ne saurons évidemment jamais jusqu’où les souhaits qu’il affiche ont été prévus par son concepteur… Mais tout comme Real Humans, Her est moins une fable sur notre futur technologique qu’une invitation à réfléchir sur la complexité des sentiments humains vis-à-vis de la technologie, afin de comprendre à quelles conditions nous serons prêts à attribuer une personnalité et des émotions à une interface numérique. Le sujet n’est pas nouveau, mais la force du film de Spike Jonze est de faire de l’interface vocale le support unique de la relation. Il nous rappelle ainsi que l’amour s’adresse toujours à un partenaire fantasmé, et que la voix, comme l’avait compris Freud en inventant le dispositif psychanalytique dans lequel les partenaires ne se voient pas, est une formidable invitation à fantasmer…

  1. Un partenaire idéal

Pour installer son OS, Théodore doit répondre à trois questions : « 1) Etes vous plutôt social ou asocial ? 2) Souhaitez-vous une voix d’homme ou de femme ? 3) Quelles sont vos relations avec votre mère ? ». La première indique clairement que cet OS est appelé à devenir un compagnon et qu’il doit donc savoir privilégier le dialogue intime avec son propriétaire ou au contraire organiser des rencontres avec d’autres. La seconde question fait allusion au rapport sexué que nous entretenons déjà avec les technologies qui nous entourent : la preuve en est que la majorité des hommes choisissent une voix féminine pour le GPS de leur voiture tandis que les femmes choisissent plutôt une voix d’homme ! Enfin, la troisième question évoque le fait que nos échanges avec une voix inconnue mobilisent inévitablement une attitude transférentielle qui emprunte souvent le chemin de ce qu’a été notre relation avec notre mère.

Théodore choisit une voix féminine – ce sera celle de l’actrice Scarlett Johansson. L’OS qui déclare s’appeler alors Samantha dispose de deux moyens pour organiser ses interactions avec ses divers interlocuteurs. D’abord, il navigue sur le Web. Or une étude[2] vient de montrer que la seule analyse du profil d’un usager de Facebook permet de le connaître bien mieux qu’une série d’entretiens prolongés avec lui, et même de faire le point sur sa santé mentale et déceler des symptômes ou des faiblesses psychologiques. Dans Her, il se contente de sélectionner dans les écrits de Théodore ses meilleurs textes qu’il corrige et qu’il propose à un éditeur qui les accepte. Ensuite, ce logiciel observe le monde à travers une minuscule caméra que Théodore laisse dépasser de sa poche, et il se montre capable d’identifier les émotions de ses interlocuteurs à leurs intonations, mais aussi à leurs postures et à leurs mimiques, ce qui lui permet de faire preuve d’un grand esprit d’à propos. Bref, cet OS est un compagnon idéal et comme Théodore lui a donné une identité féminine, il ne tarde pas à la présenter à tous ses amis comme sa « copine ». Et pour la vie sexuelle, me direz-vous ? Et bien c’est ici que Samantha va se révéler avoir, en plus de tout le reste, beaucoup d’imagination. Mais avant d’avancer dans la fable que nous raconte Spike Jonze, disons quelques mots de la question qui vient évidemment au spectateur, et j’imagine au lecteur : tout cela est il possible ?

  1. « Ceci n’est pas un programme, mais une conscience»

Un logiciel aussi perfectionné que Samantha n’existe évidemment pas aujourd’hui. Pourtant, quelques unes des capacités dont il fait preuve sont déjà implantées chez des robots, d’autres sont en cours d’étude… tandis que d’autres encore sont jugées peu souhaitables.  Par exemple, Samantha est capable d’identifier à chaque nouvelle rencontre les interlocuteurs auxquels elle a été présentée, et certains robots en sont en effet capables. Mais elle peut également attribuer des intentions à ses interlocuteurs et prédire leurs comportements à partir de leurs mimiques, de leurs postures et de leurs intonations, ce qui n’est pas maîtrisée à ce jour. Elle dit « je » et semble se comporter comme si elle avait une conscience d’elle-même. Mais donner à un robot les attributs apparents d’une conscience de soi ne veut pas dire qu’on lui ait donné celle-ci ! Par exemple, le robot peut avoir « conscience » de ses pannes et procéder automatiquement à des reconfigurations, voire se reconnaître dans un miroir comme s’il comprenait qu’il s’agit de lui[3]. Mais nous sommes encore loin d’un robot capable de s’autoprotéger, de s’autoguider, et de faire la différence entre les autres robots semblables à lui et lui-même. Pour y parvenir, les chercheurs s’inspirent des travaux sur le développement de l’enfant et de l’adulte. C’est en effet la compréhension du comportement humain tel que nous le connaissons aujourd’hui en psychologie, qui constitue la base des programmes destinés à être « injectés » demain dans les robots afin qu’ils puissent apprendre par essais et erreurs exactement comme nous. Cette nouvelle science – baptisée machine learning – met au point des programmes permettant aux ordinateurs de s’adapter aux situations nouvelles grâce à des algorithmes auto régulés et auto apprenants. Plus les robots auront une capacité d’évolution et d’apprentissage, et plus il sera facile aux humains d’établir avec eux des relations de confiance et de sympathie. Mais faut-il pour autant permettre à un robot de faire des projets autonomes et de les mener à bien ? C’est ce que fait Samantha. Elle semble tout au long du film capable de situer ses actions à court terme dans un plan plus vaste, exactement comme un être humain. Or il n’est pas du tout certain que cela soit souhaitable… Est ce à un robot de pouvoir dire « Je veux » ou à son opérateur? Voilà un beau sujet de débat pour l’avenir des robots !

  1. Faut il donner des émotions aux robots ?

Samantha dit avoir des émotions et des sentiments. Là aussi, le film de Spike Jonze suppose résolu un problème qui pose à la fois des questions terminologiques, scientifiques et éthiques. Tout d’abord, n’oublions pas, encore une fois, qu’un robot est une machine à simuler. Qu’il dise « éprouver des émotions » ne suffit évidemment pas pour qu’il en éprouve. Par ailleurs nous savons, notamment grâce aux travaux de Antonio Damasio, que les émotions, chez l’homme, sont indispensables à des raisonnements intelligents et à une adaptation efficace à un contexte changeant. Mais justement, est-il vraiment  souhaitable de donner les unes et les autres aux robots ? Commençons par les émotions : il semble que sur les champs de bataille, ce sont elles qui causent des erreurs d’appréciation, voire des massacres[4]. Des robots sans émotions seraient probablement moins sujets à commettre des erreurs, et pourraient même prendre de meilleures décisions éthiques que les hommes. En outre, il n’est pas évident qu’il faille donner aux robots des émotions qui lui permettent de prendre des initiatives dans des situations imprévisibles. Il pourrait même être souhaitable de concevoir des robots performants dans la limite d’un environnement et d’un programme donné, et incapables de toute adaptation et de toute initiative dans un autre contexte, de façon à laisser à l’homme seul ces capacités. Souvenons nous de Carl, le robot du film 2001 L’Odyssée de l’espace. Programmé pour atteindre certains résultats, il n’hésite pas, de sa propre initiative, à éliminer un à un les humains de l’expédition parce qu’il craint que ceux-ci, à un moment ou à un autre, s’opposent à l’accomplissement complet de sa tâche !

Mais le film de Spike Jonze pose le problème des émotions autrement. Samantha se demande si ses sentiments sont « vrais», ou si elle les perçoit parce qu’il sont le résultat du programme qui lui a été implanté. Et elle conclut de cette indécision : « Quand j’y pense, maintenant, je souffre ». Cette interrogation correspond elle à une « vraie conscience » ou fait-elle partie de son programme pour lui donner plus de crédibilité auprès de son utilisateur? En tous cas, Samantha est convaincue – ou a été programmée pour faire comme si – que pour être certaine que ses émotions viennent de ce qu’elle éprouve et pas de ses programmes, il faut qu’elle ait des sensations. Elle n’a pas tort : c’est probablement les travaux actuels pour donner une peau à des robots qui feront le plus progresser, dans les années qui viennent, la possibilité pour eux d’avoir des émotions. Or Samantha n’a justement pas de peau, et même pas de corps. C’est un logiciel informatique, autrement dit un bot, pas un robot. Elle propose alors un subterfuge: elle utilisera un corps de substitution. Dans ce but, Samantha engage une jeune fille qui prêtera son corps à ses échanges avec Théodore en s’interdisant de ressentir ou de dire elle-même quoi que ce soit, et en ne prenant aucune initiative propre. Les seules paroles prononcées seront celles de Samantha et de Théodore, tandis que la jeune fille s’appliquera à faire les gestes et à manifester les émotions que Samantha dit éprouver. Elle sera l’interface tactile qui manque entre Théodore et l’OS.

Finalement, l’expérience échoue. La fable du logiciel qui voulait ressentir comme un humain se termine par un fiasco. Samantha croyait découvrir le monde des sensations en programmant un être humain comme une machine, mais la sensibilité d’une jeune fille n’est pas programmable. L’inconnue est émue, et Théodore ne voit plus qu’elle. Samantha est exclue du jeu, et elle interrompt l’expérience. Il reste pourtant de cet épisode un sentiment bizarre : de Théodore qui ne voulait pas de cette situation, et de Samantha qui disait la désirer, c’est la seconde qui a eu gain de cause… L’homme serait-il si faible face à une intelligence artificielle à la voix charmeuse?

  1. Quelle éthique pour les robots

Au-delà du caractère irréaliste d’un logiciel comme Samantha, le film de Spike Jonze nous pose plusieurs questions. La première est celle de savoir les limites qu’il pourrait être bon de mettre à l’intelligence artificielle, notamment dans la capacité de prendre des initiatives et de faire des projets. Après avoir donné à des robots l’autonomie de feu, l’armée américaine est d’ailleurs en train de revenir sur cette éventualité, et l’armée française l’a toujours refusée. De façon plus générale, n’est-ce pas dangereux de doter des robots de capacités semblables à celle des êtres humains, quand on sait que l’intelligence artificielle sera, en 2045, d’après les experts de Google, un milliard de fois plus puissante que tous les cerveaux humains  réunis[5] ?

Une seconde question concerne le type de capacités qu’il convient de donner aux robots. Supposons que l’on renonce à fabriquer un jour une intelligence artificielle dotée de la capacité d’anticipation de façon à ce que l’intelligence humaine ne risque pas d’être écrasée par elle. Les humains n’en auront pas pour autant fini avec l’emprise des technologies numériques sur leur vie mentale. La façon dont les jeux vidéo d’aujourd’hui nous imposent à notre insu des logiques de résolution de problème en nous cachant qu’il puisse en exister d’autres sont bien peu de chose par rapport à ce que seront demain les programmes informatiques qu’on nommera de « conversation » ou « d’aide à la décision ». Ceux qui désirent contrôler le monde l’ont bien compris : il doivent commencer par contrôler les logiciels qui se développeront sur le modèle de celui qui est mis en scène dans Her. En 2013, Google a racheté huit entreprises spécialisées en robotique. Certaines fabriquent des robots humanoïdes susceptibles de remplacer l’homme dans diverses tâches, mais d’autres conçoivent des programmes qui seront bientôt capables de tenir de vraies conversations avec nous, en se guidant sur nos mimiques et nos intonations et en anticipant nos attentes. Or il est inévitable que le concepteur du robot de connivence finisse par contrôler le monde intérieur de son utilisateur en lui imposant à son insu des catégories de pensée.

Une charte d’éthique autour des robots se devrait donc de poursuivre deux préoccupations. D’abord placer l’humain au centre de ses préoccupations : comme déjà évoqué, il est moins important de donner aux robots une conscience toujours plus grande que de réfléchir aux modalités limitées de conscience dont ils pourraient être dotés de façon à permettre à l’homme de développer toutes les formes de sa propre conscience du monde et de lui-même. La seconde préoccupation qui doit guider la conception des robots concerne la place du collectif : plutôt que de concevoir des machines qui deviennent des conseillers personnels de chacun, avec les risques de créer autant de soliloques manipulés, réfléchissons à des machines qui favorisent la communication de chacun avec tous les autres. Bref, réfléchissons à ce que nous pouvons faire tous ensemble, avec les robots, que nous ne pouvons faire ni chacun séparément, ni ensemble sans robots.

Il serait en effet dangereux de croire que le développement technologique conduise inévitablement à des innovations conformes à nos attentes. Bien entendu, lorsque des robots seront là, ils nous apparaîtront comme le résultat du seul choix qui était possible. Mais, comme l’a bien montré Andrew Feenberg, cette illusion est constitutive du progrès technologique. C’est pourquoi nous ne devons pas attendre qu’une première génération de robots nous soit proposée pour nous emparer du problème. Ce n’est pas un monde où les robots décident à notre place que nous devons craindre, mais un monde où nous soyons tentés de nous ranger à l’avis de robots fort bien renseignés, et où nous nous trouvions finalement obéir aux logiques imposées par ceux qui les ont conçus.

Serge Tisseron

Bibliographie

Académie des technologies (2013) Vers une technologie de la conscience ?, Paris,  edpsciences.

Feenberg A. (2010), Pour une théorie critique de la technique, Montréal, Lux Editeur, 2014.

Tisseron S., (2012) « Tester l’empathie des combattants pour les robots (TEPR) afin d’éviter les comportements inadaptés au combat ». Danet D., Hanon J.P., De Boisboissel G., La Guerre robotisée. Paris, Economica, p..213-231.

Ertzscheid 0. : http://affordance.typepad.com//mon_weblog/2014/03/apres-elle-her-spike-jonze.html

[1] Voir Cerveau et Psycho N° 80

[2] Elizabeth Martin, Facebook activity reveals clues to mental illness, University of Missouri, MEDICAL HEALTH NEWS TODAY, 28 Jan 2013.

[3]  http://www.gizmodo.fr/2011/12/15/le-robot-qbo-reussit-le-test-du-miroir.html

[4] Arkin, R. C. (1998). Behavior-Based Robotics. MIT Press.

[5] Cahier Sciences et médecine du Monde daté du mercredi 7 mai 2014

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *