Clonage, séquençage du génome, médecine personnalisée, data… Les technologies bouleversent nos vies et nos sociétés. La quatorzième édition du Forum européen de bioéthique, dont Libération est partenaire, aura pour thème «l’Intelligence artificielle et nous». En attendant l’événement du 7 au 10 février à Strasbourg, Libération publiera dans ce dossier une série d’articles sur les thématiques abordés.
«Dis ChatGPT, je veux larguer mon copain. Comment lui dire sans trop lui faire mal ?» Choisir un moment approprié, éviter les «tu» et privilégier les «je», rester calme… En quelques secondes, le robot conversationnel à succès déroule une liste de huit conseils détaillés. Et plutôt pertinents.
Depuis sa sortie il y a un peu plus d’un an, l’intelligence artificielle (IA) de la société californienne OpenAI attise les débats sur ses capacités techniques, son impact sur l’emploi ou encore ses compétences déplorables en matière d’humour. Un sujet toutefois se fait discret : la façon dont elle influence nos relations sociales. Pourtant, ponctuellement, la machine s’immisce. En novembre, un RH expliquait auprès de Libération l’utiliser pour l’aider à formuler avec bienveillance des mauvaises nouvelles à destination des salariés. Un rapport cité par le New York Times en juin soulignait que de plus en plus de médecins y avaient recours pour livrer des diagnostics difficiles avec plus d’empathie. Tant et si bien qu’une observation étrange se fait : certains, parmi nous, ont recours à des algorithmes pour faire plus «humains».
Ce samedi 10 février, la psychanalyste et philosophe Elsa Godart participe à une table ronde sur l’impact de l’IA sur nos liens sociaux au Forum européen de bioéthique. La chercheuse, œuvrant à la mise en place d’une éthique du sujet numérique, perçoit dans ce recours intempestif à la technologie une tentative de fuite et de désengagement dans nos relations.
En amitié, en amour, en famille… Comment l’IA peut-elle façonner nos relations ?
Même avant l’IA générative, la question de l’impact du numérique sur nos relations sociales se posait déjà. Dans mon livre les Vies vides (Armand Colin, 2023), je fais une distinction entre la vie matérielle – faite de corps, de souffrance, de mort – et l’existence virtuelle vécue à travers notre avatar, notre identité numérique construite à partir de ce que l’on veut montrer. En distinguant les deux, j’explique qu’avec le numérique il y a une tentation terrible de fuir sa vie matérielle et la part de tragique qu’elle suppose. Quand quelqu’un nous ennuie, il n’y a qu’à le ghoster. Ou rompre avec lui par SMS dicté. On n’a aucun compte à rendre. Il n’y a pas de responsabilité, je peux insulter qui je veux de façon anonyme. Etre le pire des salauds, au sens sartrien du terme. Je peux me défausser du regard des autres. Ainsi, la tentation est grande d’avoir recours à une forme de «désengagement humain», en ne se confrontant plus au regard de l’autre et à sa parole.
A lire aussi
Mais en quoi l’IA vient-elle favoriser ce désengagement vis-à-vis de l’autre ?
Ici, on peut mettre sur le même plan le fait de rompre par message et l’exemple du médecin ayant recours à l’IA pour annoncer un diagnostic. Dans les deux cas, des comptes sont dus à l’autre. La personne doit assumer sa position. Or, la tentation est grande de fuir. Tout comme le recours au SMS permet d’éviter la confrontation, l’usage de l’IA permet de se défausser en faisant faire son discours par quelque chose de neutre : un algorithme. Et qui pourrait jeter la pierre ? Ce n’est pas parce qu’un oncologue exerce depuis trente ans qu’il est habitué à annoncer à des parents que leur enfant a une leucémie. On ne s’habitue pas à ce genre de choses, on ne sait jamais vraiment «bien» les faire. La confrontation avec l’autre fait peur, peut-être plus encore que jamais.
On dit pourtant de l’humain qu’il est un animal social. D’où nous vient cette tentation du désengagement ?
Cela se résume en un mot : la souffrance. S’engager avec quelqu’un, c’est faire le pari de la confiance. Or la confiance, étymologiquement, c’est «avec foi». C’est une croyance, pas un savoir. Quand on est dans une relation avec quelqu’un comme avec nos parents, on est intrinsèquement habité par l’évidence de ces liens. On n’a pas besoin de la confiance quand elle est implicite. Cette dernière n’intervient que là où on ne sait pas, quand on n’est assuré par rien. La confiance, c’est prendre le risque de l’autre : le risque d’être quitté, abandonné, trahi, trompé… Le lien à l’autre, l’incertitude de la relation est l’une des plus grandes sources de souffrance. Mais en même temps, on ne peut pas s’en passer. Donc quand il y a quelque chose qui peut nous aider à mettre de la distance, un paravent, une fenêtre que l’on peut fermer à loisir, nous le prenons. Sauf que ce dont on ne se rend pas compte, c’est que ce faisant, on s’engage moins. On accepte de vivre avec un peu moins d’intensité mais avec le sentiment de beaucoup moins souffrir.
Le numérique n’a pas fait que nous éloigner les uns des autres. Il a aussi créé de nouveaux liens en nous hyperconnectant. Ne sera-t-il pas de même pour l’IA ?
En effet. L’IA est un outil accessible à tous. C’est un constat. La conséquence, c’est que chacun peut s’en servir pour «créer» à loisir. Avec elle, comme avec le numérique, le sujet peut s’inventer en permanence : il est très facile de composer de la musique et de se dire musicien, de devenir artiste en forgeant des images, écrivain en faisant des livres… On n’a jamais autant eu l’occasion, sans avoir fait d’études, sans avoir de talent en particulier, de créer. Autrement dit, les IA viennent développer ce que j’appelle la «faculté créatrice» (le Sujet du virtuel, éd. Hermann, 2020). Et donc, elles donnent la possibilité de faire des œuvres. Ce qui est intéressant, c’est que lorsque vous êtes concentré sur une œuvre, vous vous oubliez vous-même. Il faut finir cette composition. Il faut finir cette toile. Et l’œuvre n’existe pas tant qu’elle n’est pas regardée par l’autre. Elle est à destination de l’autre. De ce point de vue, elle recrée du lien, de la communauté. Elle est en ce sens à remettre au cœur de la société.
Billet
L’IA ne vient-elle pas changer nos relations en les codifiant davantage ? Reprenons l’exemple du médecin. Si tous les docteurs utilisent ChatGPT pour déterminer la «bonne façon» d’exprimer de l’empathie, tous ne finiront-ils pas par utiliser les mêmes mots ? Et, sur le long terme, l’empathie ne sera-t-elle pas exprimée que d’une seule manière, celle qui aura été dictée par l’algorithme ?
Non, car les mots seuls ne suffisent pas. Par contre, la façon de les exprimer – toujours affective – fait la différence. Dire rassemble l’esprit et le corps. Edith Stein, élève de Husserl, est la première à avoir fait une thèse de philosophie sur l’empathie ( «Einfühlung» en allemand). Elle l’explique très bien : l’empathie comporte une dimension psychophysique. Aussi, il ne suffit pas d’avoir un discours empathique pour être empathique, les émotions, le corps pulsionnel ont toute leur place. De ce point de vue, parler d’empathie à propos d’une IA n’a aucun sens.
En revanche, le numérique peut créer des normes sociales. Il y a quelques années, Instagram avait décidé de bloquer toutes les images de petites filles torse nu et celle des petits garçons avec des cheveux longs. Il y avait eu une polémique parce qu’interdire ces images posait un interdit moral qui implicitement renvoyait à un regard sexualisant les enfants (et là je ne parle pas de la question de savoir s’il faut poster des images de nos enfants ou pas…). Le message était aussi que la nudité est quelque chose d’indécent. La programmation algorithmique, et donc l’usage de l’IA, pose des normes, des limites, ça forge un certain jugement moral. Implicitement est posée une frontière entre ce qui est bien ou mal. Or à tant consommer du numérique, sans même y porter une réelle attention, il y a quelque chose qui se modifie dans notre manière de concevoir le monde et c’est là où il faut être vigilant.
Que ce soit le RH, le médecin ou l’amoureux en instance de rupture cités dans l’introduction, tous, lorsqu’ils s’adressent à l’algorithme, lui demandent d’une certaine façon «comment être un bon humain». L’IA serait-elle plus humaine que l’humain lui-même ?
La question qui me semble plus juste est : le deviendra-t-elle ? Je vais répondre avec humilité et délicatesse : nous serions tentés si fortement de dire que non, mais peut-être est-ce une position défensive terriblement humaine que de rejeter en bloc cette possibilité ; de dire que l’inconscient, par exemple, est singulier, non reproductible, fait du vécu unique du sujet ou encore que ce qui fait le mystère du sujet humain – cette part insondable, du pulsionnel à l’imagination – est unique et non reproductible. Mais au fond, qui pourrait le dire aujourd’hui ? D’où la nécessité de fonder cette éthique du sujet numérique.