Menu
Libération
Inédit

«Je te pardonne» : aux Etats-Unis, une victime ressuscitée par l’IA s’adresse à son meurtrier dans un tribunal

Intelligence artificielle (IA) : de la fascination à l'inquiétudedossier
Trois ans après avoir été tué dans une altercation routière en Arizona, Chris Pelkey a pris la parole au tribunal grâce à une version reconstituée de lui-même. Une première qui interroge les limites éthiques de cette technologie.
La vidéo de Christopher Pelkey diffusée durant l'audience de son meurtrier. (Courtesy de la famille Pelkey)
publié le 8 mai 2025 à 11h32

«Dans une autre vie, nous aurions probablement pu être amis.» C’est par ces mots que Christopher Pelkey s’est adressé à son meurtrier devant un tribunal de l’Arizona, plus tôt dans le mois. Une scène troublante : l’homme de 37 ans est bel et bien mort depuis 2021, lors d’une altercation routière. Mais grâce à l’intelligence artificielle, il est réapparu, le temps d’une vidéo, pour livrer lui-même sa déclaration de victime à l’audience de condamnation. Il s’agit probablement de la première fois que cette technologie est utilisée aux Etats-Unis dans de telles circonstances, qui fascine autant qu’elle inquiète sur l’avenir des affaires juridiques.

Tout commence en 2023, lorsque le précédent procès de Gabriel Horcasitas, le meurtrier de Chris Pelkey, est annulé pour vice de procédure. Pendant deux ans, sa sœur, Stacey Wales, ne parvenait pas à trouver les mots justes pour la déclaration de victime de son frère. «Je ne pouvais pas m’empêcher d’entendre sa voix dans ma tête, de savoir ce qu’il dirait», a-t-elle raconté mercredi 7 mai à la radio publique nationale américaine (NPR). Pour elle, impossible de se lever devant le meurtrier et lui dire : «Je te pardonne». «Le problème, c’est que j’entendais la voix de Chris dans ma tête et il disait : ”Je lui pardonne“», a-t-elle confié à la NPR.

Recréer fidèlement

L’idée germe alors dans son esprit : utiliser l’intelligence artificielle pour générer une vidéo de son frangin afin de s’adresser directement à l’homme qui lui a tiré dessus à un feu rouge en 2021. Pour cela, elle utilise des enregistrements vocaux, des vidéos et des photos de Chris, pour le recréer le plus fidèlement possible et l’humaniser à travers cette séquence de quatre minutes. Selon elle, le mantra de Chris ​​avait toujours été d’aimer Dieu et d’aimer son prochain. Elle a ainsi écrit la déclaration de Chris comme elle pensait qu’il l’aurait écrite, son frère étant particulièrement indulgent.

«A Gabriel Horcasitas, l’homme qui m’a tiré dessus, c’est dommage que nous nous soyons rencontrés ce jour-là dans de telles circonstances», a ainsi déclaré la version IA de Chris Pelkey au tribunal. «Je crois au pardon et à un Dieu qui pardonne. J’y ai toujours cru et j’y crois toujours», poursuit-il, coiffé d’une casquette de baseball grise et de sa longue barbe rousse. La vidéo se termine avec l’avatar encourageant chacun à s’aimer les uns les autres et à vivre pleinement. «Bon, je vais aller pêcher maintenant. Je vous aime tous. A bientôt de l’autre côté», conclut-il.

Dans la salle d’audience, cette résurrection inédite fait mouche. Le juge chargé de l’affaire, Todd Lang, dit avoir «adoré cette IA». «Merci pour ça. Malgré votre colère, et aussi légitime que soit la colère de la famille, j’ai entendu le pardon, a-t-il dit à la famille. Je sens que c’était sincère.» Au terme du procès, Gabriel Horcasitas a été condamné à dix ans et demi de prison pour homicide involontaire – il avait déjà été reconnu coupable lors de son précédent procès.

Limites

L’utilisation de l’IA dans le cadre judiciaire n’est pas nouvelle. Paul Grimm, juge fédéral à la retraite et professeur à la Duke Law School, rappelle auprès de la BBC que «les tribunaux de l’Arizona ont déjà commencé à utiliser l’IA à d’autres fins. Par exemple, lorsque la Cour suprême de l’Etat rend une décision, elle dispose d’un système d’IA qui la rend plus accessible au public». Dans le cas de Chris Pelkey, la technologie a été utilisée en présence d’un juge qui devait décider d’une peine, ce qui est légal, et non d’un jury. Pour Paul Grimm, «nous nous pencherons sur [l’IA] au cas par cas, mais la technologie est irrésistible».

«Parce que cela se passe devant un juge, et non devant un jury, et parce que la vidéo n’a pas été présentée comme preuve en soi, son impact est plus limité», a abondé Maura Grossman, professeure à l’Université de Waterloo (Canada) qui a étudié les applications de l’IA dans les affaires pénales et civiles. Elle a ajouté auprès de la NPR qu’elle ne voyait aucun problème juridique ou éthique majeur dans le cas de Chris Pelkey.

Mais certains experts comme Derek Leben, professeur d’éthique des affaires à l’Université Carnegie Mellon (Pennsylvanie), s’inquiètent de l’utilisation de l’IA et du précédent que cette affaire crée. Bien qu’il ne remette pas en question l’intention ou les actions de cette famille, le professeur craint que toutes les utilisations de l’IA ne soient pas conformes aux souhaits de la victime. «Obtiendrons-nous toujours la fidélité voulue par la personne, la victime dans ce cas ?», s’est-il interrogé.

La sœur de Chris Pelkey défend de son côté une utilisation «éthique et morale», avec pour unique intention celle de donner le dernier mot à son frère. Cette expérience l’a même amené à réfléchir à sa propre mort. Un soir, Stacey Wales s’est donc installée dans sa chambre et a enregistré une vidéo de neuf minutes où elle parle et rit – au cas où sa famille aurait besoin, un jour, d’un enregistrement clair de sa voix lors d’une audience.