Menu
Libération
CheckNews
Vos questions, nos réponses
CheckNews

«Libé» s’est-il rendu coupable d’une «fake news» en publiant la vraie photo d’un homme brandissant une image générée par IA ?

Des internautes ont reproché à «Libération» une photo illustrant sa une du jeudi 19 octobre : elle montre un manifestant en colère au Caire brandissant l’image générée par IA d’un bébé sous les gravats.
La une du journal «Libération» du 19 octobre 2023 montrant un manifestant au Caire.
publié le 19 octobre 2023 à 19h08

Plusieurs internautes nous ont saisis à propos d’une accusation de «fake news» formulées sur Twitter (renommé X) contre le numéro de Libération daté du jeudi 19 octobre. Libé consacrait ce jour son événement (le dossier qui ouvre le quotidien) aux manifestations dans les pays arabes consécutives à l’explosion survenue dans l’hôpital gazaoui Al-Ahli Arabi. La une était titrée «Proche Orient, le spectre de l’embrasement». Avec ce sous-titre : «Après une explosion meurtrière dans un hôpital de Gaza, des manifestations se sont multipliées dans plusieurs pays de la région. Une nouvelle étape dans l’escalade du conflit, même si rien ne semble indiquer qu’Israël soit responsable de la frappe.» Elle est illustrée par une image (authentique) prise par un photographe d’AP mercredi au Caire lors d’une manifestation : on y voit une foule de manifestants et surtout un homme brandissant en signe de protestation l’image d’un bébé en larmes dans les gravats.

Ce bébé semble être une image générée par intelligence artificielle. Et elle l’est de fait. En effectuant (comme l’ont fait des internautes) une recherche d’image inversée limitée à cette pancarte, on voit qu’il s’agit d’une image générée par IA, qui a été partagée à l’occasion des tremblements de terre survenus à proximité de la frontière entre la Syrie et la Turquie au début du mois de février 2023. Les premières occurrences détectées par le site de recherche d’image TinEye remontent au 7 février. En consultant des versions en meilleure résolution, il apparaît d’évidence que l’image n’est pas réelle, puisque le front du bébé et sa main sont déformés.

Malgré ce caractère artificiel, l’image de cet enfant a été partagée par de nombreux internautes pro-palestiniens (ici ou encore ici) pour dénoncer les bombardements de Gaza, qui ont eu lieu après l’attaque du Hamas contre Israël. A noter que d’autres photos prises par un autre photographe dans cette même manifestation au Caire montrent un autre homme tenant la même fausse image. Ici, par exemple.

«Le centre de la photo est le manifestant en colère, pour qui la vérité importe peu»

Certains internautes nous ont donc fait le reproche d’avoir publié une «fake news»… en publiant la vraie photo d’un homme brandissant cette fausse photo.

Directeur de la publication de Libération, Dov Alfon fait cette réponse : «Beaucoup des pancartes brandies dans les manifestations du 17 octobre étaient en effet générées par IA, qui devient ces derniers mois le socle artistique de protestations, comme auparavant l’étaient des pantins, poupées ou squelettes. Cette photo de l’agence Associated Press représente justement «le spectre de l’embrasement», notre titre sur cette une (spectre : «apparition fantastique, généralement effrayante, d’un mort ou d’un esprit ; image effrayante, sinistre, aux contours irréels»). Le centre de la photo est le manifestant en colère, pour qui la vérité importe peu.»

«Certains suggèrent que la vérification de ces pancartes devrait être la mission des services de fact-checking des journaux ou de l’agence photographique. Cela me semble être une bien mauvaise utilisation de nos ressources. Rappelons que le même jour, huit journalistes de Libération se sont plongés dans les images de la tragédie de l’hôpital Al-Ahli Arabi à Gaza, nous permettant d’apporter à nos lecteurs dans le même journal toutes les preuves qui nous permettaient de pointer une roquette défaillante comme source de l’explosion plus probable qu’une bombe israélienne. Basé sur l’examen de plus de vingt sources iconographiques et publié en un temps record, ce genre de travail journalistique nous semble plus important que la vérification de fakes de propagande.»

Aurait-il fallu le mentionner en légende ?

Cette photo est-elle, pour celui qui la brandit, un symbole (comme l’est le montage, très souvent brandi lui aussi, de Nétanyahou les mains en sang, ou comme le sont les poupées ensanglantées que lèvent les manifestants) ? A-t-il au contraire une volonté de tromperie en suggérant, en la montrant dans ce contexte, qu’elle est une image authentique d’un enfant de Gaza sous les bombes ? Le croit-il lui-même ? Nous n’en savons rien.

Reste que pour le lecteur, cette image, parce que vue dans ce contexte, n’est pas évidemment «lisible» (à la différence d’une poupée ensanglantée), puisque le fait qu’elle soit générée par IA n’est pas évident au premier coup d’œil. Aurait-il fallu, alors, mentionner en légende le fait que l’homme sur la vraie photo brandissait une fausse image ? «Probablement oui», indique Dov Alfon, «mais la légende de l’agence AP ne l’a pas mentionné, soit par omission soit par manque de temps, et nous de même. C’est évidemment regrettable».

[mise-à-jour à 22h20 avec la réponse complète au besoin de légende]