Article mis à jour le 24 octobre 2023 à 15:25
Les outils d’intelligence artificielle générateurs d’images fleurissent sur le web depuis plusieurs mois maintenant. Des programmes capables de créer de toutes pièces une image nouvelle qui n’existe pas, seulement à partir d’une description textuelle.
En plein festival Visa pour l’image, une table ronde était organisée vendredi 8 septembre pour réfléchir aux enjeux soulevés par l’arrivée de ces nouveaux instruments. Photo ci-dessus extraite de l’exposition de Laura Morton.
Midjourney, DALL-Z, Craiyon… Ces noms vous disent peut-être quelque chose.
En vous connectant sur ces applications, vous pouvez créer une image originale et inédite seulement à partir d’un texte décrivant ce que vous désirez voir (ce qu’on appelle un prompt). Et tous les styles sont possibles : peinture, image de synthèse… et photo réaliste. Le festival Visa pour l’image a décidé de se saisir de ce sujet important en organisant une table ronde sur le sujet vendredi 8 septembre.
L’un des premiers enjeux qui vient à l’esprit à propos des I.A génératives d’image est celui de la désinformation. En mars dernier, la photo du visage d’un vieil homme ensanglanté fait le tour des réseaux sociaux. Il est présenté comme une victime de violences policières, dans un contexte tendu, puisqu’elle est partagée quelques jours après les violents affrontements entre forces de l’ordre et manifestants à Sainte-Soline qui a fait de nombreux blessés. Pourtant cette photo est le pur produit d’une intelligence artificielle.
Ce sont les équipes de Grégoire Lemarchand, rédacteur en chef de l’investigation numérique à l’Agence France Presse, qui ont révélé la fausse information.
« C’est un des premiers fact-check (vérification de fait, ndlr) qu’on a fait sur une image générée par une I.A. On avait suffisamment de preuves, compte tenu des incohérences dans l’image, que c’était faux. On a publié quelque chose et quelques heures après l’auteur de l’image nous a contacté, il nous a expliqué quel prompt il avait fait. C’était un véritable travail de croisement des sources. »
Dans ce cas, l’image n’a pas été créée à des fins de manipulation, mais bien détournée de sa principale vocation satirique, assumée par l’auteur.
Et c’est souvent ce qui arrive sur le web selon Grégoire Lemarchand : « Souvent sur la première publication est clairement indiquée que la photo a été générée par une I.A. Le problème ensuite c’est que les gens la repartagent sans préciser cette information. » Le journaliste poursuit : « Au même titre qu’une grande technique de manipulation est de décontextualiser une image, là c’est exactement la même chose. »
Le rédacteur en chef a vu se multiplier les fausses images réalistes provenant d’I.A depuis le début de l’année 2023 : « Soudainement, on est passé de générations d’images assez grossières à des choses absolument bluffantes où sans un examen un peu attentif on peut se laisser berner. »
Alors justement, comment faire pour ne pas se laisser berner ?
Quelle méthode ont les journalistes pour identifier les images des I.A ? Grégoire Lemarchand est catégorique : « Aujourd’hui, il n’existe pas d’outils qui permettent de détecter si une image a été générée par une I.A. Il y a aussi beaucoup de faux positifs. »
Ce que font les équipes de Grégoire, c’est bien de l’enquête journalistique mais sur le terrain numérique, et avec l’aide d’un outil du nom d’Invid, développé en partenariat avec des scientifiques de l’Ecole normale supérieure Paris-Saclay. « Invid ne va pas nous dire si une image a été générée par une I.A ou pas, mais si elle a déjà été publiée sur le Net. Ça va nous permettre de retrouver la première personne qui a posté cette image. »
Mais avant tout, la première étape est bien dans l’observation méthodique : « Il y a un tas d’éléments visuels qui permettent de détecter avec quasi-certitude si ça a été produit avec une I.A : des éléments d’arrière-plan qui sont incohérents, des insignes d’uniforme qui n’existent pas… MidJourney ne sait pas générer de texte intelligible. Ces logiciels ont aussi du mal à générer les mains de façon correcte. »
Outre ces outils créant de toutes pièces des images inédites, l’intelligence artificielle générative se retrouve dans d’autres programmes textuels, comme le célèbre ChatGPT, qui est capable de sortir des textes, articles, dissertations à partir de prompts.
« Ils sont conscients que ces nouvelles technologies peuvent bousculer le monde »
Laura Morton est photojournaliste, basée à San Francisco. Celle dont le travail « Wild West Tech » est exposé en ce moment à la Maison de la Catalanité fréquente depuis 2014 les milieux tech de la Silicon Valley, et en particulier depuis un an les travailleurs qui conçoivent les applications recourant à l’intelligence artificielle.
« Je serais beaucoup plus inquiète si je n’avais pas rencontré ces gens. Ils discutent beaucoup entre eux de ce qui pourrait aller de travers dans leurs créations. Ils sont conscients que ces nouvelles technologies peuvent bousculer le monde, et ils ne veulent pas non plus tout casser. » Elle assure que beaucoup de ces ingénieurs sont favorables à des instances de régulation. En mai dernier, Sam Altman, le fondateur d’OpenAI, qui commercialise ChatGPT, a même appelé le Congrès américain à la régulation du secteur de l’intelligence artificielle aux États-Unis.
Certains photojournalistes ont pris le contre-pied en recourant volontairement à l’I.A pour créer tout un photoreportage.
C’est le cas de Michael Christopher Brown, qui a dévoilé en avril dernier son projet « 90 miles », soit la distance qui sépare les Etats-Unis de Cuba. Toutes les images qui illustrent la fuite de Cubains vers les côtes américaines sont générées artificiellement. Un parti pris qui lui a valu de nombreuses critiques, auxquelles il a répondu qu’il ne fallait pas opposer I.A et photographie.
Pour Niels Ackermann, photographe suisse, une telle démarche est risquée. « Ce qui risque de se passer si on traite les images de Midjourney comme des informations, c’est ce que ça va devenir la norme pour les générations futures. La première question qu’on se posera quand on verra une image sera « avec quel programme elle a été générée ». On partira toujours du principe que c’est faux. On ne regardera plus les photos. »
Mais Grégoire Lemarchand n’est pas tant inquiet par ces images artificielles et très réalistes. « Il y a cinq ans on a vu surgir les deep fakes (des vidéos de personnalités à qui ont fait dire ce qu’on veut grâce à l’intelligence artificielle, ndlr). À l’époque, on a dit « Ça va être l’apocalypse » car on peut faire dire n’importe quoi à n’importe qui. Mais en termes de désinformation, de pourrissement de l’espace public, on n’a pas vu tant de deep fakes que ça. La désinformation prospère sur d’autres techniques plus basiques. »
Le journaliste rappelle quelques conseils de base pour tout internaute : douter raisonnablement, se méfier de ses propres biais. « Pour les images générées par I.A, il y a un côté « c’est trop beau pour être vrai » ». Tout en se rappelant qu’heureusement, certaines images stupéfiantes et incroyables peuvent aussi s’avérer véridiques.