Les images créées par IA et le risque de réécrire l’histoire

Les images créées par IA et le risque de réécrire l’histoire


Dans le monde parallèle des images conçues par des algorithmes, l’après-guerre a été riche en événements méconnus. En 1962, la chimiste britannique Rosalind Franklin aurait obtenu le prix Nobel de médecine pour sa découverte de l’ADN. En 1957 se serait tenue la première convention furry – un mouvement d’adeptes de déguisements animaliers. Sept ans plus tôt, des scientifiques auraient même découvert au pôle Sud des structures signées d’une civilisation inconnue.

Ces événements n’ont jamais eu lieu, et pourtant, en apparence du moins, des « photos d’époque » les documentent. Malgré leur patine qui semble d’époque, ces clichés ont été générés en 2023 à l’aide d’intelligences artificielles (IA) génératrices d’images. En vérité, aucune mégastructure n’a jamais été découverte sous l’Antarctique ; le mouvement furry n’est pas apparu avant les années 1980 ; quant à Rosalind Franklin, elle est morte en 1958 et n’a jamais reçu le prix Nobel.

La découvreuse de l’ADN, Rosalind Franklin, reçoit le prix Nobel, qu’elle n’a en réalité jamais obtenu. Quatre ans après son décès, il a été attribué à trois chercheurs s’étant appropriés ses découvertes.

Depuis le lancement de la cinquième version de Midjourney, en mars 2023, qui a marqué la démocratisation de l’IA génératrice d’images, il n’a jamais semblé aussi simple de falsifier l’histoire à l’aide d’illustrations factices. D’innombrables créations de ce genre ont été mises en ligne sur Reddit, Twitter ou Facebook. Si certaines sont à l’évidence humoristiques, d’autres instillent le doute quant à leur authenticité.

De la plaisanterie potache à l’archive ambiguë

Toutes les photos artificielles ne sont pas crédibles. On a ainsi vu apparaître, à la fin d’avril, de pseudo-photos de l’armée d’argile, une collection de huit mille soldats chinois en terre cuite datant du IIIe siècle avant J.-C., accompagnée d’un très anachronique bus en terre cuite : l’humour potache de la scène laissait peu de doute sur la nature factice de l’image.

Dans de nombreuses productions pseudo-historiques, le ressort comique est évident, comme ici avec ce bus placé aux côté de l’antique armée de terre cuite chinoise. Dans d’autres clichés artificiels, les soldats utilisent un ordinateur ou un smartphone.

Mais d’autres jouent davantage sur la frontière entre le plausible et le faux. Ainsi d’une représentation façon huile sur toile de l’insurrection royaliste de 1795 ou d’un portrait de Rouget de Lisle en pleine composition de La Marseillaise qui peuvent semer le doute chez observateur, qui n’a pas l’œil et la connaissance aiguisés de l’historien.

Cette reconstitution par Midjourney de l’attaque de la Convention nationale par les royalistes, en 1795, a la patine d’une œuvre à peu près contemporaine.

« Il y a plein de détails anachroniques ou suspects », comme le mobilier, remarque Pascal Dupuy, maître de conférences à l’université de Rouen et spécialiste des images sur la Révolution française. « Si on donne [à l’IA] des sources sur la Révolution française, on risque de la nourrir de tableaux du XIXe siècle, qui comportent déjà eux-mêmes leur lot d’anachronismes », notamment avec les uniformes.

Autre exemple d’incongruité qu’un œil expert saura relever, Claude Joseph Rouget de Lisle y porte la légion d’honneur, alors qu’il ne l’a reçue qu’à la fin de sa vie, sous la monarchie de Juillet, bien après la composition de son célèbre hymne. L’IA n’a certes pas le monopole de l’anachronisme : les toiles du XIXe siècle qui lui servent de référence en sont déjà remplies. Mais Midjourney en génère par milliers.

Cette pseudo-peinture de Rouget de Lisle en train de composer « La Marseillaise » a été générée sur Midjourney, d’où certains détails incohérents. Elle montre néanmoins avec quelle facilité l’histoire peut désormais être mise en image.

Dernier risque, celui que l’IA efface les désaccords entre historiens ou caricature certains personnages historiques complexes. Ainsi de Maximilien Robespierre, que les quelques reconstitutions algorithmiques montrent souvent le visage fermé, menaçant, comme le tyran qu’il est devenu dans une partie de la littérature. Une représentation à contre-courant de son portrait d’époque exposé au Musée Carnavalet, « où il esquisse un sourire, le visage largement ouvert », relève M. Dupuy. En ce sens, ces images peuvent subrepticement orienter notre imaginaire et fausser notre rapport à l’histoire.

Piégés par de pseudo-archives photographiques

Leur effet est particulièrement prononcé quant ils prennent la forme de photographies. Depuis la fin d’avril, une des tendances chez les utilisateurs de Midjourney consiste justement à mettre en scène des curiosités zoologiques avec le style et le grain de clichés des années 1890 à 1920.

Sur le forum Reddit, un utilisateur de Midjourney pressent le danger : « Il y a de quoi faire une chaîne YouTube entière racontant ces faux événements en utilisant ces photos. Et même deux, la seconde expliquant en quoi les événements de la première sont bidons. »

Une des dernières modes sur Midjourney : produire des images fantastiques mais avec la patine d’une photographie du début du XIXᵉ siècle. Ici, le défilé du « dernier des géants ».

Ces facéties aux allures de Guinness des records ont vite attiré l’attention d’internautes en mal d’audience et peu scrupuleux. Comme un compte Twitter baptisé Interesting Channel, qui a glané plus de cent mille visites – le double de son nombre d’abonnés – en présentant une fausse photographie d’équidé géant comme celle, supposément authentique, du « plus grand cheval de l’histoire ».

Des comptes Twitter ont repris de pseudo-faits divers illustrés par des images d’archives artificielles, trompant des millions d’internautes.

La pseudo-photo du « dernier des géants du Néandertal » a fait le tour du monde, sans avertissement sur son caractère factice. « Tandis que la plupart des gens ont clairement relevé que ces images ne pouvaient pas être vraies, une minorité [de personnes] y a cru », déplore le Finlandais Janne Ahlberg, qui gère sur Twitter un compte de veille sur les fausses images, HoaxEye.

Une aubaine pour le discours complotiste

Ce type de production menace d’alimenter les croyances conspirationnistes. Un internaute a ainsi généré une série de fausses archives montrant, de manière humoristique, derrière un impeccable jaune sépia, le « premier contact [avec des extraterrestres] en 1863 ». Une aubaine pour les « chercheurs de vérité » en manque de preuves visuelles, et souvent peu regardant sur leur provenance.

Des séries de fausses images d’archives parodiques sont susceptibles d’être prises au sérieux et d’atterrir dans la sphère conspirationniste.

A la fin d’avril, une photographie factice montrant Stanley Kubrick en plein tournage de la mission Apollo 11 – une rumeur classique dans la complosphère, mise ici en image sous Midjourney – a ainsi été vue plus de 1,5 million de fois sur Twitter, et prise au premier degré. « Les mêmes personnes se font déjà probablement avoir avec des photos “photoshopées” ou des images de synthèse, nuance M. Ahlberg. Mais à l’évidence, l’IA permet de générer bien plus d’images, plus vite, donc il y aura naturellement de plus en plus de contenus trompeurs en ligne. »

Cette « photo » de Stanley Kubrick tournant l’alunissage de la fusée de la mission Apollo 11 a été prise au premier degré par les tenants d’une supercherie de la NASA. Elle est pourtant entièrement factice.

Le phénomène ne remplacera pas forcément les bonnes vieilles images détournées. Au même moment, l’ufologue complotiste Silvano Trotta partageait un cliché authentique de l’ultime mission sur la Lune, en 1972, mais, par méconnaissance de la physique lunaire, il interprétait le peu de traces d’un rover de l’espace pour accuser la NASA de mise en scène. Vraies et fausses images se rejoignent ainsi, dans un concert général croissant de confusion et de désinformation.

Quand l’extrême droite met en image l’histoire

L’étape prochaine consiste à voir des personnalités publiques s’emparer de cette technologie à des fins politiques. Aux Etats-Unis, Eric Trump (le second fils de Donald Trump) a partagé au début d’avril une photographie algorithmique virale, non datée, d’un défilé à la gloire de son père dans les rues de New York.

Le Monde

Offre spéciale

Accédez à tous nos contenus en illimité à partir de 10,99 5,49 €/mois pendant 1 an.

En profiter

En France, le militant d’extrême droite Damien Rieu, candidat Reconquête ! aux dernières élections législatives, a illustré un fil Twitter, le 2 mai, sur la traite des Noirs par les arabo-musulmans avec un tableau artificiel d’un homme en turban, glissé parmi des archives authentiques. « Les négriers arabes attiraient les enfants avec des dattes », légende le politicien. « J’ai utilisé Midjourney car je n’ai pas trouvé d’illustrations ou de tableau avec cette mise en scène du témoignage », explique Damien Rieu auprès du Monde. Il avait d’ailleurs prévenu ses abonnés qu’il recourait parfois à l’IA.

Damien Rieu, cadre de Reconquête !, a partagé sur Twitter une fausse peinture créée avec Midjourney. Elle diffuse une vision fantasmée de la traite esclavagiste en Afrique de l’Est.

Problème : l’image qu’il partage n’est ni fidèle ni neutre. « Elle rejoue les poncifs de l’Arabe esclavagiste avec tous ses attributs permettant de l’identifier : turban, barbe, etc., qui gomment la pluralité des acteurs de la traite et de l’esclavage indo-océanique », note Marie-Aude Fouéré, maîtresse de conférences à l’EHESS et membre de l’Institut des mondes africains, autrice en 2020 d’une étude sur la représentation du marché aux esclaves à Zanzibar.

Dans les commentaires, aucun des abonnés du communicant d’extrême droite – qui avait été poursuivi en 2015 par SOS-Racisme pour « provocation à la haine raciale », avant d’être relaxé – n’a relevé que l’image était une chimère algorithmique, ni ne s’est étonné du procédé.





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.