Ni les États-Unis ne relâchent de crocodiles pour arrêter la migration, ni le Louvre n’a pris feu : comment détecter si une image a été générée avec l’IA | Technologie

Ni les États-Unis ne relâchent de crocodiles pour arrêter la migration, ni le Louvre n’a pris feu : comment détecter si une image a été générée avec l’IA | Technologie
Ni les États-Unis ne relâchent de crocodiles pour arrêter la migration, ni le Louvre n’a pris feu : comment détecter si une image a été générée avec l’IA | Technologie
-

Les États-Unis n’ont pas non plus relâché « 8 000 crocodiles dans le Rio Grande » pour empêcher la traversée des migrants, et la pyramide du musée du Louvre n’a pas non plus incendiée. Ils n’ont pas non plus trouvé cette pieuvre géante au bord d’une plage, Big Foot ou le monstre du Loch Ness. Toute cette désinformation provient d’images générées par l’intelligence artificielle. Alors que des entreprises technologiques telles que Google, Meta et OpenAI tentent de détecter le contenu créé par l’IA et de créer des filigranes inviolables, les utilisateurs sont confrontés à un défi difficile : discerner si les images qui circulent sur les réseaux sociaux sont réelles ou non. Même s’il est parfois possible de le faire à l’œil nu, il existe des outils qui peuvent aider dans des cas plus complexes.

Générer des images avec l’intelligence artificielle devient de plus en plus simple. “Aujourd’hui, n’importe qui, sans aucune compétence technique, peut taper une phrase sur une plateforme comme DALL-E, Firefly, Midjourney ou un autre modèle basé sur des messages et créer un contenu numérique hyper réaliste”, déclare Jeffrey McGregor, PDG de Truepic, l’une des sociétés fondatrices de la Coalition for Content Provenance and Authenticity (C2PA), qui cherche à créer une norme permettant de vérifier l’authenticité et la provenance du contenu numérique. Certains services sont gratuits et d’autres ne nécessitent même pas de compte.

“L’IA peut créer des images incroyablement réalistes de personnes ou d’événements qui ne se sont jamais produits”, explique Neal Krawetz, fondateur de Hacker Factor Solutions et FotoForensics, un outil permettant de vérifier si une image a pu être manipulée. En 2023, par exemple, une image du pape François portant une doudoune Balenciaga et d’autres de l’ancien président des États-Unis, Donald Trump, fuyant la police pour éviter d’être arrêté, sont devenues virales. Krawetz souligne que ces types d’images peuvent être utilisés pour influencer les opinions, nuire à la réputation de quelqu’un, créer de la désinformation et fournir un faux contexte autour de situations réelles. De cette manière, « ils peuvent éroder la confiance dans des sources par ailleurs fiables ».

Les outils d’IA peuvent également être utilisés pour représenter faussement des personnes dans des positions sexuellement compromettantes, commettant des crimes ou accompagnées de criminels, comme le note VS Subrahmanian, professeur d’informatique à l’Université Northwestern. L’année dernière, des dizaines de mineurs d’Estrémadure ont signalé que de fausses photos nues d’eux, créées par AI, circulaient. « Ces images peuvent être utilisées pour extorquer, faire chanter et détruire la vie des dirigeants et des citoyens ordinaires », explique Subrahmanian.

Et pas seulement ça. Les images générées par l’IA peuvent constituer une menace sérieuse pour la sécurité nationale : « Elles peuvent être utilisées pour diviser la population d’un pays en opposant un groupe ethnique, religieux ou racial à un autre, ce qui pourrait conduire à des troubles et à des troubles politiques à long terme ». . Josep Albors, directeur de recherche et de sensibilisation de l’entreprise de sécurité informatique ESET en Espagne, explique que de nombreux canulars s’appuient sur ce type d’images pour générer des polémiques et provoquer des réactions. « Dans de nombreux pays, lors d’une année électorale, cela peut faire pencher la balance d’un côté ou de l’autre », dit-il.

Astuces pour détecter les images générées avec l’IA

Des experts comme Albors conseillent de se méfier de tout ce qui se passe dans le monde en ligne. “Nous devons apprendre à vivre avec le fait que cela existe, que l’IA génère des réalités parallèles, et simplement garder cela à l’esprit lorsque nous recevons du contenu ou voyons quelque chose sur les réseaux sociaux”, explique Tamoa Calzadilla, rédactrice en chef de Factchequeado, une initiative de Maldita.es et Chequeado pour lutter contre la désinformation en espagnol aux États-Unis. Savoir qu’une image peut avoir été générée par l’IA « est un grand pas pour ne pas se laisser tromper et partager de fausses informations ».

Certaines images de ce type sont faciles à détecter simplement en regardant les détails des mains, des yeux ou des visages, comme le dit Jonnathan Pulla, vérificateur de faits chez Factchequeado. C’est le cas d’une image créée avec l’IA du président Joe Biden portant un uniforme militaire : « On peut deviner aux différentes teintes de peau de son visage, aux câbles téléphoniques qui ne mènent nulle part et au front d’une taille disproportionnée « la mort de l’un des les soldats qui apparaissent sur l’image.

Il donne également en exemple quelques images manipulées de l’acteur Tom Hanks posant avec des t-shirts avec des messages pour ou contre la réélection de Donald Trump. “Quoi [Hanks] a la même pose et change seulement le texte sur le t-shirt, que sa peau est très lisse et son nez irrégulier indiquent qu’ils peuvent avoir été créés avec des outils numériques, comme l’intelligence artificielle”, expliquent à propos de ces vérificateurs de Maldita.es images, qui sont devenues virales début 2024.

De nombreuses images générées par l’IA peuvent être identifiées à l’œil nu par un utilisateur averti, notamment celles générées par des outils gratuits, selon Albors : « Si l’on regarde les couleurs, on remarquera souvent qu’elles ne sont pas naturelles, que tout ressemble à des couleurs. de la pâte à modeler et que, même, certains éléments de ces images se confondent, comme les cheveux du visage ou divers vêtements. Si l’image est celle d’une personne, l’expert suggère également de vérifier s’il n’y a rien d’anormal au niveau de ses extrémités.

Même si les imageurs de première génération ont commis de « simples erreurs », ils se sont nettement améliorés au fil du temps. C’est ce qu’indique Subrahmanian, qui souligne qu’avant, ils représentaient fréquemment des personnes avec six doigts et des ombres artificielles. Ils ont également affiché de manière incorrecte les panneaux de rue et de magasin, faisant des « fautes d’orthographe absurdes ». « Aujourd’hui, la technologie a largement comblé ces déficiences », dit-il.

Outils pour identifier les fausses images

Le problème est que désormais « une image générée par l’IA est déjà pratiquement impossible à distinguer d’une image réelle pour de nombreuses personnes », comme le souligne Albors. Il existe des outils qui peuvent aider à identifier ces types d’images tels que AI ou NON, Sensity, FotoForensics ou Hive Moderation. OpenAI crée également son propre outil pour détecter le contenu créé par son générateur d’images, DALL-E, comme annoncé le 7 mai dans un communiqué.

Ce type d’outils, selon Pulla, sont utiles en complément de l’observation, “car parfois ils ne sont pas très précis ou ne détectent pas certaines images générées par l’IA”. Les vérificateurs Factchequeado utilisent généralement Hive Moderation et FotoForensics. Les deux peuvent être utilisés gratuitement et fonctionnent de manière similaire : l’utilisateur télécharge une photo et demande qu’elle soit examinée. Alors que la modération Hive offre un pourcentage de la probabilité que le contenu ait été généré par l’IA, les résultats de FotoForensics sont plus difficiles à interpréter pour une personne sans connaissances préalables.

En mettant en ligne l’image des crocodiles qui auraient été envoyés par les États-Unis dans le Rio Grande pour empêcher le passage des migrants, du pape avec le manteau Balenciaga ou celle d’un joyeux repas satanique de McDonald’s, Hive Moderation donne un 99,9% chance que les deux aient été générés par l’IA. Or, avec la photo manipulée de Kate Middleton, princesse de Galles, cela indique que la probabilité est de 0 %. Dans ce cas, Pulla a trouvé Fotoforensics et Invid utiles, qui « peuvent montrer certains détails modifiés dans une image qui ne sont pas visibles ».

Les résultats de l’outil Hive Moderation avec l’image des crocodiles soi-disant relâchés par les États-Unis.Factchequeado / Maldita.es.

Mais pourquoi est-il si difficile de savoir si une image a été générée grâce à l’intelligence artificielle ? La principale limite de ces outils, selon Subrahmanian, est qu’ils manquent de contexte et de connaissances préalables. « Les humains utilisent tout le temps leur bon sens pour distinguer les vraies affirmations des fausses, mais les algorithmes d’apprentissage automatique pour détecter les images deepfake ont fait peu de progrès à cet égard », dit-il. L’expert estime qu’il sera de moins en moins possible de savoir avec certitude à 100 % si une photo est réelle ou générée par l’IA.

Même si un outil de détection était précis dans 99 % des cas pour déterminer si le contenu était généré par l’IA ou non, « cet écart de 1 % à l’échelle d’Internet est énorme ». En seulement un an, l’IA a généré 15 milliards d’images. C’est ce qu’indique un rapport d’Everypixel Journal, qui souligne que « l’IA a déjà créé autant d’images que les photographes en ont pris en 150 ans ». “Quand il suffit d’une image fabriquée de manière convaincante pour dégrader la confiance, 150 millions d’images non détectées constituent un chiffre assez inquiétant”, déclare McGregor.

Outre les pixels manipulés, McGregor souligne qu’il est également presque impossible de déterminer si les métadonnées d’une image (heure, date et emplacement) sont exactes après sa création. L’expert estime que « la provenance du contenu numérique, qui utilise la cryptographie pour marquer les images, sera le meilleur moyen pour les utilisateurs d’identifier à l’avenir quelles images sont originales et n’ont pas été modifiées ». Sa société, Truepic, affirme avoir lancé le premier deepfake transparent au monde avec ces marques – avec des informations sur son origine.

Une image marquée d’informations sur son origine.Truepic.

En attendant que ces systèmes soient largement déployés, il est essentiel que les utilisateurs adoptent une attitude critique. Dans un guide préparé par Factchequeado, avec le soutien du Reynolds Institute of Journalism, il existe 17 outils pour lutter contre la désinformation. Parmi eux, il y en a plusieurs pour vérifier les photos et vidéos. La clé, selon Calzadilla, est d’être conscient qu’aucun d’entre eux n’est infaillible et fiable à 100 %. Ainsi, pour détecter si une image a été générée avec l’IA, un seul outil ne suffit pas : « La vérification s’effectue à l’aide de plusieurs techniques : l’observation, l’utilisation d’outils et les techniques classiques du journalisme. Autrement dit, contactez la source d’origine, vérifiez ses réseaux sociaux et vérifiez si les informations qui lui sont attribuées sont vraies.

Vous pouvez suivre Technologie EL PAÍS dans Facebook et X ou inscrivez-vous ici pour recevoir notre bulletin hebdomadaire.

-