le Jeudi 1 juin 2023
le Vendredi 28 avril 2023 16:05 Fédéral

N’importe qui peut détecter des images créées par l’IA ? Pour l’instant

N’importe qui peut détecter des images créées par l’IA ? Pour l’instant
00:00 00:00

Le pape dans un manteau blanc, Donald Trump en état d’arrestation, Emmanuel Macron dans un bain de boue… Les images créées par l’intelligence artificielle, fausses mais troublantes de réalisme, se sont multipliées ces dernières semaines. Le Détecteur de rumeurs explique qu’il est néanmoins, pour l’instant, relativement facile de déterminer qu’il s’agit d’une fausse image.

Agence Science-Presse – Pascal Lapointe 

1— Les réflexes de base continuent de s’appliquer

Vérifier la source avant de partager une information — qu’il s’agisse d’un texte ou d’une image — et chercher une deuxième source si l’on a des raisons d’avoir des doutes.

Pour commencer, les réflexes de base pour discerner le faux du vrai restent les mêmes : vérifier la source avant de partager une information — qu’il s’agisse d’un texte ou d’une image — et chercher une deuxième source si l’on a des raisons d’avoir des doutes.

Ce sont ces mêmes réflexes sur lesquels on insiste depuis quelques années dans les formations de lutte contre la désinformation, que ce soient celles du Détecteur de rumeurs, l’atelier 30 secondes avant d’y croire ou les outils créés en France et ailleurs. Les avancées fulgurantes de l’intelligence artificielle (IA) montrent que l’acquisition de ces réflexes est encore plus importante qu’auparavant.

Vérifier la source : qui est derrière le compte Facebook, Instagram, TikTok ou autre, de cette photo ? Cette personne s’identifie-t-elle ? A-t-elle un site web sur lequel on peut trouver une page «qui sommes-nous» (en anglais, about us). Si cette photo a été publiée par un inconnu, méfiance*.

Chercher une deuxième source : à l’évidence, si Donald Trump avait été arrêté ou si Emmanuel Macron s’était baigné dans la boue, quantité de médias en auraient parlé, en quelques minutes.

Donald Trump face à la police. Photo – Midjourney

2— La recherche d’image inversée reste la technique à privilégier

Si la personne qui nous a partagé cette photo n’en est pas l’auteur, il est relativement facile d’en retracer l’origine par une technique appelée recherche d’image inversée. Le Détecteur de rumeurs en parlait ici.

Cette procédure ne prend que quelques secondes. Sur l’écran de l’ordinateur, il suffit de faire glisser l’image suspecte depuis sa page vers celle de Google Images ou, par exemple, de TinEye. Sur le téléphone, on peut télécharger l’image, mais avec Google, il faudra aussi avoir l’application (gratuite) Google Lens, pour chercher dans notre photothèque.

On peut aussi chercher une image à partir de son URL : sur l’ordi, il faut appuyer sur le bouton de droite de la souris et sélectionner «Copier l’adresse de l’image». Sur le téléphone, avec la plupart des navigateurs, il faut appuyer sur la photo et, dans le menu qui apparaît, sélectionner Partager, puis Copier.   

Pour plus de détails, ce texte des Décrypteurs de Radio-Canada ou cette vidéo de l’Agence France-Presse (en anglais) ou celle-ci de notre collègue Camille Lopez.

Si la photo a déjà été abondamment rediffusée, il faudra peut-être cliquer sur quelques-unes avant de trouver l’originale. La fonction «Voir la source de l’image» permet de restreindre les résultats, mais ne conduit pas nécessairement à la source originale.

Dans le cas de fausses photos devenues virales, il est probable que vous remarquiez tout de suite, parmi les résultats de votre recherche, des médias ou des individus qui ont d’ores et déjà signalé qu’il s’agit d’une fausse photo, preuves à l’appui. Dans le cas des fausses photos de Trump, du pape ou de Macron devenues virales en mars 2023, il s’agissait d’images générées par la dernière version d’une IA appelée Midjourney : elle fait, pour l’image, l’équivalent de ce que fait ChatGPT pour le texte, c’est-à-dire créer une image à partir d’une requête.

L’auteur lui-même peut s’être identifié. Dans le cas de la fausse arrestation de Donald Trump, il s’agit d’Eliot Higgins, fondateur du média d’enquête Bellingcat, le 20 mars 2023, avec l’aide du logiciel Midjourney.

Le pape dans un manteau de marque Balenciaga. Photo – Pablo Xavier – Midjourney

Quant à la «photo» du pape dans un manteau de marque Balenciaga, elle a été publiée le 24 mars sur le sous-forum de la plateforme Reddit consacré à Midjourney, en compagnie de trois autres images (Midjourney en crée quatre pour chaque requête). L’auteur, qui a été interviewé par BuzzFeed le 27 mars, s’est dit surpris que tant de gens soient tombés dans le panneau. C’est «définitivement apeurant» que «des gens aient pensé que c’était vrai sans se questionner».

Enfin, il faut savoir qu’au moins une IA place une «signature», sous la forme d’une discrète bande multicolore, en bas à droite de toutes ses images. Il s’agit de DALL-E, qui avait commencé à faire sensation sur Internet dès l’été 2022. Une pratique dont le Détecteur de rumeurs aimerait bien qu’elle soit imposée aux autres : une signature ne solutionnerait pas tous les problèmes de désinformation, mais elle les atténuerait.

Il faut savoir qu’au moins une IA place une «signature», sous la forme d’une discrète bande multicolore, en bas à droite de toutes ses images. Photo – DALL-E

3— Repérez ce que l’IA n’est pas encore capable de faire

Différents médias ayant examiné en mars 2023 les photos générées par IA ont tous remarqué les mêmes défauts : des objets qui défient les lois de la gravité, des inscriptions incompréhensibles, des ombres ou des reflets irréalistes… et des mains qui ont six doigts.

Le point commun à tous ces défauts : l’IA voit des pixels, mais elle ne les comprend pas. De la même façon que ChatGPT voit des séquences de mots et prédit la plus probable, Midjourney, DALL-E et les autres voient des assemblages de pixels et font «simplement» des prédictions à partir de là.

S’il s’agit de produire un visage déjà apparu sur des millions de photos, comme le pape, c’est facile. Mais s’il s’agit de produire une main qui est souvent à moitié cachée, ou floue, parfois ouverte, parfois fermée, parfois à moitié fermée, le risque d’erreur est plus élevé.

Les mains aberrantes sont devenues des erreurs si typiques qu’elles ont engendré des mèmes cet hiver.

Problème similaire avec toute image qui implique de la profondeur. L’IA voit deux dimensions — longueur et largeur des objets — mais ne comprend pas ou ne sait pas comment interpréter la troisième dimension, expliquait en février l’informaticien Peter Bentley, du Collège universitaire de Londres, dans un reportage de la BBC. «Ces modèles sont séparés de la réalité, ils n’ont ni la connaissance ni la capacité à considérer le contexte d’une image. Ils ne font que combiner le tas de données que nous leur envoyons.»

C’est ainsi qu’une IA a correctement reproduit un parasol tenu par le pape sur une plage, mais qu’elle a ignoré qu’un parasol ne peut pas être planté dans le ventre du pape. Ou qu’elle a produit ce qui ressemble à une tasse de café, mais tenue à l’envers. Ou qu’elle présente des ombres ou des reflets qui ne collent pas à la réalité (voir d’autres exemples iciici et ici). Ces erreurs, résumait le 27 mars le journaliste James Vincent, spécialisé en IA, sont «des produits d’un système qui connaît la surface de la réalité, mais pas les règles sous-jacentes qui gouvernent les interactions entre les objets du monde physique».

Enfin, les inscriptions, comme celles sur les casques des policiers, posent un problème particulier. Le robot voit une série de pixels et tente de reproduire la «forme» la plus probable, mais il n’a manifestement pas «compris» que cette «forme» devait avoir une signification : qu’il s’agisse d’un logo ou d’un acronyme.

Et quand bien même le saurait-il, encore faudrait-il qu’on ait inscrit dans sa programmation les acronymes et les logos de toutes les polices du monde… et de toutes les équipes sportives. C’est la raison pour laquelle on se retrouve avec des séquences de lettres qui n’ont pas de sens… comme sur la couverture d’un livre que lit Donald Trump en prison.

Donald Trump en prison. Photo : Eliott Higgins via Midjourney

Parfois, un outil de grossissement, l’équivalent virtuel d’une loupe, peut aider : ainsi, Invid-WeVerify permet de «zoomer» sur la main, l’objet ou l’inscription bizarre. Ou sur l’arrière-plan, tant le robot semble encore brouillon sur les détails formant un décor qui ne lui est pas familier.

Verdict : pour l’instant…

Inévitablement, l’IA va s’améliorer. Le cas des mains semble indiquer que certains détails, auxquels on n’aurait pas pensé a priori, sont plus difficiles à corriger que prévu. Mais pour l’instant, tout laisse croire que, tôt ou tard, ce sera corrigé.

Il n’est pas impossible que d’autres IA soient développées avec la capacité de détecter les erreurs typiques des IA, mais là encore, rien ne permet de croire que ces erreurs ne pourront pas elles aussi être corrigées.

La solution idéale serait l’obligation d’imposer une signature sur les images générées par IA. Mais encore faudrait-il pour cela une entente internationale.

En attendant, utiliser son esprit critique et vérifier la source avant de partager une image restent les meilleures défenses contre la diffusion de ces images trafiquées. Pour ne pas ajouter soi-même à la désinformation !

Cet article fait partie de la rubrique du Détecteur de rumeurscliquez ici pour les autres textes.

Agence Science-Presse : sciencepresse.qc.ca

Lien vers l’article original : tinyurl.com/3v9j398m

Glossaire – Méfiance* : sentiment de dout, de suspicion