Grégoire Lemarchand : “La désinformation est souvent quelque chose de très simple

Les ITVs de l'IJBA
8 min readDec 6, 2023

--

Crédit : Marius Joly

Propos recueillis par Marius Joly et Marius Caillaud

Rédacteur en chef en charge de l’investigation numérique à l’AFP et adjoint à la rédaction en chef centrale de l’agence, Grégoire Lemarchand analyse les ressorts de la désinformation dans un monde toujours plus connecté. Le journaliste spécialiste du fact-checking s’inquiète de la possibilité de ne bientôt plus pouvoir distinguer le vrai du faux. Pour lui, la désinformation n’a pas attendu l’intelligence artificielle pour faire des dégâts.

Dans un monde de plus en plus connecté et sujet aux fausses informations, quelle place prend le fact-checking à l’AFP et quels sont ses principaux objectifs ?

Grégoire Lemarchand : À l’AFP aujourd’hui, le fact checking et plus largement l’investigation numérique, est une priorité. Parce que quand on est une agence de presse mondiale, compte tenu de la place prise par la désinformation, on ne peut plus faire du journalisme sans prendre en compte cette dimension. L’investigation numérique à l’AFP, c’est 140 journalistes dans le monde entier. Avec un travail en 26 langues et une particularité, celle de s’adresser directement au grand public, contrairement aux autres services de l’agence. Quand vous entendez vous attaquer à la désinformation qui sait très bien jouer des ressorts de viralité des réseaux sociaux, il faut toucher directement les gens auxquels on s’adresse. On a besoin de ce genre de moyens parce que quel que soit le sujet abordé, la fausse information vient en quelque sorte pourrir l’atmosphère, donc il faut essayer de s’y attaquer autant que possible.

Ensuite, oui il faut s’adapter parce que la désinformation change. Ses émetteurs et ses outils ne sont plus les mêmes, mais en fait désinformer reste souvent quelque chose de très simple. Un tweet lambda, sans source qui diffuse une fausse information peut déjà avoir énormément d’effets et être massivement repris. Il suffit de prendre une vieille photo d’il y a quatre ans et de dire que cela s’est passé hier. Cela prend trente secondes à faire, et c’est extrêmement efficace. Donc il ne faut pas trop fantasmer le côté technique de la chose. La plupart du temps, le fact-checking cela reste basiquement du journalisme, avec le besoin de savoir passer les bons coups de fil, de trouver les bonnes sources. Certes, l’essor de l’intelligence artificielle pose de nouveaux défis et il va falloir s’y préparer mais depuis que l’AFP a investi le fact-checking, la désinformation n’a pas fondamentalement changé et ce sont souvent des choses très simples qui ont le plus d’effet.

En conférence de rédaction, comment hiérarchisez-vous les sujets à traiter ?

G. L. : Comme n’importe quel journaliste, qui se retrouve face à plusieurs actualités, on doit faire des choix. Et cela se fait vraiment au cas par cas, il n’y a pas de critère purement quantitatif avec un nombre de partage requis par exemple. Il y a plein de choses à prendre en compte. D’abord, est-ce que la fausse information repérée est partagée ? Si on voit une fausse information qui a deux partages en une semaine, ça ne vaut sans doute pas le coup. Mais pour autant, si une fausse information n’est pas très partagée mais qu’elle a le potentiel pour devenir virale et véhicule un discours problématique, là on va sans doute la traiter.

Évidemment, aujourd’hui, quand on fait face à une actualité aussi violente et dramatique que le conflit entre Israël et le Hamas, cela devient un sujet prioritaire parce qu’on sait que les fausses informations, hélas, vont certainement véhiculer un discours antisémite ou islamophobe. Mais on ne va pas forcément trouver un post très viral, mais plutôt des centaines d’occurrences de la même fausse information. Dans ce cas-là, c’est intéressant de fact-checker.

Le conflit entre Israël et le Hamas ces dernières semaines a été particulièrement sujet aux fausses informations et aux informations biaisées. Comment arriver à fact-checker un sujet aussi sensible sans prendre position ?

G. L. : C’est facile à dire, mais il faut essayer de rester le plus factuel possible. Ne pas faire de jugement, et directement rappeler les faits. Par exemple, montrer qu’une vidéo peut être une mise en scène, qu’elle a été tournée il y a six ans en Syrie et qu’elle ne montre pas des morts du conflit actuel. En revanche, il faut immédiatement rappeler dans quel contexte cela arrive. Même si vous « debunker » une vidéo qui est censée montrer des gens morts à Gaza et que la vidéo a été tournée en Syrie il y a six ans, dès la première ou la deuxième phrase, il faut rappeler que cette fausse information intervient dans un certain contexte et que dans la bande de Gaza, depuis le début du conflit, on a dépassé les 10 000 morts. Il faut toujours recontextualiser et c’est ce qu’on fait à chaque fois à l’AFP Factuel.

Fact-checker des fausses informations sur ce conflit n’est absolument pas nier sa réalité et dire que les morts de certaines vidéos n’ont pas eu lieu pendant le conflit n’enlève pas le fait que des milliers de personnes ont déjà été tuées. Il faut toujours rappeler ce qu’il s’y passe.

Ce conflit a été la source d’images extrêmement violentes. A -t-il été particulièrement difficile à couvrir ?

G. L. : Quand vous êtes fact-checkeur, vous voyez hélas dans votre quotidien beaucoup d’images violentes. Que ce soit par les réseaux de l’AFP ou directement par des internautes qui nous envoient des vidéos pour savoir si cela s’est vraiment passé. Malheureusement, on est confronté à ça très souvent. Mais depuis le 7 octobre, la situation a été décuplée. C’est compliqué, il faut travailler avec. Mais on fait aussi très attention. Si un journaliste, ou une journaliste, ne souhaite pas voir une vidéo, il ne sera évidemment pas forcé. Ensuite, on ne regarde que les vidéos où la vérification a véritablement un intérêt. On m’a par exemple posé la question de savoir si on avait vérifié toutes les vidéos du Hamas tournées à la GoPro. Personne ne contredit ces vidéos ou ne les utilisent pour diffuser de fausses informations donc on ne va pas faire de fact-check dessus.Par contre, on peut utiliser certaines vidéos pour faire de l’investigation numérique. Une enquête, non pas pour démontrer que c’est faux, mais au contraire pour expliquer ce qu’il s’est passé. Tous les outils numériques que nous avons pour debunker, nous servent aussi à raconter le vrai et pas uniquement à démonter le faux.

Vous luttez contre la désinformation sur les réseaux sociaux par le biais de partenariat avec les plateformes (Facebook, WhatsApp, Instagram, Tik-Tok, Google). Pourquoi ne collaborez-vous plus avec X (anciennement Twitter) qui est pourtant un des espaces où, la désinformation circule le plus, notamment depuis l’arrivée d’Elon Musk ?

G. L. : Nous avions des partenariats avec la plateforme, mais quand Elon Musk est arrivé, il a tout arrêté. C’est simple, les gens qui travaillaient dessus ont été licenciés. Ça a été radical. On continue à être sur X pour monitorer, regarder ce qu’il s’y passe et publier nos fact-checks mais on ne collabore plus du tout avec eux. Avec Elon Musk, le réseau est devenu la plateforme parfaite pour se radicaliser. Les utilisateurs y sont très polarisés, très biaisés et l’algorithme tel qu’il est conçu aujourd’hui par X n’a fait qu’amplifier cette tendance qui existait déjà. On y retrouve souvent des gens avec des idées très affirmées, donc soit hermétiques aux fausses informations, soit des gens très perméables sur le sujet. Aujourd’hui, je pense qu’en terme de lutte contre la désinformation, je ne vais pas dire que Twitter est perdu pour la cause, mais il faut regarder ce qu’il se passe ailleurs. Sur Tik-Tok, sur Instagram, il y a beaucoup de jeunes qui consomment de l’actualité mais qui sont aussi des cibles potentielles pour les fausses informations. C’est une population moins biaisée, moins radicalisée et il est important de pouvoir toucher ces personnes-là.

L’IA est-elle actuellement un outil dans vos cellules de fact checking ? Pourrait-elle le devenir face à la recrudescence de la désinformation ?

G. L. : J’espère que l’intelligence artificielle pourra être un outil utile contre la désinformation mais force est de constater qu’on n’en a pas vraiment trouvé l’usage aujourd’hui. On pourrait imaginer que des outils basés sur l’intelligence artificielle puissent nous aider à debunker plus vite en allant chercher de la data, des informations dans des publications scientifiques par exemple. On peut imaginer qu’elles puissent aussi nous aider à mieux comprendre la circulation d’une fausse information. Mais quand Open AI lance ChatGPT c’est qu’ils savent qu’ils vont pouvoir gagner de l’argent avec. Des outils d’intelligence artificielle pour les fact-checkeurs ne représentent pas un vrai marché pour les gros du secteur, donc ça complique le fait de développer ce genre de choses.

Depuis la création de Chat GPT et Midjourney, de nombreuses créations d’intelligences artificielles apparaissent sur les réseaux sociaux et brouillent la frontière entre ce qui relève de l’homme et de la machine. Comment est-ce que l’on fact-check des contenus générés par des IA ?

G. L. : C’est un nouveau défi parce qu’on sait que l’IA générative a un potentiel extrêmement fort. Aujourd’hui, des images générées par exemple par Midjourney vont avoir un certain nombre d’imperfections, des doigts en plus, des bizarreries, un grain spécifique… Mais avec l’évolution de ces outils il y a bien un moment où on arrivera à une quasi perfection. Comment fera-t-on à ce moment-là ? Je n’ai pas la réponse. Ce qui me paraît le plus dangereux aujourd’hui, ce sont les audios générés par IA. Avec une image, vous avez des éléments concrets à analyser, mais pour la voix c’est beaucoup plus compliqué. Et il y a déjà des deepfake audio très convaincants. En Slovaquie, un deepfake audio censé montrer une collusion entre un journaliste et un des candidats a énormément circulé. Le candidat de l’opposition a perdu. C’est difficile à mesurer mais on peut dire que cette affaire a joué un rôle dans le scrutin. Tout cela fait partie des défis auxquels nous sommes confrontés. Nous avons un Media Lab qui travaille sur ces questions et qui essaye de trouver des solutions mais c’est un peu comme la lutte contre le dopage, à chaque avancée, il y a un nouveau produit qui sort.

Est-ce que vous pensez qu’à court terme, on ne pourra plus distinguer ce qui relève de l’humain et de l’IA ?

G. L. : Il y a clairement un moment où ça va devenir extrêmement difficile. Après, est-ce que ce sera dans deux ans ? Dans six mois ? Je n’en sais rien. En revanche, je pense qu’il faut peut-être renverser la réflexion. C’est-à-dire, à défaut de pouvoir détecter le faux, est ce qu’il ne faudra pas plutôt s’assurer du vrai ? C’est très théorique mais entre une vraie photo et une photo générée par IA il faudrait peut-être réussir à donner à la vraie photo une sorte de certification, une métadonnée inviolable qui attesterait de sa véracité. Celle qui a été faite par intelligence artificielle, on aura peut-être plus la certitude qu’elle est fausse, mais en tout cas on n’aura rien qui nous indiquera qu’elle est réelle. Il faudra que ceux qui nous permettent de faire des images, Apple, Samsung et les autres se mettent d’accord. L’aspect technique de la chose est hors de mes compétences mais ça peut être une solution d’avenir quand on voit le degré de sophistication de l’IA générative aujourd’hui.

--

--

Les ITVs de l'IJBA
Les ITVs de l'IJBA

Written by Les ITVs de l'IJBA

Vous trouverez sur ce site les interviews réalisées par les étudiants en M1 à l'IJBA dans le cadre des Tribunes de la Presse de Bordeaux

No responses yet