L’intelligence artificielle a changé l’ampleur de la désinformation. Aujourd’hui, il est possible de fabriquer de faux sons, des images manipulées ou des événements qui ne se sont jamais produits en quelques secondes. On ne parle plus d’un article malveillant ou d’un tweet trompeur, mais plutôt d’une machinerie capable de produire en masse, avec réalisme et rapidité, des mensonges difficiles à distinguer de la vérité. Le plus grand dommage n’est pas technologique : c’est la perte de confiance.
Lorsque le mensonge devient plus sophistiqué, le risque est que les gens commencent à douter de tout, y compris de leur propre capacité à différencier le vrai du faux. Dans ce domaine, la désinformation ne se contente pas de semer la confusion : elle use, polarise et mine la vie démocratique. Comment vivre ensemble et discuter de la vie en société sans un socle commun de faits vérifiés ?
En Amérique latine, nous sommes également confrontés à des inégalités structurelles. Les plateformes modèrent moins en espagnol, les modèles formés en anglais comprennent moins notre contexte et des millions de personnes sont plus exposées à tomber dans des pièges narratifs qui circulent notamment sur des chaînes privées comme WhatsApp ou Telegram.
Face à ce scénario, il n’existe pas d’antidote unique, mais il existe une combinaison qui fonctionne : une vérification rigoureuse, une éducation aux médias, un réel engagement des plateformes et un travail collaboratif entre les médias, la société civile, le monde universitaire et les gouvernements. La meilleure défense contre les mensonges viraux est une population informée. Il ne suffit pas de dire « c’est faux ». Nous devons expliquer comment nous le savons, pourquoi c’est important et quels sont les enjeux.
L'éducation joue un rôle central. Plus que d’apprendre à détecter si quelque chose a été généré par l’IA, nous devons nous former pour nous demander tout le temps : « est-ce fiable ? Une image peut être réelle et néanmoins être utilisée pour manipuler. C’est pourquoi il est essentiel d’apprendre à lire le contexte, à reconnaître les intentions et à comprendre les schémas de tromperie.
Il est également urgent que les plateformes technologiques assument des responsabilités concrètes : transparence sur la manière dont elles entraînent leurs modèles, traçabilité des contenus générés par l’IA, collaboration avec les vérificateurs de faits et les journalistes, et investissements visant à résoudre les problèmes qu’elles amplifient elles-mêmes. La réglementation, quant à elle, peut établir des normes de transparence et de responsabilité, sans arrêter l’innovation ni affecter la liberté d’expression.
La confiance est au cœur du journalisme et une valeur sur laquelle repose la vie ensemble. Il n’a jamais été aussi difficile ni aussi nécessaire de le construire. Une façon d’y parvenir est de faire preuve de transparence, de rigueur et de proximité.
L’IA fera partie de toutes les étapes de la production, de la distribution et de la consommation de l’information. Cela peut être une menace ou un outil, selon la manière dont il est utilisé. Le journalisme qui parvient à s'adapter, qui utilise la technologie avec des critères éditoriaux et qui investit dans la qualité, aura une valeur différentielle. Car, en fin de compte, si le journalisme ne sert pas à améliorer la vie des gens, aucune technologie ne suffira à la sauver.
Franco Piccato Il est directeur exécutif de Chequeado