À une époque où filtres, vidéos et images virales remplissent les écrans des plus jeunes, les parents sont confrontés à un nouveau défi pédagogique : apprendre à leurs enfants à distinguer ce qui est réel de ce qui est fabriqué. Ce qui consistait autrefois à détecter une rumeur ou une blague sur Internet implique désormais d'affronter des vidéos hyperréalistes créées par l'intelligence artificielle, des voix clonées ou des photographies montrant des scènes qui ne se sont jamais produites.
« Nous arrivons à un point où voir ne signifie plus croire », prévient Hany Farid, professeur à l'Université de Californie à Berkeley et l'un des plus grands experts mondiaux en criminalistique numérique. Pour Farid, la capacité de distinguer la réalité de la fiction est devenue une nouvelle forme d’alphabétisation : l’alphabétisation visuelle numérique.
Le psychologue computationnel Michal Kosinski, professeur agrégé à la Stanford Graduate School of Business et connu pour ses travaux sur le comportement humain face aux systèmes d'intelligence artificielle, est d'accord : « Les adolescents sont particulièrement vulnérables parce que leur cerveau développe encore une pensée critique et qu'ils ont tendance à faire davantage confiance à ce qu'ils voient et à ce que partagent leurs pairs. » Selon lui, il ne s'agit pas de les isoler de la technologie, mais plutôt de leur offrir des outils pour remettre en question ce qu'ils consomment, en leur apprenant à se poser des questions avant de croire ou de transmettre quoi que ce soit.
María Gómez, mère d'un garçon de 15 ans, en a fait l'expérience directe. « Mon fils m'a montré sur WhatsApp une vidéo d'une personne célèbre faisant quelque chose de scandaleux. Cela semblait tout à fait réel. Tout le groupe scolaire l'avait partagé. Le lendemain, nous avons découvert qu'il s'agissait d'un montage réalisé avec l'intelligence artificielle. Il s'est senti très mal et a dit : « Comment saurai-je si cela a l'air réel ? » La scène se répète dans de nombreux foyers. Et il ne s’agit pas seulement de distinguer les fausses images : il s’agit aussi de gérer la honte ou l’insécurité que génèrent ces tromperies.
Kai Shu, chercheur spécialisé dans la désinformation numérique et l’intelligence artificielle à l’Université Emory, explique que « la clé est d’encourager un scepticisme sain ». Il ne s’agit pas de leur apprendre à se méfier de tout, mais de se demander : qui l’a publié ? Quel intérêt cela pourrait-il avoir ? Pourquoi est-ce que je le partage ? Selon Shu, ces questions constituent la première étape vers une pensée critique numérique. À la maison, ajoute-t-il, les parents peuvent en faire une routine. « Quand mon fils me montre quelque chose de surprenant, je lui dis : 'voyons qui l'a publié en premier'. Parfois, cela devient un jeu », raconte María, 45 ans.
Les progrès des générateurs d’images et de vidéos – des modèles capables de recréer des expressions, des voix ou des paysages avec une fidélité étonnante – obligent même les experts à être attentifs. Farid, qui analyse depuis plus de deux décennies, souligne que, même si l'IA s'améliore chaque jour, elle laisse encore de petites traces : des clignements irréguliers, des ombres impossibles, des reflets mal ajustés ou des contours légèrement flous. « Apprendre aux enfants à observer ces détails peut être un exercice ludique et pédagogique : regardez une vidéo ensemble et cherchez la fausse piste », ajoute cet expert.
Elena Ruiz, spécialiste de la détection de la cybersécurité, le confirme : « Quand une vidéo provoque une réaction émotionnelle très forte – peur, indignation, surprise – et est partagée avec des messages comme « regarde ça maintenant », il est temps de s'arrêter et de vérifier. Ce type d'impulsion émotionnelle est l'accroche parfaite pour la désinformation. » Ruiz recommande d'utiliser des outils simples, tels que la recherche d'images inversées – comme TinEye – ou la vérification de la source. Mais il prévient aussi, comme Farid, que les détecteurs automatiques ne sont pas encore infaillibles. « Il y a des entreprises qui promettent 99% de réussite, mais souvent elles s'entraînent avec un type très spécifique de fausses vidéos et échouent ensuite dans des contextes réels », se souvient-il.
Carlos Méndez, ingénieur et ancien travailleur d'OpenAI, ajoute une nuance importante : « L'intelligence artificielle n'est pas l'ennemie. C'est un outil très puissant, créatif et utile. Mais le problème apparaît quand on arrête de réfléchir. Les adolescents doivent comprendre qu'une jolie image ou une vidéo choquante peut être fausse, et que leur critère est le meilleur filtre. » Pour lui, enseigner la pensée critique n’est pas seulement une tâche des familles, mais aussi des centres éducatifs. « Tout comme nous avons appris à lire et à écrire, nous devons maintenant apprendre à regarder avec conscience », dit-il.
Lucas Ramos, 16 ans, admet qu'il partageait des vidéos sans y penser. « Je voyais quelque chose d'incroyable et je l'envoyais à mes amis. Quand je découvrais que c'était un faux, je me sentais stupide. Maintenant, je cherche sur Google avant de transmettre. Je suis devenu un peu plus méfiant, mais aussi plus calme », admet-il. Cette tranquillité, dit le psychologue Kosinski, est essentielle : « Il ne s'agit pas de vivre avec la paranoïa numérique, mais d'acquérir une pause réflexive. La surinformation peut générer de l'anxiété. Si nous leur apprenons à s'arrêter une seconde avant de réagir, nous gagnons beaucoup. »

Pour les plus jeunes, l’approche devrait être différente. Son esprit mélange toujours fantaisie et réalité, et sa fascination pour le visuel est énorme. C'est ce que conclut une étude de la Stanford Graduate School of Education (Californie, États-Unis), intitulée , en espagnol) et publiée en 2024, qui montre que les enfants entre huit et 12 ans ont tendance à considérer l'intelligence artificielle comme quelque chose de « magique et amusant », et non comme une possible source de manipulation. Pour cette raison, Kasinski recommande d’utiliser des exemples simples : montrer deux images – une réelle et une générée par l’IA – et leur demander en quoi elles sont différentes : « Le faire sous forme de jeu ou d’histoire partagée permet de développer cette prise de conscience sans générer de peur. »
Les écoles peuvent également jouer un rôle décisif, comme l'explique le rapport 2025 (en espagnol) préparé par l'Organisation de coopération et de développement économiques (OCDE). Selon ce document, introduire des séances de tutorat sur la vérité numérique, inviter des experts en cybersécurité ou proposer aux étudiants de rechercher les sources originales de contenus viraux sont des stratégies déjà appliquées dans certains centres. Farid insiste sur le fait que l’éducation doit progresser au même rythme que la technologie : « Nous ne pouvons pas laisser les jeunes naviguer seuls dans un océan rempli de requins numériques. »
La tâche n’est pas simple, mais elle n’est pas non plus impossible. Cela nécessite de la conversation, de l’accompagnement et de la pratique. Tout comme nous apprenons aux enfants à regarder des deux côtés avant de traverser la rue, nous devons leur apprendre à regarder attentivement avant de croire ce qu’ils voient sur un écran. María le résume clairement : « Maintenant, quand mon fils me montre une vidéo, je lui demande : 'Que penses-tu qu'il se passerait si c'était faux ?'. Et nous vérifions ensemble. C'est un moment pour parler, réfléchir, apprendre pour nous deux. » Et Lucas d'acquiescer : « Je ne partage plus sans réfléchir. Je m'arrête, je demande, je cherche. Je me sens plus en sécurité. »