Il est très difficile de fonctionner dans une société où les algorithmes sont de plus en plus présents, si nous ne sommes pas capables de les comprendre. Et je ne fais pas référence aux compétences numériques traditionnelles, ni à la programmation avancée. De même que savoir lire et écrire était indispensable à l’autonomie personnelle ou à l’exercice d’une pleine citoyenneté, à l’heure où l’intelligence artificielle sera partout, la littératie algorithmique nous permettra de continuer à être libres. Sinon, il y aura deux catégories de personnes, celles qui peuvent utiliser les algorithmes et celles qui sont utilisées par eux.
La citoyenneté numérique vers laquelle nous nous dirigeons nécessite de nous éduquer à ce nouveau contexte où les phrases ont été remplacées par des lignes de code. Les systèmes automatisés se sont répandus rapidement. Chaque fois qu’ils décident ou influencent plus d’aspects de nos vies. C’est un espace encore opaque, invisible. Il y a un manque général de connaissances sur ce qu’ils sont, où ils sont utilisés, pour quoi et quels sont leurs impacts. Il n’y a pas non plus, pour le moment, d’audits ou de normes garantissant sa qualité. Comment une personne peut-elle décider si elle est d’accord avec les règles de décision intégrées à l’intelligence artificielle qui contrôle sa vie sans la comprendre ? L’opinion publique et politique découvre son existence lorsque le scandale éclate, comme dans le cas du gouvernement des Pays-Bas, reconnu coupable d’avoir violé les droits de l’homme en utilisant un algorithme contre ses propres citoyens.
Les chiffres parlent d’eux-mêmes. Plus de 90 % de toutes les recherches dans le monde passent par le même site : Google. Chaque jour, des milliards de personnes font confiance à leur algorithme pour tout. C’est une voie à double sens, le web donne des informations en échange de nos données, en sommes-nous conscients ? Connaissons-nous des moyens de nous protéger ? Et pour influencer l’algorithme ? Si vous ne comprenez pas comment cela fonctionne, vous pouvez vous retrouver piégé dans une bulle de préférences dans laquelle votre vision du monde se réduit progressivement. Et ce dont nous n’avons pas besoin, justement, ce sont plus de tranchées. Et qu’en est-il des modèles génératifs d’intelligence artificielle comme ChatGPT qu’en cinq jours, il a obtenu un million d’utilisateurs -Netflix a pris plus de trois ans-. Sommes-nous préparés en tant que société à détecter ces contenus qui ne sont pas conformes à la réalité ? Comprenons-nous, même de manière basique, comment ce modèle apprend ?
La littératie algorithmique peut être définie comme la capacité à être conscient de l’utilisation des algorithmes dans les applications, les plateformes et les services en ligne. Comprendre comment ils fonctionnent, être capable d’évaluer de manière critique la prise de décision, avoir les compétences nécessaires pour gérer des opérations algorithmiques ou même les influencer. Rappelons qu’un algorithme est un ensemble de règles ou d’ordres dont l’utilisation s’est intensifiée avec l’intelligence artificielle. En fait, il y a déjà une génération qui n’a connu qu’un monde médiatisé par eux et qui est en quelque sorte dirigée par les données qu’ils collectent, puisque leurs préférences conditionnent ce qui leur est montré sur les écrans. Qui les aide ?
Les algorithmes sont partout, ils s’intègrent dans nos structures socio-économiques actuelles et dans d’autres aspects de la vie quotidienne, y compris le travail universitaire. Ce n’est pas une chose négative, au contraire, son application à grande échelle a eu un effet net positif. Les gens peuvent être plus productifs, en savoir plus sur plus de sujets que jamais auparavant, repérer les tendances ou mieux comprendre le monde qui les entoure. Nous découvrons de nouvelles façons de nous relier à notre créativité et à nos connaissances grâce aux dernières avancées génératives. Et cela n’ira que plus loin. C’est précisément pour cela que nous devons avoir les compétences de conduite nécessaires qui nous permettent de contrôler la machine et non l’inverse. Il est temps d’avancer dans la connaissance de la technologie et ainsi de redistribuer le pouvoir de ceux qui la contrôlent.
Comme toujours, les écoles et les centres éducatifs ont un rôle fondamental. Il faut commencer par le début. Confidentialité et comment gérer les paramètres afin que la confidentialité soit préservée. Suivez comment nous sommes informés, comment il est recherché; pourquoi vous voyez ce que vous voyez et l’ordre dans lequel vous le faites. Il serait intéressant que les étudiants réfléchissent à leur façon d’enquêter pour apprendre à être plus critiques et à maîtriser l’intention dans le processus.
La société doit pouvoir raisonner sur les algorithmes et leurs processus ; évaluer leur influence, comprendre l’effet qu’ils ont dans les contextes sociaux, culturels, économiques et politiques ; et, in fine, faire de la personne un co-décideur. Nous devons être mieux équipés pour une réalité dans laquelle ces systèmes automatisés sont délégués. En fin de compte, le besoin de littératie algorithmique découle de la nécessité de partager le pouvoir. Les algorithmes, notamment ceux qui utilisent et , sont complexes, opaques, invisibles et protégés par la propriété intellectuelle, mais surtout, ils ont des conséquences sur la vie des gens. Le contrôle appartient à ceux qui les créent et les déploient, pas à ceux qui les utilisent. Et c’est cela qu’il faut changer. Il ne s’agit pas d’apprendre à écrire du code, il s’agit d’être une partie active de la conception sociale qui est codifiée dans la technologie.
Abonnez-vous pour continuer à lire
Lire sans limites