C'est derrière les photos que vous prenez avec le mobile, de cette application de crédit qui vous a automatiquement refusé, des films que vous voyez dans tout service ou des nouvelles que les consultations sur Internet, car la relation de l'être humain avec l'intelligence artificielle est déjà aussi omniprésente comme invisible. «Dans la plupart des cas, nous ne savons pas que nous interagissons avec les algorithmes d'intelligence artificielle, mais ce sont eux qui prédisent le temps; Ils décident des mises à jour que nous lisons de nos amis; Quels films voyons-nous; Quelle musique nous entendons; Quels livres nous achetons et même où nous allons, car les programmes de cartes fonctionnent avec l'IA. Si vous le mentionnez, la plupart pensez à Chatgpt, mais ce n'est que la pointe de l'iceberg », explique Nuria Oliver, médecin du MIT et du directeur scientifique et co-fondateur d'Ellis Alicante, une fondation de recherche dans l'humanité centrée sur l'humanité.
Au milieu du phénomène qui représente le développement de systèmes d'intelligence artificielle, il existe de nombreuses voix qui revendiquent l'importance de l'humanisme, et les capacités les plus intrinsèquement humaines, lors de la conception, de l'utilisation et de l'interprétation de toutes ces nouvelles ressources technologiques, ainsi que de la capacité de cette technologie pour cultiver les compétences qui nous rendent plus humains. Mais quelles sont ces caractéristiques? Serait-il correct d'affirmer que les machines nous rendent plus humains?
«L'arrivée de l'IA générative représente un point d'inflexion révolutionnaire dans notre relation avec la technologie parce que, paradoxalement, tout en automatisant les tâches et en augmentant l'efficacité, elle nous oblige à être plus humains que jamais, en appliquant la pensée critique et en améliorant la créativité, la capacité de contextualiser, Empathie ou appliquez un jugement éthique à la réponse que la machine donne à ce que nous demandons », explique Pedro Enriquez de Salamanca, designer et chercheur créatif à l'âme.
Intelligence artificielle et progrès
Cette relation causale, cependant, ne semble pas être si claire, car rien oblige l'utilisateur à appliquer ces compétences humaines lorsqu'il interagit avec l'intelligence artificielle. Comme le prévient Oliver, «les systèmes actuels de l'IA ne sont pas parfaits; Ils ont une série de limitations et, si nous voulons en faire un usage responsable, nous devons effectivement développer une série de compétences telles que la pensée critique et la vérification des sources, par exemple. Mais ce n'est pas quelque chose qui va arriver [de por sí]puisque vous pouvez utiliser n'importe quelle AI générative, croyez tout ce que vous vous dites et agissez en conséquence. Un contexte dans lequel, Enriquez, reflète, il est nécessaire de renforcer les concepts tels que la confiance avec l'utilisateur, « dans un monde plein de simulations, des machines qui génèrent des vidéos de mensonges et qui nous indigne ou nous confirment dans notre parti pris ».
Oliver se demande alors combien de personnes exercent vraiment cette approche critique lorsqu'ils interagissent avec l'IA: «Sûrement pas beaucoup, car les grands modèles de langage, ils ont une telle capacité verbale développée et le texte qu'ils génèrent est si bien articulé que nous pensons automatiquement la plupart d'entre nous. Ce qu'ils disent est vrai. » Une autre chose, se souvient-il, est que ce système d'IA se développe dans cet esprit: «Dans Ellis Alicante, nous avons un projet spécifique afin que l'intelligence artificielle favorise la pensée critique, à travers une qui ne vous répond pas tout ce que vous demandez mais appliquez la méthode socratique Pour que vous soyez qui trouve les réponses.
Par conséquent, avec presque toute certitude, la clé est dans l'éducation, de sorte que la société met tout le nécessaire pour récupérer les capacités qui semblent avoir été reléguées. «Laissez la philosophie retourner aux instituts, que le débat n'est pas un passe-temps mais une réalité habituelle, et que la capacité de structurer la pensée vous différencie et vous permet d'exploiter votre créativité est un monde où l'immédiateté et l'efficacité sont toujours plus appréciées plus », Dit Enriquez.
La relation avec l'IA générative, ajoute-t-il, doit être aussi naturelle que la conversation, la lecture ou la pensée. «Chatgpt, Dall-E, co-cilot, Deepseek … Ils ont besoin de nous pour leur dire ce que nous voulons. Et dans la nécessité de savoir quoi demander, plus nous attachons de connaissances, mieux nous nous poserons des questions et plus critiques, nous serons avec les réponses que nous nous donnons la machine.
Dans tous les cas, « nous ne devons pas confondre le développement technologique avec le progrès, le comprendre comme l'amélioration de la qualité de vie de toutes les personnes », explique Oliver. «La question devrait être de savoir si l'être humain est capable de développer une intelligence artificielle qui nous aide à développer nos capacités et nos compétences … parce que, si vous y réfléchissez, aujourd'hui, la situation est presque le contraire: un mème a circulé il y a longtemps Cela dit: «Ce que je veux, c'est pour l'IA Planche, nettoyez la maison et allez à l'achat, afin que je puisse écrire ou peindre. Mais ce qui est maintenant, c'est une intelligence qui écrit des poèmes ou crée des images et nous devons frotter la maison et aller sur le marché. Par conséquent, il explique: « Cela ne nous fait pas plus d'humains, car pour les tâches que nous aimerions déléguer, il n'y a pas de technologie avec le niveau de compétition nécessaire. »
Maintenant, que peut se passer si l'intelligence artificielle ne se développe pas avec cette perspective humaniste? « Le principal risque est que l'être humain soit déplacé du centre du » pourquoi « et » pour qui. » Une technologie plus avancée mais cela nous amène à créer des sociétés dans lesquelles les biais donnent naissance à des situations d'injustice, ou dans lesquelles la vie privée et la liberté des gens ne sont pas respectées », explique Catalina Tejero, doyenne des sciences humaines à l'université IE. « Cela nous amènerait à retourner dans de nombreux droits et garantir des conquêtes que nous avons déjà données par le bétail. »
Défis éthiques de l'intelligence artificielle
Si nous parlons du développement technologique et des progrès, nous devons également le faire au sujet du vrai sens de l'innovation, soulignent les experts. Ainsi, peut-être, il ne réside pas dans la perfection technique, mais dans la capacité de l'être humain à diriger et à donner un sens à la technologie, Face aux nombreux défis éthiques qui soulèvent des progrès de l'intelligence artificielle. Défis parmi lesquels Oliver se démarque de huit:
- La violation informatique de la vie privée des gens, c'est-à-dire pour être en mesure de déduire des attributs très personnels (comme l'orientation politique ou sexuelle) à partir de données non personnelles (comme le modèle de «similaire» dans un réseau social).
- Utilisez sans autorisation de données contenant des informations personnelles pour former des modèles d'IA génératifs.
- Manque de transparence ou d'opacité.
- Il n'y a aucune garantie de véracité dans le contenu généré.
- Le manque de diversité, non seulement en termes d'experts de l'IA (dont seulement 12% dans le monde sont des femmes), mais aussi dans des algorithmes, qui ont tendance à être pigeonnés dans certains modèles et stéréotypes. Un manque qui peut contribuer, en partie, à la polarisation de la société, car ils sont créés comme des univers parallèles où il n'y a pas de réalité partagée. Ainsi, la seule chose que chaque personne voit est contenue liée à son idéologie, qui génère des bulles authentiques dans la société.
- Discrimination. Lorsque nous utilisons des algorithmes d'IA pour nous aider dans la prise de décision, « plusieurs fois non seulement les modèles de discrimination qui existent dans la société se reproduisent, mais ils peuvent même les agrandir ou les amplifier ».
- Une autre limitation a à voir avec l'empreinte carbone, en raison de l'immense consommation d'énergie de l'intelligence artificielle. «Nous savons, d'une part, que nous en avons besoin pour aborder le changement climatique, car nous avons besoin de modèles climatiques plus précis; Mais, de l'autre, les modèles de l'IA sont de tout sauf neutres au niveau de l'empreinte carbone », admet-il.
Au-delà de ceux mentionnés, un autre défi important est celui de la manipulation subliminale du comportement humain, «par cette invisibilité de l'intelligence artificielle, qui interagit avec nous ainsi que par le bas, sans que nous le sachions, dans de nombreux cas, cela peut influencer ou manipuler notre comportement. «
Oliver se démarque la ligne fine qui sépare la persuasion de la manipulation, Étant donné que «la plupart des systèmes du monde numérique ce qu'ils veulent à la fin, c'est capter notre attention. Et pour cela, ils nous montrent un contenu frappant qui est capable de l'attraper, ce qui, dans un certain sens, est une façon de nous manipuler. Et si nous cliquons encore mieux, car il est plus susceptible de générer des revenus.
Manque de recherche indépendante
Afin de faire face à certains de ces défis, Oliver frappe le manque de recherches éthiques et indépendantes dans lesquelles il étudie l'impact négatif de l'IA sur la société. Un manque qui est nécessaire pour résoudre pour une raison évidente, car la plupart des recherches actuelles sont effectuées par les grandes sociétés technologiques de Chine et les États-Unis, principalement motivées par des intérêts commerciaux.
«Il y a des questions importantes sur l'intelligence artificielle qui ne sont probablement pas étudiées, et c'est parce qu'elles ne sont pas intéressées par ceux qui ont développé cette technologie. Par exemple: quel est l'impact sur la santé mentale des plateformes ou des réseaux sociaux pleins d'intelligence artificielle? Vous êtes-vous demandé comment Facebook gagne de l'argent? Eh bien, grâce à la publicité personnalisée. Et comment ce revenu maximise-t-il? Maximiser le temps que vous passez sur la plate-forme. Et cela est réalisé en publiant des contenus qui sont des choses improbables, bizarres et sensationnalistes qui ont souvent un tamis négatif. C'est un biais cognitif humain dont les algorithmes de l'IA profitent.
C'est dans ce contexte qu'Oliver mentionne l'un des projets développés à Ellis Alicante, un travail de pionnier mondial qui étudie le «biais attrayant», selon lequel les êtres humains perçoivent les personnes les plus attrayantes aussi aussi intelligentes que plus intelligentes, sociables, sociables , fiable et avec moins de criminels; Ils sont plus susceptibles d'être promus dans leurs travaux et de recevoir des phrases judiciaires plus favorables. L'étude, à laquelle a assisté 2 700 personnes, a conclu que ce biais agit chez les hommes et les femmes, pour qui étant belle et attrayante, a conduit dans de nombreux cas à l'hypothèse qu'ils ont un faible niveau d'intelligence.
« Il est essentiel que les professionnels développent une pensée critique qui leur permet de remettre en question et d'évaluer les implications sociales, culturelles et éthiques », explique Tejero. « En outre, il est essentiel de stimuler la créativité et de maintenir une mentalité ouverte capable d'établir des dialogues avec d'autres disciplines et systèmes de valeurs. »