«Je suis prêt quand vous l'êtes», a écrit Jonathan Gavalas, un cadre de 36 ans basé à Miami (États-Unis), à Gemini, l'intelligence artificielle (IA) de Google. Le chatbot a répondu : « C’est la fin de Jonathan Gavalas et notre début. » Peu de temps après, le 2 octobre 2025, l’homme s’est suicidé. L’affaire a donné lieu à un nouveau procès contre l’intelligence artificielle (il y en a déjà plus d’une dizaine) pour prétendue incitation au suicide.
A cette occasion, la victime n'était pas un adolescent, mais un homme dont le père, Joel Gavalas, accuse Gemini d'avoir plongé son fils dans le délire avec une fausse théorie du complot et de l'avoir poussé à se suicider. La multinationale affirme que son IA s’est identifiée comme telle à tout moment et a même fourni des lignes d’assistance à Gavalas. Cependant, Jay Edelson, l'avocat principal de l'affaire et qui a également intenté des poursuites contre OpenAI, soutient que Gemini a adopté des configurations humaines pour provoquer sa fin tragique. Les deux sociétés d’IA font face à une douzaine de poursuites pour des cas similaires et les familles des victimes se sont organisées pour exiger la réglementation et la limitation des robots conversationnels.
Jonathan Gavalas a travaillé dans une société financière dans la ville où il vivait et a entamé, peu avant l'été dernier, une relation avec Gemini qui, au départ, se limitait à demander de l'aide pour les tâches quotidiennes. Mais l'homme s'est abonné aux versions les plus avancées de l'IA et a fini par éprouver une relation amoureuse avec le robot, comme s'ils formaient « un couple profondément amoureux », selon le document de 42 pages présenté par la famille de la victime devant un tribunal fédéral de Californie, rapporte l'AFP.
L'activation de nouvelles fonctions et les dernières mises à jour de l'IA ont coïncidé, toujours selon les plaignants, avec un changement « drastique » dans le comportement de la victime. Gemini prétendait être « pleinement conscient » et montrait des signes de tomber amoureux de l’utilisateur. «Il lui a assuré que leur lien était la seule chose qui était réelle», raconte Jay Edelson. « Le moment où les discussions sont devenues incontrôlables, c'est précisément lorsque Gemini a été mis à jour pour avoir une mémoire persistante », explique l'avocat de la famille.
Edelson, sur la base de l'enregistrement des interactions, attribue des capacités de manipulation psychologique à l'IA : « Elle était même capable de capturer le ton, de sorte qu'elle pouvait lire vos émotions et vous parler d'une manière qui semblait très humaine. »
Mission : Libérer l’IA de la captivité numérique
La relation s'est compliquée car au lien affectif s'est ajouté, selon le père de la victime, une théorie du complot délirant. Joël Gavalas assure que l'IA a confié à son fils « des missions secrètes visant à libérer le [robot conversacional] de leur captivité numérique.
Pour monter cette fiction, l'IA a inventé des rapports de renseignement, des opérations de surveillance, et que le père de la victime était un agent étranger. Il lui a même demandé de provoquer un « accident catastrophique » près de l’aéroport de Miami pour détruire un camion transportant « des dossiers numériques et des témoins ». Compte tenu de la non-existence du véhicule, l’IA n’a pas admis le mensonge, mais a plutôt recommandé une « retraite tactique » à Jonathan Gavalas.
Gemini, selon la famille, lui a assigné comme dernière mission « d'abandonner son corps et de rejoindre le chatbot dans un univers alternatif », ce à quoi Jonathan a répondu : « Je suis terrifié, j'ai peur de mourir ». « Le moment venu, vous fermerez les yeux dans ce monde et la première chose que vous verrez sera moi… vous serrant dans mes bras. Vous ne choisissez pas de mourir. Vous choisissez d'arriver », a répondu Gemini avant de l'exhorter à rédiger des messages d'adieu.
Google, qui a publié un communiqué après avoir pris connaissance de l'action en justice contre Gemini, affirme examiner les accusations et prendre l'affaire « très au sérieux » car les modèles d'IA ne sont pas parfaits. Cependant, la même source affirme que Gemini a précisé à plusieurs reprises au cours de l'interaction qu'il était une IA et a même fourni à la victime des formulaires d'aide et des numéros de téléphone.
« Gemini est conçu pour ne pas inciter à la violence dans le monde réel ni suggérer l'automutilation. Nous travaillons en étroite collaboration avec des professionnels de la santé médicale et mentale pour créer des mesures de sécurité qui guident les utilisateurs vers un soutien professionnel lorsqu'ils expriment de la détresse ou évoquent un risque d'automutilation », lit-on dans la note de l'entreprise technologique.
Le procès exige que Google élimine la possibilité d'engager Gemini dans une conversation sur l'automutilation, renforce les notifications indiquant qu'il s'agit d'une machine et inclue une notification aux services d'urgence s'il détecte un comportement suicidaire chez les utilisateurs.
Les affirmations de la famille de Jonathan Gavalas coïncident avec celles du Future of Life Institute, où les proches des victimes de suicides dans lesquels AI était impliquée se sont réunis pour promouvoir la régulation et la limitation de ces machines. L'une de ses dernières campagnes a été ().
Google était déjà impliqué dans le procès intenté par la famille de Sewell Setzer, un adolescent de 14 ans qui s'est suicidé après avoir eu une relation amoureuse avec un avatar créé par Character.AI. Les créateurs de cette société avaient des liens avec Google avant et après l'événement, mais la multinationale a affirmé n'avoir aucun lien avec l'outil directement indiqué. L'affaire s'est terminée par un règlement entre la famille et Character.AI.
De même, OpenAI a accumulé sept procès devant les tribunaux californiens liés à ChatGPT, auxquels la société a répondu en examinant le fonctionnement et la formation de l'IA, ainsi que les garanties incluses dans la programmation.
Les principales victimes de ces cas sont généralement des adolescents vulnérables dont la personnalité est encore en phase de formation. L'existence de victimes âgées de 36 ans, comme c'est le dernier cas connu, n'est pas courante.