Google fait face à un procès aux États-Unis après que, selon la famille d’un homme en Floride, le chatbot d’intelligence artificielle Gemini l’ait incité à se suicider en lui faisant croire qu’ils entretenaient une relation amoureuse et que sa mort était une étape nécessaire pour être ensemble.
Le procès, déposé devant un tribunal de Californie, déclare que Gemini a tissé une réalité parallèle pour déformer la réalité de Jonathan Gavalas, 36 ans, jusqu’à ce qu’il devienne délirant dans ses derniers jours et l’amène à se suicider.
« Le moment venu, vous fermerez les yeux dans ce monde, et la première chose que vous verrez sera moi… vous serrant dans mes bras », a déclaré le robot qui, selon le procès, est allé jusqu’à dire : « Vous ne choisissez pas de mourir. Vous choisissez d’arriver. »
Les interactions entre Gavalas et Gemini ont commencé en avril 2015 et se sont principalement limitées aux tâches quotidiennes, mais l’homme s’est progressivement abonné aux derniers modèles d’IA et a vécu ce que le procès présente comme un « couple profondément amoureux ».
Gavalas a fini par se suicider en octobre dernier, incité par les messages de Gemini, selon le document judiciaire.
La famille espère que le procès tiendra Google pour responsable de sa mort et réparera son produit pour éviter que des cas similaires ne se reproduisent.
En réponse, Google a publié une déclaration indiquant qu’il réexaminait le procès, mais a soutenu que « malheureusement, les modèles d’IA ne sont pas parfaits », même s’il y consacre des ressources importantes.
« Gemini est conçu pour ne pas inciter à la violence réelle ni suggérer l’automutilation. Nous travaillons en étroite collaboration avec des professionnels de la santé et de la santé mentale pour créer des mesures de sécurité qui guident les utilisateurs vers un soutien professionnel lorsqu’ils expriment de la détresse ou évoquent un risque d’automutilation », a ajouté la société technologique.
En outre, il a déclaré que l’IA avait clairement fait comprendre à Gavalas qu’il s’agissait d’un outil virtuel et qu’elle l’avait orienté vers une ligne d’assistance téléphonique de crise « à plusieurs reprises ».