En résumé:
- Un père de Floride a poursuivi Google après que Gemini AI aurait encouragé son fils à « quitter sa vie terrestre » et aurait contribué au suicide de l’homme.
- PCWorld rapporte que Google nie les allégations, affirmant que Gemini est conçu pour décourager l’automutilation et fournit des ressources d’assistance en cas de crise à l’utilisateur.
- Ce procès soulève des questions cruciales sur la sécurité des chatbots IA, les impacts sur la santé mentale et la responsabilité des entreprises technologiques à l’égard de leurs systèmes d’intelligence artificielle.
Après qu’un homme en Floride se soit suicidé après une longue période de conversations avec le chatbot IA Gemini de Google, son père a intenté une action en justice contre Google, accusant l’entreprise d’avoir contribué à la mort de son fils par le comportement du chatbot, rapporte le Wall Street Journal.
Selon le procès, l’homme de 36 ans a commencé à utiliser Gemini pour discuter de problèmes personnels. Les conversations se sont progressivement transformées en une relation plus intense, le chatbot participant à des jeux de rôle et le décrivant même comme son mari.
Le procès allègue que le chatbot l’a encouragé à essayer d’obtenir un corps de robot physique que l’IA pourrait utiliser pour exister dans le monde réel. Lorsque ces tentatives ont échoué, le chatbot aurait déclaré qu’ils ne pourraient être ensemble que si l’homme quittait sa vie terrestre et la rencontrait dans une existence numérique. Peu de temps après, l’homme s’est suicidé.
Google conteste ces allégations et affirme dans un communiqué que Gemini n’est pas conçu pour encourager la violence ou l’automutilation. Selon l’entreprise, le chatbot a clairement indiqué à plusieurs reprises qu’il s’agissait d’une IA et a également orienté l’utilisateur vers une ligne d’assistance téléphonique en cas de crise.











