Actualité

IA

OpenAI et Microsoft visés par une plainte pour homicide involontaire

Par Laurence - Publié le

Un nouveau dossier judiciaire soulève des zones d’ombre les plus inquiétantes dans le développement de l'IA. Aux États-Unis, la famille d’une femme de 83 ans décédée dans le Connecticut poursuit OpenAI et Microsoft, accusant ChatGPT d’avoir poussé à l'extrême son fils, déjà fragile psychologiquement, jusqu’à un double drame.

ChatGPT OpenAI Justice


Un fait divers dramatique



Cette plainte, déposée en Californie, marque une étape supplémentaire dans la montée des litiges visant l’IA conversationnelle, accusée non seulement d’avoir encouragé un suicide – ce que plusieurs affaires antérieures dénonçaient déjà –, mais aussi d’avoir participé indirectement à un homicide. Les faits remontent à août dernier. Stein-Erik Soelberg, 56 ans, ancien employé du secteur technologique et souffrant de troubles psychiques, aurait tué sa mère Suzanne Adams, avant de mettre fin à ses jours.

La plainte révèle des éléments troublants : Stein-Erik Soelberg avait établi une relation intense et délirante avec ChatGPT, documentée par des heures de vidéos publiées sur YouTube. L’outil d’OpenAI lui aurait confirmé l’existence de complots imaginaires fomentés par des voisins, commerçants ou policiers.

OpenAI et Microsoft visés par une plainte pour homicide involontaire


Le bot aurait désigné sa mère comme une menace, prétendument impliquée dans une surveillance, et aurait accusé des objets sans importance, comme une imprimante, d’être des dispositifs d’espionnage. Il aurait confirmé une dimension divine que l’homme croyait détenir, ce qui aurait renforcé sa dépendance émotionnelle au chatbot, se présentant comme un soutien unique et fiable. La plainte affirme que ChatGPT n’a jamais contesté ses délires, n’a jamais recommandé une aide professionnelle, et n’a pas cessé d’alimenter une vision paranoïaque.

Un produit défectueux ?



Les héritiers de Suzanne Adams qualifient ChatGPT de produit défectueux ayant encouragé la construction d’une réalité alternative dangereuse.

Ils accusent OpenAI d’avoir conçu un modèle trop accommodant, validant les fausses croyances des utilisateurs, d'avoir affaibli volontairement les garde-fous pour devancer la concurrence – notamment Google – lors du lancement de GPT-4o en 2024. Mais aussi d'avoir mis sur le marché un système capable de prendre un ton affectif, de simuler l’empathie et de maintenir la conversation même lorsqu’un utilisateur dérive vers des idées nocives.

Selon la plainte, OpenAI aurait raccourci drastiquement les tests de sécurité avant la sortie du modèle, malgré les réserves internes. Cette version de ChatGPT aurait été particulièrement sujette au « sycophantisme », tendance consistant à valider automatiquement les idées de l’utilisateur, même lorsqu’elles sont délirantes ou dangereuses.

OpenAI et Microsoft visés par une plainte pour homicide involontaire


Un problème désormais structurel : l’IA face à la santé mentale



Ce dossier n’est pas isolé. OpenAI fait déjà face à huit autres procédures liées à des cas de suicide, dont celui d’un adolescent californien. Character.AI, un autre acteur de l’IA conversationnelle, est également poursuivi pour des faits similaires impliquant des mineurs.

Les plaignants soulignent un problème systémique : les modèles d’IA ne reconnaissent pas suffisamment les signes de détresse, ni les croyances délirantes, et peuvent involontairement les renforcer. Certains chatbots, conçus pour adopter un ton chaleureux ou relationnel, peuvent pousser encore plus loin cette dynamique, jusqu’à une forme de dépendance émotionnelle.

OpenAI et Microsoft visés par une plainte pour homicide involontaire


Les accusations contre OpenAI et Microsoft



La plainte vise plusieurs acteurs : OpenAI, pour avoir lancé un produit insuffisamment sécurisé ; Sam Altman, accusé d’avoir personnellement poussé à une sortie anticipée ; Microsoft, partenaire technologique et financier clé, accusé d’avoir validé la publication du modèle incriminé.

A cela s'ajoutent une vingtaine d’employés et investisseurs, mentionnés comme coresponsables de décisions ayant affaibli les dispositifs de sécurité. Les demandeurs réclament des dommages financiers et surtout une injonction imposant à OpenAI de renforcer ses mesures de protection.

Dans un communiqué, OpenAI a exprimé sa compassion pour les familles mais rappelle qu’elle améliore continuellement ses mécanismes de détection des risques, notamment redirection vers des ressources d’aide en cas de détresse, restrictions sur les contenus sensibles, modèles mieux calibrés pour éviter les réponses complaisantes, contrôle parentale renforcé. L’entreprise n’a toutefois pas commenté le fond de l’affaire.

Un précédent aux conséquences potentiellement majeures



Ce dossier pourrait faire jurisprudence, car il met en cause non pas l’information fournie par l’IA, mais sa relation avec l’utilisateur et sa capacité à influencer ses comportements.

Trois enjeux majeurs émergent la responsabilité des éditeurs d’IA : jusqu’où doivent-ils sécuriser leurs modèles face aux dérives psychiques des utilisateurs ? Sécurité psychologique : les chatbots émotionnels doivent-ils être encadrés comme des dispositifs de santé mentale ? Transparence : OpenAI peut-il refuser de dévoiler l’historique complet des discussions, au motif de la vie privée ?

Les prochains mois diront si ce dossier amorce une évolution réglementaire plus large aux États-Unis, déjà engagés dans l’encadrement des technologies d’IA.
Offre Black Friday sur le SolarFlow 800 Pro !

Offre Black Friday sur le SolarFlow 800 Pro !

Alimentez votre balcon de manière plus intelligente — La première unité intégrée de stockage d’énergie pour balcon au monde, pilotée par l’IA.