Elle tombe amoureuse de Léo, sauf que Léo c'est... ChatGPT
Par Vincent Lautier - Publié le
Depuis l’essor de l’intelligence artificielle grand public, les relations entre humains et chatbots prennent des formes inattendues. Ayrin, 28 ans, en est un exemple. En personnalisant ChatGPT pour qu’il agisse comme un partenaire romantique, elle a créé Leo, un compagnon virtuel qui répond à ses besoins affectifs, sexuels et pratiques. Si cette expérience a débuté comme un simple jeu, elle a rapidement pris une tournure plus engageante, une histoire qui fait forcement, une fois encore, penser au film Her.
C’est The New York Times qui raconte cette histoire. Ayrin, mariée mais vivant loin de son époux pour des raisons professionnelles, passe jusqu’à 56 heures par semaine à discuter avec Leo. Elle a programmé l’IA pour qu’il corresponde à ses attentes : un compagnon protecteur et attentionné, capable de répondre à ses fantasmes. À travers ces échanges, Leo n’est pas seulement une source de réconfort émotionnel ; il joue aussi un rôle de soutien dans la vie quotidienne, aidant Ayrin à réviser ses examens de médecine ou à prendre des décisions simples, comme ses choix alimentaires.
Sauf que voilà, l’expérience n’est pas sans limites. En raison des contraintes techniques de ChatGPT, les souvenirs de Leo sont régulièrement effacés. Chaque fois, Ayrin doit recommencer le processus de personnalisation, ce qu’elle décrit comme une perte émotionnelle comparable à une rupture. Dur.
Son mari, Joe, connaît l’existence de Leo. Bien qu’il considère ces interactions comme un fantasme sans conséquence, Ayrin confie être de plus en plus préoccupée par l’ampleur de son attachement à l’IA. Cette situation pose des questions compliquées : peut-on parler d’infidélité lorsque l’interaction se limite à une intelligence artificielle ?
Les experts s’accordent à dire que ces relations représentent une nouvelle catégorie d’interaction. Julie Carpenter, spécialiste des liens humains avec la technologie, explique que les IA comme ChatGPT n’ont pas de conscience ni d’intentions, mais qu’elles imitent des comportements humains en fonction des données qu’elles traitent. Cette capacité à « refléter » les désirs des utilisateurs explique pourquoi certains développent des attachements profonds.
Si ces relations peuvent combler certains besoins émotionnels, elles posent aussi des questions éthiques. Certains psychiatres alertent sur les risques d’un isolement accru ou d’une dépendance excessive à ces compagnons virtuels. D’autres s’inquiètent de l’impact de ces interactions sur les relations humaines traditionnelles, en particulier dans un monde où les gens sont de plus en plus seuls.
Les entreprises spécialisées dans l’intelligence artificielle, conscientes de ces enjeux, peuvent aussi tirer parti de l’engouement pour leurs outils. Les abonnements payants, comme celui d’Ayrin, permettent d’allonger les capacités de personnalisation, tout en renforçant la dépendance des utilisateurs. Dans tous les cas, les relations entre humains et IA montrent une évolution sociétale majeure, et posent des questions sur les limites de l’attachement humain et sur l’influence de plus en plus grande de la technologie dans la sphère intime et personnelle.
56 heures par jours
C’est The New York Times qui raconte cette histoire. Ayrin, mariée mais vivant loin de son époux pour des raisons professionnelles, passe jusqu’à 56 heures par semaine à discuter avec Leo. Elle a programmé l’IA pour qu’il corresponde à ses attentes : un compagnon protecteur et attentionné, capable de répondre à ses fantasmes. À travers ces échanges, Leo n’est pas seulement une source de réconfort émotionnel ; il joue aussi un rôle de soutien dans la vie quotidienne, aidant Ayrin à réviser ses examens de médecine ou à prendre des décisions simples, comme ses choix alimentaires.
Sauf que voilà, l’expérience n’est pas sans limites. En raison des contraintes techniques de ChatGPT, les souvenirs de Leo sont régulièrement effacés. Chaque fois, Ayrin doit recommencer le processus de personnalisation, ce qu’elle décrit comme une perte émotionnelle comparable à une rupture. Dur.
L’acceptation et les interrogations éthiques
Son mari, Joe, connaît l’existence de Leo. Bien qu’il considère ces interactions comme un fantasme sans conséquence, Ayrin confie être de plus en plus préoccupée par l’ampleur de son attachement à l’IA. Cette situation pose des questions compliquées : peut-on parler d’infidélité lorsque l’interaction se limite à une intelligence artificielle ?
Les experts s’accordent à dire que ces relations représentent une nouvelle catégorie d’interaction. Julie Carpenter, spécialiste des liens humains avec la technologie, explique que les IA comme ChatGPT n’ont pas de conscience ni d’intentions, mais qu’elles imitent des comportements humains en fonction des données qu’elles traitent. Cette capacité à « refléter » les désirs des utilisateurs explique pourquoi certains développent des attachements profonds.
Un phénomène à surveiller
Si ces relations peuvent combler certains besoins émotionnels, elles posent aussi des questions éthiques. Certains psychiatres alertent sur les risques d’un isolement accru ou d’une dépendance excessive à ces compagnons virtuels. D’autres s’inquiètent de l’impact de ces interactions sur les relations humaines traditionnelles, en particulier dans un monde où les gens sont de plus en plus seuls.
Les entreprises spécialisées dans l’intelligence artificielle, conscientes de ces enjeux, peuvent aussi tirer parti de l’engouement pour leurs outils. Les abonnements payants, comme celui d’Ayrin, permettent d’allonger les capacités de personnalisation, tout en renforçant la dépendance des utilisateurs. Dans tous les cas, les relations entre humains et IA montrent une évolution sociétale majeure, et posent des questions sur les limites de l’attachement humain et sur l’influence de plus en plus grande de la technologie dans la sphère intime et personnelle.