Plus tôt cette année, Rachel a voulu mettre les choses au clair avec un homme avec qui elle sortait avant de le revoir dans un cadre plus large de groupe d'amis.
« J'avais utilisé ChatGPT pour chercher un emploi, mais j'avais entendu quelqu'un d'autre l'utiliser [pour des conseils de rencontre] », explique Rachel, qui ne veut pas que son vrai nom soit utilisé et qui vit à Sheffield.
« Je me sentais très angoissée et je voulais être guidée, sans que mes amis ne s'en mêlent. »
Avant l'appel téléphonique, elle s'est tournée vers ChatGPT pour obtenir de l'aide. « Je lui ai demandé comment gérer cette conversation sans être sur la défensive. »
Sa réponse ?
« ChatGPT fait ça tout le temps, mais c'était un peu comme : "Waouh, c'est une question tellement consciente de soi ! Tu dois être émotionnellement mature pour traverser ça. Voici quelques conseils. » C'était comme une pom-pom girl à mes côtés, comme si j'avais raison et qu'il avait tort. »
Dans l'ensemble, elle dit que c'était « utile », mais décrit le langage comme « très proche du langage thérapeutique, avec des mots comme "limites" ».
« Tout ce que j'en ai retenu, c'est que ça m'a rappelé d'être d'accord pour agir comme je le souhaite, mais je ne l'ai pas pris trop au pied de la lettre. »
- Perte de sens dans la traduction - Comment l'Afrique tente de combler le fossé linguistique de l'IA
- Burkina Faso : deepfakes, célébrités et fausses informations utilisées pour glorifier le chef de la junte
Rachel n'est pas la seule à se tourner vers l'IA pour obtenir des conseils dans la gestion de ses relations.
Selon une étude menée par l'agence de rencontres en ligne Match, près de la moitié des Américains de la génération Z (nés entre 1997 et 2012) ont déclaré avoir utilisé des LLM (Large Language Model ) est une forme d'intelligence artificielle conçue pour comprendre et générer du langage naturel, similaire à celui utilisé par les humains) comme ChatGPT pour obtenir des conseils en matière de rencontres, soit plus que toute autre génération.
- De quelle génération êtes-vous ?
Les gens se tournent vers l'IA pour rédiger des messages de rupture, décortiquer les conversations avec leurs partenaires et résoudre leurs problèmes relationnels.
Le Dr Lalitaa Suglani, psychologue et expert en relations, dit que l'IA peut être un outil utile, surtout pour les personnes qui se sentent dépassées ou incertaines lorsqu'il s'agit de communication dans les relations.
Cela peut les aider à rédiger un texte, à traiter un message déroutant ou à obtenir une seconde opinion, ce qui peut offrir un moment de pause au lieu d'être réactif, dit-elle.
À bien des égards, cela peut fonctionner comme un journal intime ou un espace de réflexion, ce qui peut être utile lorsqu'il s'agit d'un outil et non d'un substitut à la connexion », explique le Dr Suglani.
Cependant, elle soulève plusieurs préoccupations.
"Les LLM sont formés pour être utiles et agréables et répéter ce que vous partagez, de sorte qu'ils peuvent subtilement valider des schémas dysfonctionnels ou faire écho à des hypothèses, surtout si le prompt est biaisé et que le problème avec cela peut renforcer des récits déformés ou des tendances à l'évitement."
Par exemple, dit-elle, utiliser l'IA pour rédiger un message de rupture pourrait être un moyen d'éviter l'inconfort de la situation. Cela pourrait contribuer à des comportements d'évitement, car la personne n'est pas en phase avec ses sentiments réels.
L'utilisation de l'IA pourrait également entraver leur propre développement.
« Si quelqu'un se tourne vers une LLM chaque fois qu'il ne sait pas comment répondre ou se sentir émotionnellement exposé, il pourrait commencer à externaliser son intuition, son langage émotionnel et son sens du moi relationnel », explique le Dr Suglani.
Elle note également que les messages de l'IA peuvent être émotionnellement stériles et donner l'impression que la communication est scénarisée, ce qui peut être déconcertant à recevoir.
Malgré les défis, de nouveaux services voient le jour pour répondre aux besoins du marché des conseils relationnels.
Mei est un service gratuit généré par l'IA. Développé avec Open AI, il répond aux dilemmes relationnels avec des réponses de type conversationnel.
« L'idée est de permettre aux gens de rechercher instantanément de l'aide pour gérer leurs relations, car tout le monde ne peut pas parler à ses amis ou à sa famille par peur du jugement », explique la fondatrice new-yorkaise Es Lee.
Selon M. Lee, plus de la moitié des problèmes soulevés concernant l'outil d'IA concernent le sexe, un sujet que beaucoup ne souhaitent pas aborder avec leurs amis ou un thérapeute. « Les gens n'utilisent l'IA que parce que les services existants font défaut », ajoute-t-il.
Une autre utilisation courante est la reformulation d'un message ou la résolution d'un problème relationnel. « C'est comme si les gens avaient besoin de l'IA pour valider le problème. »
Lors de conseils relationnels, des questions de sécurité pourraient se poser. Un conseiller humain saurait quand intervenir et protéger un client d'une situation potentiellement dangereuse.
Une application de rencontre offrirait-elle les mêmes garanties ?
M. Lee reconnaît les préoccupations en matière de sécurité. « Je pense que les enjeux sont plus importants avec l'IA, car elle peut nous connecter à un niveau personnel comme aucune autre technologie ne l'a fait. »
Mais il affirme que Mei dispose de « garde-fous » intégrés à l'IA.
« Nous invitons les professionnels et les organisations à collaborer avec nous et à participer activement à l'élaboration de nos produits d'IA », déclare-t-il.
OpenAI, le créateur de ChatGPT, affirme que son dernier modèle a montré des améliorations dans des domaines tels que la prévention des niveaux malsains de dépendance émotionnelle et de flagornerie.
Dans un communiqué, l'entreprise a déclaré : « Les utilisateurs se tournent parfois vers ChatGPT dans des moments sensibles. Nous souhaitons donc nous assurer qu'il réponde de manière appropriée, avec l'aide d'experts. Cela implique notamment d'orienter les utilisateurs vers une assistance professionnelle lorsque cela est nécessaire, de renforcer nos mesures de sécurité concernant la réponse de nos modèles aux demandes sensibles et de prévoir des pauses lors des longues sessions. »
Un autre sujet de préoccupation concerne la confidentialité. Ces applications pourraient potentiellement collecter des données très sensibles, dont la divulgation par des pirates informatiques pourrait avoir des conséquences désastreuses.
M. Lee affirme : « À chaque étape de la gestion de la confidentialité des utilisateurs, nous choisissons la solution la plus respectueuse de la vie privée et ne collectons que les données nécessaires pour offrir le meilleur service. »
Dans le cadre de cette politique, il affirme que Mei ne demande aucune information permettant d'identifier une personne, hormis son adresse e-mail.
M. Lee précise également que les conversations sont enregistrées temporairement à des fins d'assurance qualité, puis supprimées après 30 jours. « Elles ne sont actuellement enregistrées définitivement dans aucune base de données. »
Certaines personnes utilisent l'IA en association avec un thérapeute humain.
Lorsque Corinne (nom d'emprunt) a souhaité mettre fin à une relation à la fin de l'année dernière, elle a commencé à se tourner vers ChatGPT pour obtenir des conseils sur la manière de gérer cette situation.
Corinne, basée à Londres, dit qu'elle a été inspirée à se tourner vers l'IA après avoir entendu sa colocataire parler positivement de son utilisation pour des conseils de rencontres, notamment sur la façon de rompre avec quelqu'un.
Elle a déclaré qu'elle lui demanderait de répondre à ses questions à la manière de Jillian Turecki, experte en relations amoureuses, ou de Nicole LePera, psychologue holistique, toutes deux très populaires sur les réseaux sociaux.
Lorsqu'elle a recommencé à fréquenter des personnes au début de l'année, elle s'est à nouveau tournée vers lui, demandant à nouveau des conseils à la manière de ses experts en relations amoureuses préférés.
Vers janvier, j'étais sortie avec un homme et je ne le trouvais pas attirant physiquement, mais on s'entendait très bien. Je lui ai donc demandé si ça valait le coup de sortir à nouveau. Je savais qu'il accepterait en lisant leurs livres, mais c'était agréable d'avoir des conseils adaptés à ma situation.
Corinne, qui suit un thérapeute, explique que ses discussions avec lui explorent davantage l'enfance que les questions qu'elle pose sur ChatGPT concernant les rencontres amoureuses ou relationnelles.
Elle dit prendre les conseils de l'IA avec « une certaine distance ».
J'imagine facilement des gens mettre fin à des relations et avoir des conversations qu'ils ne devraient pas avoir encore [avec leur partenaire], car ChatGPT se contente de répéter ce qu'il pense que vous voulez entendre.
C'est pratique dans les moments stressants de la vie. Et quand un ami n'est pas là. Ça me calme.
- IA 2027 : L'IA pourrait-elle détruire l'humanité ?
- Comment tirer le meilleur parti de l'IA : 4 questions à se poser
- Des drones livreront-ils votre prochaine commande de plats chauds ?

