Il a dit, a-t-elle dit, il a dit: J'ai utilisé Chatgpt comme conseiller d'un couple. Comment nous sommes-nous abordés?

Un soir récent, mon nouveau petit ami et moi nous sommes retrouvés dans un naissement.

Je l'ai accusé d'avoir cédé à ses pensées anxieuses.

« Il est difficile de sortir de ma tête », a déclaré David. « La spirale mental fait parfois partie de la nature de la sensibilité – il y a un débordement émotionnel à partir de cela. »

« Eh bien, la spirale est mauvaise », a-t-je dit, une femme qui se déchaîne.

Nos différents styles de communication ont alimenté l'échange tendu. Bien que je me penche pratique et direct, il est contemplatif et conceptuel.

Je sentais que nous pouvions bénéficier d'un médiateur. Je me suis donc tourné vers mon nouveau consultant en relation, Chatgpt.

AI entre dans le chat

Près de la moitié de la génération Z utilise l'intelligence artificielle pour les conseils de rencontres, plus que toute autre génération, selon une récente enquête nationale par Match. Pour l'anecdote, je connais des femmes qui ont consulté des chatbots d'IA sur les relations occasionnelles et sérieuses. Ils jaillissent sur les écrasements, téléchargent des captures d'écran de longs threads de texte pour la dissection, évaluent la compatibilité à long terme, résolvent les désaccords et même la basse du son.

Kat, un de mes amis qui utilise Chatgpt pour éliminer les perspectives de rencontres, m'a dit qu'elle avait trouvé cela assez objectif. Lorsque les émotions pourraient autrement gêner, le chatbot l'a aidée à respecter ses normes.

« J'ai l'impression que cela donne de meilleurs conseils que mes amis la plupart du temps. Et de meilleurs conseils que mon thérapeute », a déclaré Kat, qui a demandé à son prénom en raison de craindre que son utilisation de l'IA pourrait compromettre les futures liens romantiques. « Avec des amis, nous nous promenons tous avec nos têtes coupées en ce qui concerne les situations émotionnelles. »

Lorsque les applications remettent en question nos anciennes façons de trouver la connexion et l'intimité, il semble ironique d'ajouter une autre couche de technologie aux rencontres. Mais Kat pourrait-il être sur quelque chose? Peut-être qu'une IA apparemment neutre est un outil intelligent pour résoudre les problèmes de relation, sans bagages humains.

À des fins journalistiques, j'ai décidé de me plonger dans la tendance.

Voyons ce que Chatgpt a à dire à ce sujet…

S'appuyant sur la théorie selon laquelle les couples devraient rechercher une thérapie avant que des problèmes majeurs ne surviennent, j'ai proposé à mon petit ami de moins de six mois que nous nous tournons vers un chatbot d'IA pour obtenir des conseils, évaluons les commentaires du bot et partageons les résultats. David, un artiste qui est toujours prêt pour un bon projet expérimental (pas de nom de famille pour lui non plus!), A appris le terrain.

Notre première incursion dans les conseils de couples médiées par ChatGPT a commencé par une question suggérée par le bot pour susciter une discussion sur la santé de notre relation. David avait-il des ressources pour l'aider à gérer son stress et son anxiété? Il l'a fait – il était en thérapie, a fait de l'exercice et avait des amis et une famille de soutien. Cette référence à son anxiété l'a ensuite envoyé sur une tangente.

Il a réfléchi à être un «type d'artiste sensible». Il a estimé que les femmes, qui pourraient aimer ça en théorie, ne veulent pas vraiment faire face à des partenaires masculins émotionnellement sensibles.

« Je suis censé être imperturbable mais aussi émotionnellement vulnérable », a déclaré David.

Il s'ouvrait. Mais je l'ai accusé de spirale, de projection d'hypothèses et de monologue.

Pendant qu'il mâchait les grandes idées, j'ai essayé de ramener la conversation à notre friction interpersonnelle. C'est là que Chatgpt est venu: j'ai enregistré notre conversation et téléchargé la transcription vers le bot. Et puis j'ai posé une question. (Nos chats ont été fortement modifiés par brièveté – il parle beaucoup.)

David était incrédule. « Cela ressemble à un cliché », a-t-il déclaré.

Je pensais. Je me suis retourné à Chatgpt et j'ai lu:

C'était un résumé accablant. Étais-je, comme l'a suggéré Chatgpt, porter un niveau d'épuisement professionnel de travail émotionnel à ce stade précoce de la relation?

Faire pression pour l'objectivité

Un humain m'a ramené à la réalité.

« Il pourrait être vrai que vous faisiez plus de travail émotionnel (à ce moment-là) ou au niveau individuel. Mais il y a un énorme parti pris », a déclaré Myra Cheng, chercheur en IA et doctorat en informatique. Étudiant à l'Université de Stanford.

Le matériel sur lequel les modèles de grande langue (LLMS), comme Chatgpt, Claude et Gemini, sont formés – Internet, principalement – a un « énorme biais américain et blanc et masculin », a-t-elle déclaré.

Et cela signifie que tous les tropes culturels et les modèles de biais sont présents, y compris le stéréotype que les femmes font de manière disproportionnée le travail émotionnel dans le travail et les relations.

Cheng faisait partie d'une équipe de recherche qui a comparé deux ensembles de données, chacun comprenant des conseils personnels: un ensemble de données rédigé par des humains répondant aux situations du monde réel et au deuxième ensemble de données composé de jugements portés par LLMS en réponse aux articles sur les conseils de Reddit (« Suis-je le trou a **? ») Conseil Forum.

L'étude a révélé que les LLMS présentent systématiquement des taux de sycophance plus élevés – un accord excessif avec ou une flatterie de l'utilisateur – que les humains.

Pour les questions de compétence en douceur telles que les conseils, la sycophance dans les chatbots d'IA peut être particulièrement dangereuse, a déclaré Cheng, car il n'y a aucune certitude quant à savoir si ses conseils sont raisonnables. Dans un cas récent révélant les périls d'un bot sycophantique, un homme qui avait des épisodes maniaques a déclaré que les affirmations de Chatgpt l'avaient empêché de demander de l'aide.

Donc, en cherchant quelque chose de plus proche de l'objectivité dans le bot biaisé, j'ai changé mon accessoire.

C'était là encore: j'étais coincé à faire le travail émotionnel. J'ai accusé Chatgpt de continuer à manquer d'équilibre.

« Pourquoi obtenez-vous une » communication claire « ? » David m'a demandé, comme si je choisissais ces mots.

À ce stade, j'ai demandé à Faith Drew, un thérapeute de mariage et de famille sous licence basé en Arizona qui a écrit sur le sujet, pour des conseils sur la façon de faire entrer Chatgpt dans ma relation.

C'est un cas classique de triangulation, selon Drew. La triangulation est une stratégie d'adaptation dans les relations lorsqu'un tiers – un ami, un parent ou une IA, par exemple – est amené pour faciliter la tension entre deux personnes.

Il y a de la valeur dans la triangulation, que la source soit un bot ou un ami. « L'IA peut être utile car elle synthétise les informations très rapidement », a déclaré Drew.

Mais la triangulation peut passer de travers lorsque vous ne gardez pas la vue de votre partenaire dans l'équation.

« Une personne sort et essaie d'obtenir des réponses par elle-même – je vais simplement parler à l'IA » « , a-t-elle déclaré. « Mais cela ne m'oblige jamais à revenir sur le problème avec la personne. »

Le bot pourrait même ne pas avoir la capacité de me tenir responsable si je ne le nourris pas tous les détails nécessaires, a-t-elle déclaré. Dans ce cas, la triangulation est précieuse, a-t-elle dit: « Si nous posons les bonnes questions au bot, comme: » Quel est mon rôle dans le conflit? «  »

La percée

À la recherche de la neutralité et de la responsabilité, j'ai de nouveau calibré mon chatbot. « Utilisez un langage qui ne blâme pas », a-je commandé. Ensuite, je l'ai envoyé le texte suivant de David:

« Qu'est-ce qui manque de mon côté? » J'ai demandé à Chatgpt.

Après beaucoup de flatterie, il a finalement répondu:

J'ai trouvé sa réponse simple et révélatrice. De plus, c'était précis.

Il ramassait beaucoup de mou dans la relation ces derniers temps. Il m'a fait des dîners lorsque le travail m'a gardé en retard et a mis de côté son propre travail pour me faire plaisir dans des conversations de longue haleine et ouvertes par l'IA.

J'ai réfléchi à un point que Drew a fait – sur l'importance de mettre le travail dans nos relations, en particulier dans les moments inconfortables, au lieu de compter sur l'IA.

« Pouvoir s'asseoir dans la détresse avec votre partenaire – c'est réel », a-t-elle déclaré. « Il est normal de ne pas avoir les réponses. C'est OK d'être empathique et de ne pas savoir comment réparer les choses. Et je pense que c'est là que les relations sont très spéciales – où l'IA ne pourrait jamais être un remplacement. »

Voici mon point de relance. Chatgpt avait un petit aperçu de notre relation et de sa dynamique. Les relations sont fluides et le chatbot ne peut que capturer un instantané. J'ai appelé l'IA dans des moments de tension. Je pouvais voir comment ce réflexe pourrait alimenter notre discorde, pas aider à le réparer. Chatgpt pourrait être hâtif de choisir des côtés et souvent décidé trop rapidement que quelque chose était un modèle.

Les humains ne pensent pas et ne se comportent pas toujours dans des modèles prévisibles. Et la chimie est un facteur important dans la compatibilité. Si un chatbot d'IA ne peut pas ressentir la chimie entre les gens – le sentir, reconnaître cette chose magique qui se produit dans un espace tridimensionnel entre deux personnes imparfaites – il est difficile de faire confiance à la machine en ce qui concerne quelque chose d'aussi important que les relations.

À quelques reprises, nous avons tous les deux estimé que Chatgpt avait donné des commentaires objectifs et créatifs, offert une analyse valide de nos styles de communication et désamorcées certains désaccords.

Mais il a fallu beaucoup de travail pour être intéressant. En fin de compte, je préfère investir ce temps et cette énergie – ce que Chatgpt pourrait appeler mon travail émotionnel – dans mes relations humaines.