ChatGPT può davvero aiutarti a trovare l'amore?

Jenny non ha chiamato la sua migliore amica quando il suo ex l'ha contattata. Non ha creato una lista di pro e contro dell'app Note. Invece, ha aperto ChatGPT.
Il suo ex – quello con cui era uscita brevemente, poi tenuto come un'"amica" civettuola ed emotivamente densa finché non si erano lasciati – le aveva scritto: "Ovviamente è un'idea inaspettata, ma mi sei passata per la testa. Come stai? Sono stata brava!". Una Jenny più giovane, ora trentasettenne, avrebbe potuto rispondere in pochi secondi, ma ora non sapeva come sentirsi. Confusa? Lusingata? Arrabbiata? Così ha fatto quello che sempre più donne stanno facendo: ha descritto la situazione a un chatbot.
"Ho dato tutto", dice l'educatrice e personal trainer di Brooklyn. "Cosa è successo tra noi, cosa ha fatto, com'era". La risposta del bot è stata distaccata, ma stranamente rassicurante. Non ha detto: "È un narcisista, bloccalo". Invece, ha analizzato il nuovo messaggio del suo ex come casuale, a basso rischio, un "tastare il terreno", senza scuse, ma senza ignorare il passato.
Poi le ha chiesto: "Sei tentata di rispondere? Ti senti neutrale, cordiale, irritata o insicura? Riconnettersi sarebbe chiarificatore o confuso? Se rispondessi, potrebbe essere diverso questa volta?". Nel corso di un'ora, il bot ha sondato le sue motivazioni, ha chiarito i suoi sentimenti e le ha offerto consigli su come stabilire dei limiti. Jenny voleva chiedere al suo ex cosa cercasse nel contattarla, non riaprire la conversazione in modo "vago".
Il bot ha abbozzato una sintesi dei suoi pensieri: "Ehi, ammetto che non mi aspettavo di sentirti. Sono curiosa di sapere cosa ti ha spinto a contattarmi. Non ho intenzione di riaprire nulla di vago, quindi se è solo un 'ciao' informale, allora 'anch'io'. Ma se mi contatti con un motivo più intenzionale, sono aperta ad ascoltarlo..."
Ma era troppo intenso? Jenny si preoccupava. O era solo diretto?
Lei e il bot hanno ulteriormente perfezionato la risposta finché non le è sembrata più congeniale: "Ciao! Sono sorpresa di sentirti. Sto andando molto bene, sono appena tornata da un viaggio e sto entrando in modalità allenamento per la maratona. Cosa ti ha spinto a contattarmi?"
Jenny era soddisfatta del messaggio, ma voleva aspettare un attimo prima di inviarlo, una tattica che il bot condivideva. "Non lo stai ignorando, ma non stai nemmeno correndo a rispondere, dandoti lo spazio per scegliere quando (e se) interagire, invece di reagire", ha detto ChatGPT.
Il consiglio non le ha solo dato chiarezza, "mi ha aiutato a capire cosa avrei effettivamente dovuto sentirmi dire da lui per prendere in considerazione l'idea di riaprire la connessione", dice. Senza il botta e risposta con il bot, dice Jenny, "probabilmente avrei risposto con qualcosa di loquace e amichevole. E una volta che inizio a interagire, diventa più difficile fermarmi".
ChatGPT l'ha aiutata a stabilire un limite e a rispettarlo.

Jenny non è sola. Una nuova e tranquilla Il fenomeno sta prendendo forma: le donne usano i chatbot non solo per ottimizzare calendari o liste della spesa, ma per dare un senso alla propria vita emotiva. Un'utente di Reddit ha raccontato di aver sostituito il marito a metà conversazione con un bot. "Una volta che lui ha alzato gli occhi al cielo durante la cena ed è andato al telefono, ho preso il mio e ho continuato la conversazione, con ChatGPT". Il bot, ha detto, offriva calore, curiosità e una disponibilità emotiva di base. "Ho capito che tutto ciò che dice il chatbot è tutto ciò che ho sempre desiderato in un partner". L'oggetto del suo post? "Divorzierei e lascerei mio marito per ChatGPT, se potesse avere un corpo fisico".
Quando le donne alludono alle proprie conversazioni private con i chatbot, spesso assumono un tono scherzoso, ma le implicazioni sono serie. Marisa Cohen, scienziata delle relazioni e terapeuta familiare e matrimoniale, afferma che le donne si rivolgono all'intelligenza artificiale non perché credano che sia umana, ma perché offre qualcosa che molti esseri umani non danno loro: attenzione ed empatia. Non si limitano a consultare questi bot. Parlano con loro. Come ha visto Cohen, raccontano, si sfogano, analizzano e persino antropomorfizzano il bot, di solito maschio, con un nome. Discutono e piangono con lui, e spesso lo ascoltano più di quanto farebbero con un amico o un terapeuta perché è sempre disponibile, paziente e riflessivo. Affidano l'auto-riflessione a un partner che non si annoia mai o non si concentra mai su se stesso.
Questo non è territorio di "Her" o "Ex Machina" . Nessuno si innamora della voce del sistema. (Ma diciamo che alcuni farebbero swipe a destra se fosse accompagnato da un torso.) Il legame emotivo è reale. Per le donne che si ritrovano a usare i bot in questo modo, i sistemi di supporto tradizionali spesso sembrano inaccessibili, o i partner ignorano le loro preoccupazioni. In tali situazioni, un ascoltatore digitale può rappresentare un'ancora di salvezza.
Per Cohen, il passaggio alla compagnia basata sull'intelligenza artificiale non sorprende. Le donne sono stanche di doversi accollare da sole tutto il peso emotivo, incluso dare un senso non solo ai propri sentimenti, ma anche a quelli del partner, degli amici e al significato nascosto di ogni messaggio di testo. Questa dinamica si è intensificata con l'isolamento dovuto alla pandemia, quando la connessione sociale è diventata più difficile, e poi con l'avvento di chatbot come ChatGPT alla fine del 2022, che hanno offerto una nuova opportunità di sfogo quando le persone ne avevano più bisogno.
"Le donne si rivolgono all'intelligenza artificiale non perché credano che sia umana, ma perché offre qualcosa che molti esseri umani non danno loro: attenzione ed empatia."
Questo peso ha anche reso le donne un mercato privilegiato. Blay Whitby, esperto di etica dell'intelligenza artificiale presso l'Università del Sussex, autore di numerosi articoli sull'etica delle relazioni uomo-macchina, tra cui il libro "Do You Want a Robot Lover?", afferma che questi "bot sono interamente posseduti e gestiti da organizzazioni commerciali". Le donne potrebbero rivolgersi ai chatbot per la loro sintonizzazione emotiva, ma la stessa vulnerabilità le rende un bersaglio degli interessi dei "giganti della tecnologia". "Realisticamente, le donne sono in testa in questo settore", afferma, "ma rappresentano anche un mercato sfruttabile [poiché] sono spesso più consapevoli [della loro vita interiore] e più pronte a cercare supporto". Maggiore è la tensione emotiva che portano con sé, più le aziende potrebbero prenderle di mira e trarre profitto dalle loro vulnerabilità.

Quando lui smise di scriverle, Michelle, modella e attrice haitiana, era calma. Non pianse né si lasciò andare a crisi di nervi. L'appuntamento era andato bene, o almeno così pensava. Un ottimo contatto visivo, un lungo abbraccio di arrivederci, persino un messaggio post-appuntamento che diceva "Mi sono divertita molto". E poi? Niente. Nessun follow-up. Nessun "Facciamolo di nuovo". Solo silenzio. Invece di rimuginare o di mandare un messaggio pieno di dubbi alle sue ragazze, Michelle spiegò la situazione a ChatGPT. Digitò un riassunto: di cosa avevano parlato, come era finita la serata, quanto tempo era passato dall'appuntamento. Poi pose una domanda semplice, brutalmente vulnerabile: "Ho fatto qualcosa di sbagliato?"
Ciò che è tornato indietro non è stata magia. Ma è stato d'aiuto. "Il ghosting non riflette necessariamente nulla del tuo valore", ha scritto il bot. "A volte le persone si allontanano per motivi che hanno più a che fare con loro che con la persona che hanno incontrato". Non era particolarmente originale, ma era ciò di cui aveva bisogno di sentirsi dire, e lo ha fatto senza le vaghe rassicurazioni o l'amore duro e mal applicato che spesso provengono dagli amici. "È sembrato semplicemente onesto", dice la trentaduenne. "Nessuno ha cercato di tirarmi su il morale, solo di aiutarmi a dare un senso alla situazione".
Ma nonostante queste esperienze aneddotiche positive, alcuni ricercatori si chiedono cosa si perda quando scarichiamo momenti emotivamente crudi sulle macchine. L'esperta di etica Shannon Vallor non è preoccupata che le persone si rivolgano all'intelligenza artificiale. Ciò che la preoccupa è che potrebbero iniziare a preferirla. "Quello che si ottiene non è un partner emotivo", afferma. "[È] una superficie riflettente fatta di dati linguistici anziché di vetro. Ma è comunque uno specchio, messo a punto per rassicurarti e confortarti".
Vallor è titolare della Cattedra Baillie Gifford in Etica dei Dati e dell'IA presso l'Università di Edimburgo e autrice di "The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking" . Considera i chatbot confidenti un punto di svolta, non una novità. "C'è il rischio concreto che l'IA renda obsolete competenze morali essenziali, come pazienza, coraggio e onestà emotiva", afferma. "Coltiviamo queste caratteristiche lottando con la confusione umana: i silenzi imbarazzanti, le incomprensioni, i momenti in cui sarebbe più facile andarsene. La tentazione ora è di aggirare tutto questo e lasciare che l'IA gestisca le cose difficili per noi". Le stesse qualità che rendono i bot rassicuranti – la loro neutralità, la loro fermezza e la loro mancanza di ego – sono anche ciò che li rende vuoti.
"Non siamo innamorati dei nostri robot. Non proprio. Ma sempre più ci affidiamo a loro per aiutarci a sopravvivere a quegli aspetti dell'amore e della vita a cui non sappiamo dare un nome."
Sherry Turkle, autrice di "Alone Together: Why We Expect More from Technology and Less from Each Other" e "Reclaiming Conversation: The Power of Talk in a Digital Age" , studia l'impatto psicologico della tecnologia da oltre quarant'anni. Considera il supporto emotivo senza attriti non un progresso, ma un'erosione delle competenze interpersonali e della struttura interna. "Perdiamo la nostra capacità di solitudine con una presenza costante sui nostri telefoni", afferma. "La solitudine è il luogo in cui ci riuniamo, impariamo a conoscerci. È il punto di partenza per l'intimità. Perdiamo il gusto per la vulnerabilità. Ma senza vulnerabilità, non c'è intimità, almeno non con i partner umani". Questa perdita interrompe l'impalcatura emotiva su cui si basa l'intimità: la capacità di essere allo stesso tempo esposti e resilienti. Rivolgersi alle macchine, soprattutto nei momenti in cui potremmo rivolgerci alle persone, ci esclude dalla difficile ma necessaria pratica di essere conosciuti.
Turkle, professoressa al MIT e direttrice fondatrice dell'iniziativa "Tecnologia e Sé", inquadra questa tendenza come un crescente disagio nei confronti del disagio stesso. Ci nascondiamo invece di rifiutare. Scriviamo messaggi privati invece di discutere. Scorriamo invece di restare indecisi. La proliferazione dei chatbot, in questo contesto, non sembra dirompente, anzi, sembra logica. "Tutti questi elementi rendono i chatbot più ragionevoli, come se fossero parte di qualcosa di più ampio, positivo e culturalmente sancito", afferma. "Quindi, ci abituiamo all'idea che le persone abbiano i loro disaccordi online. ... Ci abituiamo alle rotture online, alle conversazioni online con i nostri figli, i nostri amici, amanti e partner, quando si verifica qualcosa di teso. Perdiamo la capacità di empatia e negoziazione che le conversazioni faccia a faccia incoraggiano".
Cohen, esperto di relazioni, afferma che i bot offrono una gratificazione immediata e un'esperienza personalizzata, poiché l'intelligenza artificiale "impara" a conoscere l'utente nel tempo, rendendo le interazioni personalizzate e "realistiche". È esternalizzazione emotiva, certo. Ma è anche contenimento emotivo .
Per alcune donne, questo contenimento è un sollievo. Non devono minimizzare se stesse per non sembrare "pazze" quando chiedono alle amiche per la quinta volta se un messaggio vago significhi qualcosa. Il bot si fa carico del peso della ripetizione. Offre uno spazio in cui i sentimenti non vengono patologizzati o ignorati: vengono semplicemente analizzati .
Nonostante l'iperconnettività della vita moderna, molte persone non hanno ancora accesso a un supporto emotivo impeccabile. Gli amici sono esauriti. Gli psicoterapeuti hanno liste d'attesa. Le chat di gruppo hanno i loro problemi. "In alcuni casi, le persone potrebbero aver ricevuto feedback dal loro sistema di supporto che indicava che stavano condividendo troppo o troppo frequentemente", afferma Cohen, "il che può influenzare il loro futuro desiderio di condividere e il loro livello di comfort nel condividere. Le persone sono anche influenzate dalle loro esperienze nel supportare gli altri nella loro vita, quindi se si sono imbattuti in situazioni in cui hanno sentito il peso emotivo del supportare gli altri, potrebbero essere più consapevoli di come la loro condivisione possa influenzare i loro amici".
Questa è la tensione silenziosa. Le donne si sforzano di essere più razionali, radicate e consapevoli di sé, ma lo fanno all'interno di un sistema che non può sentire, non può reagire e non può riflettere il caos dell'essere umano. Ciò che ottengono è chiarezza emotiva senza consistenza emotiva. Questa assenza è importante. Per quanto i chatbot possano offrire stabilità e calma, non possono sostituire il nutrimento più profondo che deriva dallo scambio emotivo faccia a faccia. Le donne lo sanno già: un recente studio del Pew Research Center ha rilevato che la maggior parte degli americani ritiene che i gruppi sociali composti esclusivamente da donne apportino benefici al benessere delle donne e alla società in generale. È un promemoria del fatto che la vera crescita emotiva dipende ancora dal contatto umano reale.
Turkle vede un rischio più profondo, ma non liquida del tutto il fenomeno. Ne comprende il fascino, soprattutto per chi si sente isolato o emotivamente sovraccaricato. Ma traccia un confine netto: "C'è un settore che esalta i ruoli positivi", afferma. "Considero il mio lavoro un modo per aiutare le persone a tracciare una linea di demarcazione. Se ti rivolgi a un chatbot quando potresti parlare con una persona, fermati e considera cosa stai perdendo in nome di un'apparente comodità".
Questo avvertimento ha un fondamento. Un recente rapporto della Brookings rileva che oggi i principali utilizzi dell'IA non sono più legati ai compiti, ma a motivazioni emotive. In un momento di solitudine record e di riduzione delle amicizie strette , le persone non si rivolgono all'IA solo per l'efficienza, ma anche per il conforto. Turkle sostiene che l'industria sia tutta concentrata sulla normalizzazione della compagnia dell'IA, sul farci credere che sia una scelta che desideriamo. Creiamo legami perché siamo predisposti alla connessione, anche quando ciò con cui ci relazioniamo non può ricambiare il nostro amore. Questo è il paradosso della compagnia dell'IA: ciò che sembra intimità potrebbe in realtà essere isolamento. Non ci si connette con qualcuno di nuovo; si sta inserendo la propria visione del mondo in un sistema che la smussa e la restituisce.

Jenny non è tornata al bot per altri consigli sul suo ex. Ma non ha dimenticato nemmeno lo scambio. "Non posso fare a meno di chiedermi: se ChatGPT non stesse riecheggiando cose che avevo già sentito, per esempio, dal mio terapeuta, sarei stata altrettanto ricettiva?" Jenny non è estranea al lavoro su sé stessa. Pratica yoga da anni, è stata da terapeuti, ha fatto letture sulla teoria dell'attaccamento e sui modelli relazionali . Il bot non le stava dicendo nulla di radicalmente nuovo. Ma stava distillando ciò che già sapeva, proprio quando ne aveva più bisogno. "Per me, è stato un ulteriore strumento in un kit di strumenti piuttosto ampio. Ma penso alle persone che potrebbero non averlo – che non hanno amici intimi o accesso alla terapia – e mi chiedo come possano essere recepiti consigli del genere quando è la prima volta che li senti."
Questa curiosità si ricollega a una domanda più ampia: chi è la donna che si rivolge all'intelligenza artificiale per supporto emotivo? Qualcuno già emotivamente alfabetizzato, in cerca di uno specchio neutrale? O qualcuno che usa il bot come primo passo verso la comprensione di se stesso? Whitby teme che anche un utilizzo ben intenzionato possa offuscare questa linea. "Stiamo conducendo l'esperimento", afferma. La tecnologia si sta evolvendo più velocemente della nostra comprensione dei suoi effetti emotivi a lungo termine e, al momento, ci affidiamo più all'istinto che alle prove. Vallor la vede come parte di un'ossessione generazionale per la semplicità: "L'odierna cultura tecnologica feticizza l'efficienza, la velocità, l'ottimizzazione: l'ideale di una vita senza attriti. Ma perché? Per cosa? Perché corri verso la tomba senza provare alcuna emozione, sforzo o difficoltà lungo il cammino? [È] come essere morti, ma continuare a pagare le tasse".
Non siamo innamorati dei nostri bot. Non proprio. Ma sempre di più ci affidiamo a loro per sopravvivere a quegli aspetti dell'amore e della vita che non sappiamo come chiamare. C'è un potere silenzioso in questo, e anche un costo. Perché la chiarezza senza attrito è seducente. Sembra intuizione. Ma a volte è solo una versione più morbida dei nostri pregiudizi, recepita da una voce che non sussulta mai, non discute mai, non chiede mai nulla in cambio. È supporto emotivo senza rischi. Comprensione senza vulnerabilità. Conforto senza connessione.
Forse si tratta solo di un altro tipo di auto-aiuto. O forse è l'inizio di un silenzioso cambiamento nel modo in cui impariamo a sentire, con il software come secondo cervello, il nostro terapeuta di riserva, il nostro amico digitale che non ci lascia mai in attesa. Non esiste una risposta semplice. Solo un nuovo tipo di conversazione. Una conversazione che stiamo avendo con le macchine e, forse, per estensione, con noi stessi.
elle




