Ti fideresti di un’intelligenza artificiale per mediare un conflitto?

Recentemente mi sento devastato. Un caro amico ha interrotto i contatti con me. Non capisco bene il motivo e i miei tentativi di risolvere la situazione non hanno avuto successo. Situazioni come questa sono dolorose e confuse. Non sorprende quindi che le persone si rivolgano sempre più ai chatbot basati sull’intelligenza artificiale per aiutarli a risolvere questi problemi. E c’è una buona notizia: l’intelligenza artificiale può davvero aiutare.

I ricercatori di Google DeepMind hanno recentemente creato un sistema di grandi modelli linguistici per aiutare le persone a raggiungere un accordo su questioni sociali o politiche complesse ma importanti. Il modello di intelligenza artificiale è stato addestrato per identificare e presentare aree di accordo tra le idee delle persone. Con l’aiuto di questo mediatore basato sull’intelligenza artificiale, piccoli gruppi di partecipanti allo studio erano meno divisi nelle loro posizioni su vari argomenti.

Uno dei migliori usi dei chatbot AI è il brainstorming. In passato ho avuto successo nell’utilizzarli per scrivere e-mail più assertive o persuasive in situazioni delicate, come lamentarsi dei servizi o negoziare le bollette. Quest’ultima ricerca suggerisce che possono anche aiutarci a vedere le cose dal punto di vista di altre persone. Allora perché non usare l’intelligenza artificiale per sistemare la mia relazione con il mio amico?

Ho descritto il conflitto, per come lo vedo io, a ChatGPT e ho chiesto consiglio su cosa avrei dovuto fare. La risposta è stata molto rassicurante poiché il chatbot AI ha supportato il modo in cui stavo affrontando il problema. Il consiglio che ha dato era in linea con quanto avevo già pensato di fare. Ho trovato utile parlare con il bot e avere più idee su come gestire la mia situazione specifica. Ma alla fine ero insoddisfatto perché i consigli erano ancora molto generici e vaghi (“Definisci i tuoi limiti con calma” e “Comunica i tuoi sentimenti”) e non offrivano il tipo di intuizione che potrebbe offrire un terapeuta.

E c’è un altro problema: ogni argomento ha due facce. Ho iniziato una nuova conversazione e ho descritto il problema come credo che il mio amico lo veda. Il chatbot ha supportato e convalidato le sue decisioni, proprio come ha fatto con me. Da un lato, questo esercizio mi ha aiutato a vedere le cose dal suo punto di vista. Dopotutto, ho cercato di mettermi nei panni dell’altra persona, non solo di vincere una discussione. Ma d’altro canto vedo chiaramente una situazione in cui affidarsi troppo ai consigli di un chatbot che ci dice quello che vogliamo sentire potrebbe portarci a riaffermare le nostre opinioni, impedendoci di vedere le cose dal punto di vista di un altro.

Questo è servito come buon promemoria: un chatbot AI non è un terapista o un amico. Sebbene riesca a ripetere i vasti testi di Internet su cui è stato formato, non capisce cosa significhi provare tristezza, confusione o gioia. Pertanto, consiglierei cautela quando usi i chatbot AI per cose che contano davvero per te e non prendere alla lettera ciò che dicono.

Un chatbot basato sull’intelligenza artificiale non potrà mai sostituire una conversazione reale, in cui entrambe le parti sono disposte ad ascoltare veramente e a prendere in considerazione il punto di vista dell’altro. Quindi, ho deciso di mettere da parte la conversazione assistita dall’intelligenza artificiale e ho contattato nuovamente il mio amico. Augurami buona fortuna!

( fonte: MIT Technology Review)