Dobbiamo affrontare le questioni etiche degli agenti di intelligenza artificiale

I modelli di intelligenza artificiale generativa eccellono nella conversazione e nella creazione di immagini, video e musica, ma non sono ancora molto bravi a intraprendere azioni per noi. Ciò potrebbe cambiare con gli agenti AI, modelli progettati con uno scopo specifico. Ci sono due tipi principali.

Il primo, chiamato agenti basati su strumenti, utilizza il linguaggio naturale per eseguire attività digitali. Gli esempi includono l’agente di Anthropic, lanciato a ottobre, in grado di compilare moduli navigando sul web, e soluzioni simili di aziende come Salesforce e OpenAI.

L’altro tipo è noto come agenti di simulazione. Puoi pensarli come modelli progettati per comportarsi come gli esseri umani. Le prime persone a lavorare sulla creazione di questi agenti sono stati i ricercatori di scienze sociali. Volevano condurre studi che sarebbero stati costosi, poco pratici o non etici con persone reali, quindi hanno utilizzato l’intelligenza artificiale. Questa tendenza ha acquisito slancio in seguito alla pubblicazione di uno studio del 2023 condotto da Joon Sung Park, un dottorando a Stanford, chiamato “Generative Agents: Interactive Simulacra of Human Behavior”.

Recentemente, Park e il suo team hanno pubblicato un altro studio su arXiv intitolato “Generative Agent Simulations of 1.000 People”. In questo lavoro, i ricercatori hanno condotto interviste di due ore con 1.000 persone che utilizzavano l’intelligenza artificiale. Poco dopo, il team è stato in grado di creare agenti simulati che replicavano i valori e le preferenze di ciascun partecipante con una precisione impressionante.

Ci sono due domande davvero importanti qui. Innanzitutto, è chiaro che le principali aziende di intelligenza artificiale non considerano più sufficiente creare straordinari strumenti di intelligenza artificiale generativa; ora devono sviluppare agenti in grado di svolgere compiti per le persone. In secondo luogo, sta diventando più facile che mai convincere questi agenti di intelligenza artificiale a imitare i comportamenti, gli atteggiamenti e le personalità delle persone reali. Quelli che una volta erano due tipi distinti di agenti – agenti di simulazione e agenti basati su strumenti – potrebbero presto diventare uno solo: modelli di intelligenza artificiale che non solo imitano la tua personalità, ma agiscono anche per tuo conto.

La ricerca su questo argomento è in corso. Aziende come Tavus stanno lavorando per aiutare gli utenti a creare “gemelli digitali” di se stessi. Tuttavia, il CEO dell’azienda, Hassaan Raza, intende andare oltre sviluppando agenti di intelligenza artificiale che possono assumere la forma di terapisti, medici e insegnanti.

Se questi strumenti diventeranno economici e facili da creare, sorgeranno molte nuove preoccupazioni etiche, ma due in particolare risaltano. Il primo è che questi agenti potrebbero generare deepfake ancora più personali e potenzialmente più dannosi. Gli strumenti di imaging hanno già reso semplice la creazione di pornografia non consensuale utilizzando semplicemente l’immagine di una persona, ma questa crisi non farà altro che intensificarsi se sarà facile replicare anche la voce, le preferenze e la personalità di qualcuno. (Park mi ha detto che lui e il suo team hanno trascorso più di un anno ad affrontare questioni etiche come questa nel loro ultimo progetto di ricerca, coinvolgendo molte conversazioni con il comitato etico di Stanford e redigendo politiche su come i partecipanti potevano ritirare i propri dati e contributi.)

La seconda questione è quella fondamentale: abbiamo il diritto di sapere se stiamo parlando con un agente o con un essere umano? Se partecipi a un’intervista con un’intelligenza artificiale e invii campioni della tua voce per creare un agente che suona e risponde come te, i tuoi amici o colleghi hanno il diritto di sapere quando stanno parlando con lui e non con te? D’altra parte, se chiami il tuo operatore di telefonia mobile o lo studio del tuo medico e risponde un allegro addetto al servizio clienti, hai il diritto di sapere se stai parlando con un’intelligenza artificiale?

Questo futuro sembra lontano, ma non lo è. È possibile che, una volta arrivati ​​a questo punto, sorgano questioni etiche ancora più urgenti e rilevanti.

( fonte: MIT Technology Review)