Il 2023 è stato uno degli anni più folli da molto tempo per il settore dell’intelligenza artificiale: infiniti lanci di prodotti, truffe nei consigli di amministrazione, intensi dibattiti politici sulla distruzione dell’intelligenza artificiale e una corsa per trovare la prossima grande novità. Ma abbiamo anche visto strumenti e politiche concreti volti a far sì che l’industria dell’intelligenza artificiale si comporti in modo più responsabile e responsabilizzi gli attori potenti. Questo mi dà molta speranza per il futuro dell’intelligenza artificiale.
Ecco cosa mi ha insegnato il 2023:
L’intelligenza artificiale generativa è uscita dal laboratorio con una vendetta, ma non è chiaro dove andrà dopo
L’anno scorso è iniziato con le grandi aziende tecnologiche che hanno puntato tutto sull’intelligenza artificiale generativa. Lo straordinario successo del ChatGPT di OpenAI ha spinto tutte le principali aziende tecnologiche a rilasciare la propria versione. Il 2023 potrebbe passare alla storia come l’anno in cui abbiamo visto il maggior numero di rilasci di IA: LLaMA 2 di Meta, Bard e Gemini di Google, Ernie Bot di Baidu, GPT-4 di OpenAI e molti altri modelli, incluso uno di uno sfidante open source francese, Mistral.
Ma nonostante l’entusiasmo iniziale, non abbiamo visto nessuna applicazione di intelligenza artificiale diventare un successo da un giorno all’altro. Microsoft e Google hanno lanciato una potente ricerca sull’intelligenza artificiale, ma si è rivelata più un fallimento che un’app killer. I difetti fondamentali dei modelli linguistici, come il fatto che spesso inventano cose, hanno portato ad alcune gaffe imbarazzanti (e, siamo onesti, esilaranti). Bing di Microsoft spesso rispondeva alle domande delle persone con teorie del complotto e suggeriva a un giornalista del New York Times di lasciare la moglie. Bard di Google ha generato risposte sostanzialmente errate alla sua campagna di marketing, che ha tagliato il prezzo delle azioni della società di 100 miliardi di dollari.
Attualmente c’è una frenetica ricerca di un prodotto di intelligenza artificiale popolare che tutti vogliano adottare. Sia OpenAI che Google stanno sperimentando la possibilità di consentire ad aziende e sviluppatori di creare chatbot IA personalizzati e di consentire alle persone di creare le proprie app utilizzando l’intelligenza artificiale, senza la necessità di competenze di codifica. Forse l’intelligenza artificiale generativa alla fine verrà incorporata in strumenti noiosi ma utili per aiutarci ad aumentare la nostra produttività sul lavoro. Potrebbe assumere la forma di assistenti IA – magari con funzionalità vocali – e supporto per la codifica. Quest’anno sarà cruciale per determinare il valore reale dell’intelligenza artificiale generativa.
Abbiamo imparato molto su come funzionano effettivamente i modelli linguistici, ma sappiamo ancora molto poco
Anche se le aziende tecnologiche stanno implementando i principali modelli linguistici nei prodotti a un ritmo frenetico, c’è ancora molto che non sappiamo su come funzionano. Inventano cose e hanno seri pregiudizi di genere ed etnici. Nel 2023 abbiamo anche scoperto che diversi modelli linguistici generano testi con diversi pregiudizi politici e che sono ottimi strumenti per hackerare le informazioni private delle persone. È possibile chiedere ai modelli di conversione testo-immagine di generare immagini e foto protette da copyright di persone reali e possono essere facilmente indotti a generare immagini inquietanti. È stato fantastico vedere così tanta ricerca sui difetti di questi modelli, poiché potrebbe portarci un passo avanti verso la comprensione del motivo per cui si comportano in un certo modo e, alla fine, a risolverli.
I modelli generativi possono essere molto imprevedibili e quest’anno ci sono stati molti tentativi per farli comportare come vogliono i loro creatori. OpenAI ha condiviso di utilizzare una tecnica chiamata apprendimento di rinforzo del feedback umano, che utilizza il feedback degli utenti per aiutare a guidare ChatGPT verso risposte più desiderabili. Uno studio del laboratorio di intelligenza artificiale Anthropic ha mostrato come semplici istruzioni in linguaggio naturale possano guidare modelli linguistici di grandi dimensioni per rendere i loro risultati meno tossici. Ma sfortunatamente, molti di questi tentativi finiscono per essere soluzioni rapide piuttosto che permanenti. Esistono anche approcci fuorvianti, come il divieto di parole apparentemente innocue come “placenta” dai sistemi di intelligenza artificiale che generano immagini per prevenire la produzione di sangue. Le aziende tecnologiche creano soluzioni alternative come queste perché non sanno perché i modelli generano il contenuto che creano.
Abbiamo anche avuto un’idea migliore della reale impronta di carbonio dell’IA. I ricercatori della startup AI Hugging Face e della Carnegie Mellon University hanno scoperto che generare un’immagine utilizzando un modello di intelligenza artificiale avanzato consuma tanta energia quanto caricare completamente uno smartphone. Fino ad ora, l’esatta quantità di energia utilizzata dall’intelligenza artificiale generativa è stata un pezzo mancante del puzzle. Ulteriori ricerche in merito potrebbero aiutarci a cambiare il modo in cui utilizziamo l’intelligenza artificiale per essere più sostenibili.
L’apocalisse dell’IA è diventata mainstream
Il discorso secondo cui l’intelligenza artificiale rappresenta un rischio esistenziale per gli esseri umani è diventato familiare lo scorso anno. Hanno preso la parola centinaia di scienziati, leader aziendali e politici, dai pionieri del deep learning Geoffrey Hinton e Yoshua Bengio agli amministratori delegati delle principali aziende di intelligenza artificiale come Sam Altman e Demis Hassabis, il deputato della California Ted Lieu e l’ex presidente dell’Estonia Kersti Kaljulaid.
Il rischio esistenziale è diventato uno dei più grandi meme dell’intelligenza artificiale. L’ipotesi è che un giorno costruiremo un’intelligenza artificiale molto più intelligente degli esseri umani, e questo potrebbe portare a gravi conseguenze. È un’ideologia sposata da molti nella Silicon Valley, tra cui Ilya Sutskever, capo scienziato di OpenAI, che ha svolto un ruolo chiave nella cacciata del CEO di OpenAI Sam Altman (e nella sua reintegrazione pochi giorni dopo).
Ma non tutti sono d’accordo con questa idea. I leader di Meta AI Yann LeCun e Joelle Pineau hanno affermato che questi timori sono “ridicoli” e che la conversazione sui rischi dell’IA è diventata “sbilanciata”. Molti altri protagonisti dell’intelligenza artificiale, come la ricercatrice Joy Buolamwini, sostengono che concentrarsi sui rischi ipotetici distrae dal danno reale che l’intelligenza artificiale sta attualmente causando.
Tuttavia, una maggiore attenzione sul potenziale della tecnologia di causare danni estremi ha innescato molte importanti conversazioni sulla politica dell’IA e ha incoraggiato i politici di tutto il mondo ad agire.
I giorni del selvaggio West dell’intelligenza artificiale sono finiti
Grazie a ChatGPT, l’anno scorso tutti, dal Senato degli Stati Uniti al G7, hanno parlato di politica e regolamentazione dell’IA. All’inizio di dicembre, i legislatori europei hanno concluso un anno di politica movimentata quando hanno approvato la legge sull’intelligenza artificiale, che introdurrà regole e standard vincolanti su come sviluppare l’intelligenza artificiale più rischiosa in modo più responsabile. Vieterà inoltre alcune applicazioni “inaccettabili” dell’intelligenza artificiale, come l’uso del riconoscimento facciale da parte della polizia nei luoghi pubblici.
La Casa Bianca, a sua volta, ha presentato un ordine esecutivo sull’intelligenza artificiale, oltre agli impegni volontari delle principali società di intelligenza artificiale. I loro sforzi miravano a portare maggiore trasparenza e standard nell’intelligenza artificiale e hanno dato alle agenzie molta libertà di adattare le regole per adattarle ai loro settori.
Una proposta politica concreta che ha ricevuto molta attenzione è stata quella delle filigrane: segni invisibili nel testo e nelle immagini che possono essere rilevati dai computer per contrassegnare i contenuti generati dall’intelligenza artificiale.
Questi tag possono essere utilizzati per tenere traccia del plagio o aiutare a combattere la disinformazione e abbiamo visto ricerche che sono state in grado di applicarli a testo e immagini generati dall’intelligenza artificiale. Non si sono dati da fare solo i legislatori, ma anche gli avvocati. Abbiamo assistito a un numero record di cause legali in cui artisti e scrittori sostenevano che le società di intelligenza artificiale avevano sottratto la loro proprietà intellettuale senza il loro consenso e senza compenso. In un’entusiasmante controffensiva, i ricercatori dell’Università di Chicago hanno sviluppato Nightshade, un nuovo strumento di avvelenamento dei dati che consente agli artisti di combattere l’intelligenza artificiale generativa confondendo i dati di addestramento in modi che possono causare gravi danni ai modelli di intelligenza artificiale generativa delle immagini. Si sta formando una resistenza e mi aspetto ulteriori sforzi dal basso per spostare gli equilibri di potere nella tecnologia nel prossimo anno.
( Fonte: MIT Technology Review )