Cinque modi in cui l’IA sta imparando a migliorare se stessa

Recentemente, Mark Zuckerberg ha dichiarato che Meta mira a raggiungere un’intelligenza artificiale più intelligente degli esseri umani. Sembra che abbia una ricetta per raggiungere questo obiettivo, e il primo ingrediente è il talento umano: Zuckerberg, a quanto pare, ha cercato di attirare i principali ricercatori a Meta Superintelligence Labs con offerte a nove cifre. Il secondo ingrediente è l’IA stessa. Recentemente, l’imprenditore ha dichiarato in una chiamata di profitto che Meta Superintelligence Labs si concentrerà sulla creazione di un’intelligenza artificiale auto-migliorabile, ovvero sistemi in grado di migliorare da soli per raggiungere livelli di prestazioni sempre più elevati.

La possibilità di auto-maglioramento distingue l’intelligenza artificiale dalle altre tecnologie rivoluzionarie. CRISPR, una tecnologia di editing genetico, non è in grado di migliorare la propria precisione nella direzione delle sequenze di DNA e i reattori a fusione non riescono a capire come rendere la tecnologia commercialmente praticabile. Tuttavia, gli LLM (Large Language Models, o LLM) possono ottimizzare i chip informatici su cui vengono eseguiti. Addestrare altri LLM in modo economico ed efficiente, e magari anche creare idee originali per la ricerca sull’IA. E hanno già fatto alcuni progressi in tutti questi settori.

Secondo Zuckerberg, l’auto-miglioramento dell’intelligenza artificiale potrebbe portare un mondo in cui gli esseri umani sarebbero liberati dalla routine lavorativa quotidiana e potrebbero perseguire i loro obiettivi più grandi con il supporto di compagni artificiali brillanti e iper-efficaci. Ma il miglioramento personale crea anche un rischio fondamentale, secondo Chris Painter, responsabile delle politiche dell’organizzazione di ricerca sull’intelligenza artificiale METR. Se l’IA accelerasse lo sviluppo delle proprie capacità, potrebbe migliorare rapidamente nell’hacking, nel progetto di armi e nella manipolazione delle persone. Alcuni ricercatori ipotizzano addirittura che questo ciclo di feedback positivo possa portare a un'”esplosione di intelligenza” in cui l’intelligenza artificiale si lancerebbe rapidamente ben oltre il livello delle capacità umane.

Ma non è necessario essere pessimisti per prendere sul serio le implicazioni della capacità di auto-migliorarsi. OpenAI, Anthropic e Google includono tutti i riferimenti alla ricerca automatizzata nell’IA nei loro framework di sicurezza AI (insieme strutturato di standard, politiche, procedure e best practice per rafforzare la sicurezza delle informazioni), insieme a categorie di rischio più familiari come le armi chimiche e la sicurezza informatica. “Penso che questa sia la strada più veloce per un’intelligenza artificiale potente”, afferma Jeff Clune, professore di informatica presso l’Università della Columbia Britannica e consulente di ricerca senior presso Google DeepMind. “Probabilmente è la cosa più importante a cui dovremmo pensare”.

Allo stesso modo, Clune afferma che l’automazione della ricerca e dello sviluppo dell’IA potrebbe avere enormi benefici. Da soli, noi umani potremmo non essere in grado di immaginare le innovazioni e i miglioramenti che un giorno consentiranno all’IA di affrontare problemi prodigiosi come il cancro e il cambiamento climatico.

Per ora, l’ingegno umano è ancora il motore principale del progresso dell’IA. Altrimenti, è improbabile che Meta abbia fatto offerte così esorbitanti per attirare i ricercatori nel suo laboratorio di superintelligence. Ma l’IA sta già contribuendo al proprio sviluppo e sta per assumere un ruolo ancora più importante nei prossimi anni. Ecco cinque modi in cui l’IA sta migliorando.

1. Aumentare la produttività

Oggi, il contributo più importante che gli LLM danno allo sviluppo dell’IA può anche essere il più banale. “Il contributo più grande è l’assistenza alla codifica”, afferma Tom Davidson, ricercatore senior presso Forethought, un’organizzazione di ricerca sull’IA senza scopo di lucro. Gli strumenti che aiutano gli ingegneri a scrivere software più velocemente, come Claude Code e Cursor, sembrano popolari in tutto il settore dell’IA: il CEO di Google Sundar Pichai ha dichiarato nell’ottobre 2024 che un quarto del nuovo codice dell’azienda è stato generato dall’intelligenza artificiale e Anthropic ha recentemente documentato una vasta gamma di modi in cui i suoi dipendenti utilizzano Claude Code. Se gli ingegneri diventano più produttivi grazie a questa assistenza alla codifica, saranno in grado di progettare, testare e implementare nuovi sistemi di intelligenza artificiale più rapidamente.

Ma il vantaggio in termini di produttività di questi strumenti rimane incerto: se gli ingegneri dedicano molto tempo a correggere gli errori commessi dai sistemi di intelligenza artificiale, potrebbero non fare più lavoro, anche se impiegano meno tempo a scrivere codice manualmente. Un recente studio di METR ha rilevato che gli sviluppatori impiegano circa il 20% in più per completare le attività utilizzando assistenti di codifica basati sull’intelligenza artificiale, anche se Nate Rush, membro dello staff tecnico di METR e co-leader dello studio, osserva che ha esaminato solo sviluppatori estremamente esperti che lavorano su grandi basi di codice. Le sue conclusioni potrebbero non essere applicabili ai ricercatori di intelligenza artificiale che scrivono script rapidi per eseguire esperimenti.

Secondo Rush, condurre uno studio simile nei laboratori all’avanguardia potrebbe aiutare a fornire un quadro molto più chiaro del fatto che gli assistenti di codifica stiano rendendo i ricercatori di intelligenza artificiale all’avanguardia più produttivi, ma questo lavoro non è ancora stato svolto. Nel frattempo, non è sufficiente accettare semplicemente la parola degli ingegneri del software: gli sviluppatori studiati dal METR hanno ritenuto che gli strumenti di codifica basati sull’intelligenza artificiale li avessero indotto a lavorare in modo più efficiente, anche se in realtà gli strumenti li avevano notevolmente rallentati.

2. Ottimizzazione dell’infrastruttura

Scrivere rapidamente del codice non è un grande vantaggio se devi aspettare ore, giorni o settimane per eseguirlo. L’allenamento LLM, in particolare, è un processo agonizzante e i modelli di ragionamento più sofisticati possono impiegare molti minuti per generare una singola risposta. Questi ritardi sono fondamentali per lo sviluppo dell’intelligenza artificiale, afferma Azalia Mirhoseini, assistente professore di informatica presso l’Università di Stanford negli Stati Uniti e scienziato senior presso Google DeepMind. “Se riusciamo a far funzionare l’IA più velocemente, possiamo innovare di più”, afferma.

Ecco perché Mirhoseini ha utilizzato l’intelligenza artificiale per ottimizzare i chip di intelligenza artificiale. Nel 2021, lei e i suoi collaboratori di Google hanno creato un sistema di intelligenza artificiale non basato su LLM che poteva decidere dove posizionare più componenti su un chip di computer per ottimizzare l’efficienza. Sebbene il lavoro abbia suscitato scetticismo da parte della comunità dei progetti di chip, Mirhoseini afferma che la rivista Nature ha indagato sull’articolo e ne ha convalidato la validità del lavoro, e osserva che Google ha utilizzato i progetti di sistema per diverse generazioni dei suoi chip di intelligenza artificiale personalizzati.

Più recentemente, Mirhoseini ha applicato gli LLM al problema della scrittura dei kernel, funzioni di basso livello che controllano il modo in cui varie operazioni, come la moltiplicazione delle matrici, vengono eseguite sui chip. Ha scoperto che anche gli LLM di uso generale possono, in alcuni casi, scrivere kernel che funzionano più velocemente delle versioni progettate dall’uomo.

In un’altra parte di Google, gli scienziati hanno creato un sistema che ha utilizzato per ottimizzare varie parti dell’infrastruttura LLM dell’azienda. Il sistema, chiamato AlphaEvolve, chiede al LLM Gemini di Google di scrivere algoritmi per risolvere un problema, valuta questi algoritmi e chiede a Gemini di migliorare quelli di maggior successo, ripetendo il processo più volte. AlphaEvolve ha progettato un nuovo approccio al funzionamento dei data center che ha fatto risparmiare lo 0,7% delle risorse di calcolo di Google, ha apportato ulteriori miglioramenti alla progettazione dei chip personalizzati di Google e ha progettato un nuovo kernel che ha accelerato l’addestramento di Gemini dell’1%.

Questo può sembrare un piccolo miglioramento, ma in un’azienda enorme come Google si tratta di un enorme risparmio di tempo, denaro ed energia. E Matej Balog, ricercatore di Google DeepMind che ha guidato il progetto AlphaEvolve, afferma che lui e il suo team hanno testato il sistema solo su un piccolo componente della pipeline di addestramento generale di Gemini. Applicarlo in modo più ampio, afferma, potrebbe comportare maggiori risparmi.

3. Automatizzare la formazione

Gli LLM sono notoriamente avidi di dati e addestrarli è costoso in ogni fase. In alcuni domini specifici, come i linguaggi di programmazione insoliti, ad esempio, i dati del mondo reale sono troppo scarsi per essere addestrati in modo efficace. L’apprendimento per rinforzo con il feedback umano, una tecnica in cui gli esseri umani valutano le risposte dei LLM ai prompt e i modelli vengono quindi addestrati sulla base di questi punteggi, è stata fondamentale per creare modelli che si comportano in base agli standard e alle preferenze umane, ma ottenere un feedback umano richiede tempo e costoso.

Sempre più spesso, gli LLM vengono utilizzati per colmare queste lacune. Se vengono accolti con molti esempi, possono generare dati sintetici plausibili in domini in cui non sono stati addestrati e questi dati sintetici possono quindi essere utilizzati per la formazione. Possono anche essere utilizzati in modo efficace nell’apprendimento di rinforzo: in un approccio chiamato “LLM come giudice”, gli LLM, invece di quelli umani, vengono utilizzati per valutare i risultati dei modelli che vengono addestrati. Questo approccio è fondamentale per l’influente framework “AI costituzionale” proposto dai ricercatori di Anthropic nel 2022, in cui un LLM viene addestrato per essere meno dannoso in base al feedback di un altro LLM.

La scarsità di dati è un problema particolarmente acuto per gli agenti di intelligenza artificiale. I più efficaci devono essere in grado di eseguire piani in più fasi per completare compiti specifici, ma gli esempi di completamento con successo dei compiti passo dopo passo online sono scarsi e l’uso degli esseri umani per generare nuovi esempi sarebbe costoso. Per superare questa limitazione, Mirhoseini di Stanford e i suoi colleghi hanno recentemente testato una tecnica in cui un agente genera un possibile approccio passo dopo passo per un determinato problema, un giudice valuta se ogni passaggio è valido e quindi un nuovo agente viene addestrato con questi passaggi. “Non sei più limitato dai dati, perché il modello può semplicemente generare arbitrariamente sempre più esperienze”, afferma Mirhoseini.

4. Perfezionare la progettazione degli agenti

Un’area in cui gli LLM non hanno ancora dato un contributo significativo è la loro progettazione. Gli LLM di oggi si basano tutti su una struttura di rete neurale chiamata transformer, proposta da ricercatori umani nel 2017, e i notevoli miglioramenti apportati da allora all’architettura sono stati progettati anche dall’uomo.

Ma l’emergere degli agenti LLM ha creato un universo di progettazione completamente nuovo da esplorare. Hanno bisogno di strumenti per interagire con il mondo esterno e di istruzioni su come utilizzarli, e l’ottimizzazione di questi strumenti e istruzioni è essenziale per produrre agenti efficaci. “Gli esseri umani non hanno trascorso molto tempo a mappare tutte queste idee, quindi c’è molto più frutto a portata di mano”, afferma Clune. “È più facile creare un sistema di intelligenza artificiale per catturarli.”

Insieme ai ricercatori della startup Sakana AI, Clune ha creato un sistema chiamato “Darwin Gödel Machine”: un agente LLM che può modificare iterativamente i prompt, gli strumenti e altri aspetti del codice per migliorare le proprie prestazioni nelle attività. Non solo la Darwin Gödel Machine ha ottenuto punteggi più alti nelle attività durante le modifiche, ma man mano che si evolveva, è anche riuscita a trovare nuove modifiche che la sua versione originale non sarebbe stata in grado di scoprire. Era entrata in un vero e proprio ciclo di auto-miglioramento.

5. Avanzare nella ricerca

Sebbene gli LLM stiano accelerando varie parti della pipeline di sviluppo degli LLM, gli esseri umani potrebbero continuare a essere essenziali per la ricerca sull’IA per un bel po’ di tempo. Molti esperti sottolineano il “gusto per la ricerca”, o la capacità dei migliori scienziati di identificare nuovi problemi e direzioni promettenti per la ricerca, come una sfida particolare per l’IA e un ingrediente chiave nello sviluppo dell’IA.

Tuttavia, Clune afferma che il gusto per la ricerca potrebbe non essere una sfida per l’intelligenza artificiale come alcuni ricercatori pensano. Lui e i ricercatori di Sakana AI stanno lavorando a un sistema end-to-end per la ricerca sull’IA che chiamano “IA Scientist”. Cerca nella letteratura scientifica per determinare la propria domanda di ricerca, conduce esperimenti per rispondere a questa domanda e poi scrive i risultati.

Un articolo che ha scritto all’inizio di quest’anno, in cui ha sviluppato e testato una nuova strategia di formazione con l’obiettivo di migliorare la combinazione di esempi di dati di formazione attraverso le reti neurali, è stato inviato anonimamente a un workshop (International Conference on Machine Learning, o ICML), una delle conferenze più prestigiose nel settore, con il consenso degli organizzatori del workshop. La strategia di formazione alla fine non ha funzionato, ma l’articolo ha ottenuto un punteggio sufficientemente alto da essere qualificato per l’accettazione (vale la pena notare che i workshop ICML hanno standard di accettazione inferiori rispetto alla conferenza principale). In un’altra occasione, Clune afferma che lo scienziato dell’IA è venuto fuori con un’idea di ricerca che è stata successivamente proposta in modo indipendente da un ricercatore umano su X, che ha attirato l’interesse di altri scienziati.

“Ora stiamo esaminando il momento del GPT-1 dello scienziato dell’IA”, afferma Clune. “Nel giro di pochi anni scriverà articoli che saranno accettati nelle migliori conferenze e riviste peer-reviewed del mondo. Farà scoperte scientifiche innovative”.

La superintelligenza è in arrivo?

Con tutto questo entusiasmo per l’auto-miglioramento dell’IA, sembra probabile che, nei prossimi mesi e anni, i contributi dell’IA al proprio sviluppo non faranno che moltiplicarsi. Secondo quanto afferma Mark Zuckerberg, ciò potrebbe significare che modelli superintelligenti, che superano le capacità umane in molti settori, sono proprio dietro l’angolo. In realtà, tuttavia, l’impatto dell’intelligenza artificiale auto-migliorabile è tutt’altro che certo.

È interessante notare che AlphaEvolve ha accelerato l’addestramento del proprio sistema LLM centrale, Gemini, ma questo aumento dell’1% della velocità potrebbe non modificare in modo osservabile il ritmo dei progressi dell’IA di Google. “Siamo ancora in un ciclo di feedback molto lento”, afferma Balog, ricercatore di AlphaEvolve. “L’addestramento dei Gemelli richiede molto tempo. Quindi, forse vedrai gli entusiasmanti inizi di questo ciclo virtuoso, ma è ancora un processo molto lento”.

Se ogni versione successiva di Gemini accelera il proprio allenamento di un ulteriore 1%, queste accelerazioni si accumuleranno. E poiché ogni generazione successiva sarà più capace della precedente, dovrebbe essere in grado di raggiungere accelerazioni ancora maggiori nell’allenamento, per non parlare di tutti gli altri modi che l’IA può inventare per migliorare se stesso. In tali circostanze, sostengono i sostenitori della superintelligenza, un’eventuale esplosione di intelligenza sembra inevitabile.

Tuttavia, questa conclusione ignora un’osservazione chiave: l’innovazione diventa più difficile nel tempo. Nei primi giorni di qualsiasi campo scientifico, le scoperte emergono rapidamente e facilmente. Ci sono molti esperimenti ovvi da realizzare e idee da indagare, e nessuno di questi è stato tentato prima. Ma man mano che la scienza dell’apprendimento profondo matura, trovare ogni ulteriore miglioramento può richiedere uno sforzo sostanziale sia da parte degli esseri umani che dei loro collaboratori nell’IA. È possibile che, quando i sistemi di intelligenza artificiale raggiungeranno la capacità di ricerca a livello umano, gli esseri umani o i sistemi di intelligenza artificiale meno intelligenti abbiano già raccolto tutti i frutti a portata di mano.

Determinar o impacto real do autoaperfeiçoamento da IA, então, é um grande desafio.
A peggiorare le cose, i sistemi di intelligenza artificiale più importanti per lo sviluppo dell’intelligenza artificiale, quelli utilizzati all’interno delle aziende di intelligenza artificiale all’avanguardia, sono probabilmente più avanzati di quelli che sono stati rilasciati al grande pubblico, quindi misurare le capacità di o3 potrebbe non essere un buon modo per dedurre cosa sta accadendo all’interno di OpenAI.

Ma i ricercatori esterni stanno facendo del loro meglio. Ad esempio, monitorando il ritmo complessivo dello sviluppo dell’IA per determinare se sta accelerando o meno. La METR sta monitorando i progressi nelle competenze dell’intelligenza artificiale, misurando il tempo che gli esseri umani impiegano per svolgere attività che i sistemi più avanzati possono portare a termine da soli. Hanno scoperto che il tempo necessario per completare le attività che i sistemi di intelligenza artificiale possono svolgere in modo indipendente è raddoppiato ogni sette mesi dal lancio di GPT-2 nel 2019.

A partire dal 2024, questo tempo di raddoppio è stato ridotto a quattro mesi, suggerendo che il progresso dell’IA sta effettivamente accelerando. Ci possono essere ragioni poco glamour per questo: i laboratori di intelligenza artificiale all’avanguardia sono pieni di soldi degli investitori, che possono spendere per assumere nuovi ricercatori e acquistare nuovi hardware. Ma è del tutto plausibile che anche l’auto-miglioramento dell’IA svolga un ruolo.

Questo è solo un indizio indiretto. Ma Davidson, il ricercatore di Forethought, afferma che ci sono buone ragioni per sperare che l’IA acceleri il proprio progresso, almeno per un po’. Il lavoro di METR suggerisce che l’effetto del “frutto a portata di mano” non sta rallentando i ricercatori umani di oggi, o almeno che l’aumento degli investimenti sta effettivamente controbilanciando qualsiasi rallentamento. Se l’intelligenza artificiale aumenta notevolmente la produttività di questi ricercatori, o addirittura assume una parte del lavoro di ricerca da sola, questo equilibrio cambierà a favore dell’accelerazione della ricerca.

“Penso che ci si aspetterebbe fortemente che ci sia un periodo in cui il progresso dell’IA acceleri”, afferma Davidson. “La grande domanda è quanto durerà.”

fontes: MIT Technology Review