Come evitare che l’IA generativa contribuisca alla concentrazione di potere nelle mani delle Big Techs

by MIT Technology Review

Se le autorità di regolamentazione non agiscono subito, l’espansione dell’intelligenza artificiale generativa (IA) concentrerà ulteriormente il potere nelle mani delle Big Tech. Questo è l’argomento centrale di un nuovo rapporto dell’istituto di ricerca AI Now. E ha senso. Per capire perché, si consideri che l’attuale crescita dell’IA dipende da due cose: grandi quantità di dati e sufficiente potenza di calcolo per elaborarli. 

La disponibilità di queste risorse è per lo più limitata alle grandi imprese. E se alcune delle innovazioni più interessanti, come il chatbot ChatGPT di OpenAI e Stable Diffusion, l’intelligenza artificiale per la generazione di immagini di Stability.AI, sono state create da startup, esse dipendono da accordi con le Big Tech che garantiscono loro l’accesso ai loro vasti dati e alle loro risorse di calcolo. 

“Alcune grandi aziende tecnologiche sono pronte a consolidare il potere attraverso l’IA, piuttosto che favorirne la democratizzazione”, afferma Sarah Myers West, direttore esecutivo dell’AI Now Institute, un’organizzazione di ricerca no-profit. 

Attualmente le grandi aziende tecnologiche hanno il controllo assoluto sull’IA. Ma Myers West ritiene che ci troviamo davvero in un momento cruciale. È l’inizio di un nuovo ciclo di euforia tecnologica e ciò significa che i legislatori e le autorità di regolamentazione hanno un’opportunità unica per garantire che il prossimo decennio di tecnologia AI sia più democratico ed equo. 

Ciò che distingue questo momento tecnologico da quelli precedenti è che abbiamo una migliore comprensione di tutti i modi catastrofici in cui l’IA può portare a scenari terribili. E le autorità di regolamentazione di tutto il mondo stanno prestando molta attenzione. 

La Cina ha appena pubblicato una bozza di legge sull’IA generativa che chiede maggiore trasparenza e supervisione. L’Unione Europea (UE), invece, sta negoziando l’approvazione di una legislazione sull’intelligenza artificiale che richiederà alle aziende tecnologiche una maggiore trasparenza sul funzionamento di questi sistemi. Inoltre, l’UE sta progettando un disegno di legge per ritenere le aziende responsabili di eventuali danni derivanti da questa tecnologia. 

Gli Stati Uniti sono stati tradizionalmente riluttanti a sorvegliare il proprio settore tecnologico. Ma la situazione sta cambiando. L’amministrazione Biden sta studiando come sorvegliare i modelli di IA come ChatGPT, ad esempio imponendo alle aziende tecnologiche di condurre audit e valutazioni d’impatto o richiedendo che i sistemi di IA soddisfino determinati standard prima di essere rilasciati. Si tratta di una delle misure più concrete adottate dal governo per ridurre i danni dell’IA. 

Nel frattempo, la presidente della Federal Trade Commission (FTC) statunitense, Lina Khan, ha sottolineato il vantaggio che le Big Tech hanno sull’uso dei dati e della potenza di calcolo e ha promesso di prendere provvedimenti per garantire un ambiente di concorrenza leale nel settore dell’IA. L’agenzia ha anche segnalato la possibilità di condurre indagini antitrust e di reprimere le pratiche commerciali ingannevoli. 

Questa nuova attenzione al settore dell’IA è in parte influenzata dal fatto che molti membri dell’AI Now Institute, tra cui Myers West, hanno lavorato o collaborato con la FTC. 

Myers West afferma che il periodo trascorso alla FTC le ha insegnato che la regolamentazione dell’IA non deve partire da zero. Invece di aspettare regolamenti specifici per l’IA, come l’AI Act dell’UE, che richiederà anni per entrare in vigore, le autorità di regolamentazione dovrebbero intensificare l’applicazione delle leggi esistenti in materia di protezione dei dati e concorrenza. 

Poiché l’IA come la conosciamo oggi si basa principalmente su grandi quantità di dati, la politica dei dati è anche politica dell’IA, afferma Myers West. 

Un esempio è ChatGPT, che ha affrontato un intenso controllo da parte delle autorità europee e canadesi per la protezione dei dati ed è stato bloccato in Italia per aver presumibilmente estratto illegalmente informazioni personali dal web e averle utilizzate in modo improprio. 

La richiesta di un intervento normativo non proviene solo dalle autorità governative. È successo qualcosa di insolito. Dopo decenni di lotta contro la regolamentazione con le unghie e con i denti, oggi la maggior parte delle aziende tecnologiche, compresa OpenAI, dichiara di sostenerla. 

La grande domanda su cui non c’è ancora consenso è come dovrebbe essere fatta. Sebbene le aziende tecnologiche dicano di essere favorevoli alla regolamentazione, quando si tratta di lanciare prodotti con tecnologia AI adottano ancora un atteggiamento del tipo “prima il lancio sul mercato, poi le domande”. In generale, si affrettano a rilasciare modelli di IA che generano immagini e testi come prodotti, anche se questi modelli presentano gravi difetti: inventano assurdità, perpetuano pregiudizi dannosi, violano il copyright e contengono vulnerabilità di sicurezza.

L’iniziativa della Casa Bianca di rispondere alla domanda sulla responsabilità dell’IA con misure successive al rilascio, come gli audit algoritmici, non è sufficiente a mitigare i danni della tecnologia, sostiene il rapporto AI Now. È necessaria un’azione più incisiva e rapida per garantire che le aziende dimostrino prima di tutto che i loro modelli sono sicuri per essere rilasciati al pubblico, afferma Myers West. 

“Dovremmo essere molto attenti alle risoluzioni che non responsabilizzano le aziende. Ci sono molti approcci normativi che essenzialmente spostano l’onere sul pubblico e sulle autorità di regolamentazione per sradicare i danni causati dall’IA”, afferma l’autrice. 

Soprattutto, secondo Myers West, le agenzie di regolamentazione devono agire rapidamente.