A fine febbraio, mentre partecipavo alla conferenza sui diritti digitali RightsCon a Taiwan, ho visto in tempo reale le organizzazioni della società civile di tutto il mondo, compresi gli Stati Uniti, confrontarsi con la perdita di uno dei maggiori finanziatori del lavoro sui diritti digitali a livello globale: il governo degli Stati Uniti.
Come ho già scritto in precedenza, lo sconvolgente e accelerato smantellamento del governo americano da parte dell’amministrazione Trump (e la sua svolta verso quello che alcuni eminenti scienziati politici hanno definito “autoritarismo competitivo”) influisce anche sul funzionamento e sulle politiche delle aziende tecnologiche americane, molte delle quali, ovviamente, hanno utenti ben oltre i confini americani. I partecipanti al RightsCon hanno affermato di aver già notato dei cambiamenti nella volontà di queste aziende di interagire e investire nelle comunità più piccole, in particolare quelle che non parlano inglese.
Di conseguenza, alcuni decisori politici e dirigenti aziendali, soprattutto in Europa, stanno riconsiderando la loro dipendenza dalla tecnologia statunitense e si chiedono se possano sviluppare rapidamente alternative locali migliori. Ciò è particolarmente vero nel caso dell’intelligenza artificiale.
Uno degli esempi più chiari si trova nei social media. Yasmin Curzi, ricercatrice post-dottorato presso il Karsh Institute of Democracy dell’Università della Virginia e professoressa in aspettativa presso l’FGV Direito Rio, che si occupa di ricerche sulle politiche tecnologiche nazionali, ha riassunto la situazione in questo modo: “Dalla seconda amministrazione Trump, non possiamo più contare sulle [piattaforme di social media statunitensi] per fare nemmeno il minimo indispensabile”.
I sistemi di moderazione dei contenuti sui social media, che già utilizzano l’automazione e stanno anche sperimentando l’uso di modelli linguistici su larga scala (LLM) per segnalare i post problematici, non riescono a rilevare la violenza di genere in paesi diversi come India, Sudafrica e Brasile. Se le piattaforme dovessero affidarsi ancora di più agli LLM per la moderazione dei contenuti, il problema probabilmente peggiorerebbe, afferma Marlena Wisniak, avvocato per i diritti umani specializzato in governance dell’intelligenza artificiale presso l’European Nonprofit Law Center. “Gli LLM sono già scarsamente moderati e gli stessi LLM scarsamente moderati vengono utilizzati per moderare altri contenuti”, mi ha detto. “È così circolare, e gli errori continuano a ripetersi e ad amplificarsi.”
Parte del problema è che questi sistemi vengono addestrati principalmente su dati provenienti dal mondo anglofono (in particolare l’inglese americano), il che fa sì che abbiano prestazioni inferiori nelle lingue e nei contesti locali.
Anche i modelli linguistici multilingue, che dovrebbero essere in grado di elaborare più lingue contemporaneamente, hanno ancora scarse prestazioni nelle lingue non occidentali. Ad esempio, una valutazione delle risposte di ChatGPT alle domande sulla salute ha mostrato che i risultati erano molto peggiori in cinese e hindi (lingue meno rappresentate nei set di dati nordamericani) rispetto a inglese e spagnolo.
Per molti partecipanti al RightsCon, questo convalida le richieste di approcci allo sviluppo dell’intelligenza artificiale più basati sulla comunità, sia all’interno che all’esterno del contesto dei social media. Questi approcci possono includere piccoli modelli linguistici, chatbot e set di dati creati per usi specifici e mirati a particolari lingue e contesti culturali. Questi sistemi potrebbero essere addestrati a riconoscere slang e insulti, a interpretare parole o frasi scritte con un mix di lingue (e persino alfabeti) e a identificare il “linguaggio risignificato” (termini offensivi che sono stati adottati positivamente dal gruppo precedentemente preso di mira). Tutti questi aspetti tendono a essere ignorati o classificati erroneamente dai modelli linguistici e dai sistemi automatizzati formati principalmente sull’inglese anglo-americano.
Ad esempio, la fondatrice della startup Shhor AI ha presieduto un dibattito al RightsCon per presentare la sua nuova API di moderazione dei contenuti per le lingue vernacolari indiane.
Molte soluzioni simili sono in fase di sviluppo da anni e ne abbiamo esaminate diverse, tra cui un’iniziativa volontaria promossa da Mozilla per raccogliere dati di formazione in lingue diverse dall’inglese e startup promettenti come Lelapa AI, che sta sviluppando un’intelligenza artificiale per le lingue africane. All’inizio di quest’anno abbiamo addirittura incluso i modelli linguistici di piccole dimensioni nel nostro elenco delle 10 tecnologie più innovative del 2025.
Eppure, questo momento mi sembra un po’ diverso. Un fattore centrale è ovviamente la seconda amministrazione Trump, che influenza direttamente le azioni e le politiche delle aziende tecnologiche americane. Ma ci sono anche altri elementi in gioco.
In primo luogo, le recenti ricerche e i progressi nello sviluppo di modelli linguistici hanno raggiunto un punto in cui la dimensione dei set di dati non è più un fattore determinante per le prestazioni, il che significa che più persone possono crearli. In effetti, “i modelli linguistici più piccoli possono essere degni concorrenti dei modelli multilingue in lingue specifiche con risorse limitate”, afferma Aliya Bhatia, ricercatrice ospite presso il Center for Democracy & Technology che studia la moderazione automatizzata dei contenuti.
Poi c’è lo scenario globale. La competizione intorno all’intelligenza artificiale è stato uno dei temi principali del recente Paris AI Summit, tenutosi la settimana prima del RightsCon. Da allora, una serie di annunci hanno evidenziato iniziative di “intelligenza artificiale sovrana”, che mirano a dare a un paese (o a un’organizzazione) il pieno controllo su tutti gli aspetti dello sviluppo dell’intelligenza artificiale.
La sovranità dell’intelligenza artificiale è solo una parte di un più ampio desiderio di “sovranità tecnologica”, che sta anch’esso guadagnando slancio, spinto da preoccupazioni più diffuse sulla privacy e la sicurezza dei dati trasferiti negli Stati Uniti. Lo scorso novembre l’Unione Europea ha nominato il suo primo commissario per la sovranità tecnologica, la sicurezza e la democrazia e ha lavorato a un piano per creare un “Euro Stack”, ovvero una “infrastruttura pubblica digitale”.
La definizione di questo concetto è ancora in fase di elaborazione, ma potrebbe includere l’energia, l’acqua, i chip, i servizi cloud, i software, i dati e i sistemi di intelligenza artificiale necessari per sostenere la società moderna e l’innovazione futura. Oggi tutti questi elementi sono in gran parte forniti dalle aziende tecnologiche statunitensi. Gli sforzi europei sono in parte ispirati dall’“India Stack”, l’infrastruttura digitale indiana che include il sistema di identità biometrica Aadhaar. La scorsa settimana, i parlamentari olandesi hanno addirittura approvato diverse mozioni per dissociare il Paese dai fornitori di tecnologia americani.
Tutto ciò è in linea con quanto mi ha detto Andy Yen, CEO di Proton, azienda svizzera specializzata nella privacy digitale, al RightsCon. Secondo lui, Trump sta “facendo muovere l’Europa più velocemente… portando al riconoscimento che il continente ha bisogno di riconquistare la propria sovranità tecnologica”. Ciò è dovuto in parte all’influenza che il presidente esercita sui CEO del settore tecnologico, ha affermato Yen, ma anche perché “la tecnologia è il motore della futura crescita economica di qualsiasi Paese”.
Ma il fatto che i governi si stiano interessando non significa che i problemi di inclusione nei modelli linguistici scompariranno. “Credo che occorrano confini chiari su quale dovrebbe essere il ruolo del governo in questo contesto. La situazione si complica quando il governo decide: ‘Queste sono le lingue che vogliamo promuovere’ o ‘Questi sono i tipi di opinioni che vogliamo rappresentare in un dataset'”, afferma Bhatia. “Fondamentalmente, i dati di addestramento di un modello equivalgono alla visione del mondo che sviluppa.”
È ancora troppo presto per sapere come si svilupperà tutto questo e quanto di tutto ciò si rivelerà realtà o solo finzione. Ma qualunque cosa accada, questo è uno scenario che continueremo a monitorare attentamente.
( fontes: MIT Technology Review )
