Come sono caduti i potenti. Dieci anni fa, i social media venivano celebrati per aver scatenato rivolte democratiche nel mondo arabo e in altri paesi. Ora, le prime pagine sono piene di storie sul ruolo di queste piattaforme sociali nella disinformazione, nella cospirazione aziendale, nella cattiva condotta e nei rischi per la salute mentale. In un sondaggio del Pew Research Center del 2022, gli americani hanno accusato i social media della brutalizzazione del nostro discorso politico, della diffusione della disinformazione e dell’aumento della polarizzazione partitica.
Oggi il tema caldo è l’Intelligenza Artificiale. Come i social media, hanno il potenziale per cambiare il mondo in molti modi, alcuni dei quali a favore della democrazia. Ma allo stesso tempo può causare danni alla società. C’è molto che possiamo imparare sull’evoluzione non regolamentata dei social media negli ultimi dieci anni che si applica direttamente alle aziende e alle tecnologie di intelligenza artificiale. Queste lezioni possono aiutarci a evitare di commettere gli stessi errori che abbiamo commesso con i social media.
In particolare, cinque attributi fondamentali dei social media hanno danneggiato la società. Anche l’intelligenza artificiale ha gli stessi attributi. Tieni presente che non sono intrinsecamente malvagi. Sono tutte spade a doppio taglio, con il potenziale per fare il bene o il male. Il pericolo viene da chi li usa. Il pericolo viene da chi brandisce il coltello e in quale direzione viene brandito. Questo è stato vero per i social media e sarà vero per l’intelligenza artificiale. In entrambi i casi, la soluzione rientra nei limiti dell’uso della tecnologia.
# 1: Pubblicità
Il ruolo svolto dalla pubblicità su Internet è nato più per caso che per altro. Quando la commercializzazione arrivò per la prima volta su Internet, non esisteva un modo semplice per gli utenti di effettuare micropagamenti per fare cose come visualizzare una pagina web. Inoltre gli utenti erano abituati all’accesso gratuito e non accettavano modelli di abbonamento ai servizi. La pubblicità era il modello di business più ovvio, anche se mai il migliore. Ed è il modello su cui si basano anche i social media, che li porta a privilegiare l’engagement rispetto a tutto il resto.
Sia Google che Facebook credono che l’intelligenza artificiale li aiuterà a mantenere il loro dominio su un mercato pubblicitario online a 11 cifre (sì, a 11 cifre), e i giganti della tecnologia, che tradizionalmente hanno fatto meno affidamento sulla pubblicità, come Microsoft e Amazon, credono che l’intelligenza artificiale aiuterà catturano una quota maggiore di questo mercato.
Big Tech ha bisogno di qualcosa che convinca gli inserzionisti a continuare a spendere sulle sue piattaforme. Nonostante le affermazioni roboanti sull’efficacia del marketing mirato, i ricercatori hanno lottato a lungo per dimostrare dove e quando la pubblicità online abbia effettivamente un impatto. Quando grandi marchi come Uber e Procter & Gamble hanno recentemente ridotto la spesa pubblicitaria digitale di centinaia di milioni, hanno affermato che ciò non ha influenzato affatto le loro vendite.
I leader del settore affermano che gli annunci basati sull’intelligenza artificiale saranno molto migliori. Google garantisce che l’intelligenza artificiale possa adattare il testo pubblicitario in risposta a ciò che gli utenti cercano e che i suoi algoritmi di intelligenza artificiale configureranno le tue campagne per massimizzare il successo. Amazon vuole che tu utilizzi la sua intelligenza artificiale che genera immagini per rendere più interessanti le pagine dei suoi tostapane. E IBM è fiduciosa che Watson AI migliorerà gli annunci.
Queste tecniche rasentano la manipolazione, ma il rischio maggiore per gli utenti deriva dalla pubblicità sui chatbot AI. Proprio come Google e Meta incorporano annunci nei loro risultati di ricerca e nei feed, le aziende di intelligenza artificiale saranno costrette a incorporare annunci nelle conversazioni. E poiché queste conversazioni saranno relazionali e di tipo umano, possono essere più dannose. Anche se molti di noi sono diventati bravi a sfogliare gli annunci sulle pagine dei risultati di Amazon e Google, sarà molto più difficile determinare se un chatbot AI menziona un prodotto perché è una buona risposta alla tua domanda o perché lo sviluppatore dell’IA ha ricevuto una commissione da parte del produttore.
# 2: sorveglianza
La dipendenza dei social media dalla pubblicità come mezzo principale per monetizzare i siti web ha portato alla personalizzazione, che ha portato ad una maggiore sorveglianza. Per convincere gli inserzionisti che le piattaforme social possono personalizzare gli annunci in modo che siano quanto più attraenti possibile per ogni persona, le piattaforme devono dimostrare di poter raccogliere quante più informazioni possibili su quelle persone.
È difficile sopravvalutare la quantità di spionaggio in corso. Una recente analisi di Consumer Reports su Facebook – solo Facebook – ha mostrato che ogni utente ha più di 2.200 aziende diverse che spiano le sue attività web.
Le piattaforme basate sull’intelligenza artificiale supportate dagli inserzionisti dovranno affrontare gli stessi incentivi di mercato perversi e potenti che devono affrontare le piattaforme social. È facile immaginare che un operatore di chatbot potrebbe addebitare un prezzo più alto se potesse affermare di poter rivolgersi agli utenti in base alla loro posizione, ai dati sulle preferenze o alla cronologia delle chat precedenti e convincerli ad acquistare prodotti.
La possibilità di manipolazione non potrà che aumentare poiché dipendiamo dall’intelligenza artificiale per i servizi personali. Una delle promesse dell’intelligenza artificiale generativa è la prospettiva di creare un assistente digitale personale sufficientemente avanzato da fungere da difensore degli altri e da maggiordomo. Ciò richiede più intimità di quella che hai con il tuo motore di ricerca, provider di posta elettronica, sistema di archiviazione cloud o telefono. Vorrai che sia sempre con te e, per lavorare nel modo più efficace, avrà bisogno di sapere tutto di te. Si comporterà come un amico e tu probabilmente lo tratterai come tale, fidandoti erroneamente della sua discrezione.
Anche se scegli di non familiarizzare volontariamente un assistente AI con il tuo stile di vita e le tue preferenze, la tecnologia AI può rendere più facile per le aziende conoscerti. Le prime dimostrazioni illustrano come i chatbot possono essere utilizzati per estrarre di nascosto dati personali ponendo domande comuni. E con i chatbot sempre più integrati in ogni ambito, dai sistemi di assistenza clienti alle interfacce di ricerca di siti Web di base, l’esposizione a questo tipo di raccolta di dati inferenziali potrebbe diventare inevitabile.
# 3: Viralità
I social media consentono a qualsiasi utente di esprimere qualsiasi idea con il potenziale di una portata globale immediata. Un grande oratore pubblico seduto su un podio può esprimere idee a poche centinaia di persone in una buona serata. Un ragazzino con la giusta quantità di battute su Facebook può raggiungere qualche centinaio di milioni di persone in pochi minuti.
Dieci anni fa, gli esperti di tecnologia speravano che questo tipo di viralità avrebbe unito le persone e avrebbe garantito l’accesso a verità represse. Ma come questione strutturale, è nell’interesse di un social network mostrarti le cose su cui è più probabile che clicchi e condividi, e le cose che ti manterranno sulla piattaforma.
In realtà, questo di solito significa contenuti oltraggiosi, scandalosi e provocatori. I ricercatori hanno scoperto che i contenuti che esprimono maggiore animosità verso gli oppositori politici ottengono il maggiore coinvolgimento su Facebook e Twitter. E questo incoraggiamento all’indignazione spinge e premia la disinformazione.
Come scrisse una volta Jonathan Swift, “La menzogna vola e la verità zoppica dietro di essa”. Gli accademici sembrano averlo dimostrato nel caso dei social media; le persone hanno maggiori probabilità di condividere informazioni false, forse perché sembrano più innovative e sorprendenti. E sfortunatamente, questo tipo di disinformazione virale è diffusa.
L’intelligenza artificiale ha il potenziale per potenziare il problema perché rende la produzione e la propagazione dei contenuti più facili, veloci e automatiche. Gli strumenti generati dall’intelligenza artificiale possono fabbricare un numero infinito di falsità su qualsiasi individuo o argomento, alcune delle quali diventano virali. E queste bugie possono essere alimentate da account social controllati da robot IA, che possono condividere e riciclare la disinformazione originale su qualsiasi scala.
Generatori di testo incredibilmente potenti e agenti IA autonomi stanno già iniziando a far sentire la loro presenza sui social media. A luglio, i ricercatori dell’Università dell’Indiana hanno rivelato una botnet di oltre 1.100 account Twitter (ora X) che sembrava essere gestita tramite ChatGPT.
L’intelligenza artificiale contribuirà a rafforzare i contenuti virali che emergono dai social media. Sarà in grado di creare siti e contenuti web, recensioni degli utenti e applicazioni per smartphone. Sarà in grado di simulare migliaia, o addirittura milioni, di false personas per dare l’errata impressione che un’idea, una posizione politica o l’utilizzo di un prodotto siano più comuni di quanto non siano in realtà. Ciò che potremmo percepire come un vivace dibattito politico potrebbe essere un dialogo tra robot. E queste risorse non saranno disponibili solo per chi ha denaro e potere; gli strumenti di intelligenza artificiale necessari per tutto questo saranno facilmente a disposizione di tutti noi.
# 4: Blocco
Le società di social media si sforzano di rendere difficile l’uscita dalle loro piattaforme. Questo non significa solo che perderai conversazioni con i tuoi amici. Ti rendono difficile prendere i tuoi dati salvati (connessioni, post, foto) e trasferirli su un’altra piattaforma.
Ogni momento in cui investi nella condivisione di un ricordo, nel contattare un conoscente o nel curare i tuoi follower su una piattaforma social aggiunge un mattone al muro che altrimenti dovresti scalare per passare a un’altra piattaforma. Questo concetto di “lock-in” non è esclusivo dei social media. Microsoft coltiva da anni formati di documenti proprietari per consentirti di utilizzare il suo prodotto di punta, Office. Il tuo servizio musicale o lettore di e-book rende difficile trasferire il contenuto acquistato a un servizio o lettore rivale. E se passi da un iPhone a un dispositivo Android, i tuoi amici potrebbero prenderti in giro. Ma i social media portano tutto questo a un nuovo livello. Non importa quanto sia grave, è molto difficile lasciare Facebook se ci sono tutti i tuoi amici. Coordinare il passaggio di tutti a una nuova piattaforma è incredibilmente difficile, motivo per cui nessuno lo fa.
Allo stesso modo, le aziende che creano assistenti personali digitali basati sull’intelligenza artificiale renderanno difficile per gli utenti trasferire tale personalizzazione su un’altra intelligenza artificiale. Se gli assistenti personali AI riusciranno a farti risparmiare molto tempo, sarà perché conoscono i dettagli della tua vita così come un buon assistente umano; Vorresti rinunciare a tutto questo per ricominciare da capo con il servizio di un’altra azienda? In esempi estremi, alcune persone hanno stretto legami stretti, forse anche familiari, con i chatbot basati sull’intelligenza artificiale. Se pensi alla tua IA come a un amico o a un terapista, questa può essere una potente forma di lealtà. Il lock-in è una preoccupazione importante perché si traduce in prodotti e servizi meno reattivi alla domanda dei clienti. Più è difficile per te passare a un concorrente, peggio l’azienda potrebbe trattarti.
In assenza di un modo per forzare l’interoperabilità, le aziende di intelligenza artificiale hanno meno incentivi a innovare sulle funzionalità o a competere sui prezzi, e hanno meno scrupoli nell’impegnarsi nella sorveglianza o in altri comportamenti scorretti.
#5: Monopolizzazione
Le piattaforme social spesso iniziano come ottimi prodotti che sono effettivamente utili e illuminanti per i loro consumatori, prima di iniziare a monetizzare e sfruttare tali utenti a vantaggio dei loro clienti aziendali. Quindi le piattaforme rivendicano il valore per se stesse, trasformando i loro prodotti in esperienze davvero miserabili per tutti. Questo è un ciclo di cui Cory Doctorow ha scritto in modo potente e ha tracciato la storia di Facebook, Twitter e, più recentemente, TikTok.
La ragione di questi risultati è strutturale. Gli effetti di rete delle piattaforme tecnologiche portano alcune aziende a diventare dominanti e il lock-in ne garantisce la continuazione. Gli incentivi nel settore tecnologico sono così spettacolarmente, incredibilmente potenti che hanno consentito a sei megacorporazioni (Amazon, Apple, Google, Facebook, Meta, Microsoft e Nvidia) di ottenere un valore di mercato di trilioni di dollari ciascuna – o più. Queste aziende usano la loro ricchezza per bloccare qualsiasi legislazione significativa che potrebbe ridurre il loro potere. E a volte cospirano tra loro per ingrassare ancora di più.
Questo ciclo sta chiaramente iniziando a ripetersi nell’intelligenza artificiale. Basta guardare l’esempio di OpenAI, il fiore all’occhiello del settore, la cui offerta di punta, ChatGPT, continua a stabilire segni di accettazione e utilizzo. Un anno dopo il lancio del prodotto, la valutazione di OpenAI è salita alle stelle fino a circa 90 miliardi di dollari.
OpenAI una volta sembrava un’alternativa “aperta” alle megacorporazioni, un operatore comune di servizi di intelligenza artificiale con una missione sociale senza scopo di lucro. Ma la debacle del licenziamento e della riassunzione di Sam Altman alla fine del 2023, e il ruolo centrale di Microsoft nella riconferma di Altman a CEO, hanno semplicemente illustrato come il finanziamento di venture capital da parte dei ranghi familiari dell’élite tecnologica permea e controlla l’intelligenza artificiale aziendale. Nel gennaio 2024, OpenAI ha compiuto un grande passo verso la monetizzazione di questa base di utenti introducendo il GPT Store, dove un cliente OpenAI può addebitare a un altro l’utilizzo di versioni personalizzate del software OpenAI; la società, ovviamente, raccoglie entrate da entrambe le parti. Ciò mette in moto il ciclo da cui Doctorow mette in guardia.
In questa spirale di sfruttamento, viene prestata poca o nessuna attenzione alle esternalità imposte al grande pubblico, alle persone che non utilizzano nemmeno le piattaforme. Anche dopo che la società ha lottato per anni contro i suoi effetti dannosi, i social network monopolistici non hanno praticamente alcun incentivo a controllare l’impatto ambientale dei loro prodotti, la tendenza a diffondere disinformazione o gli effetti dannosi sulla salute mentale. E il governo non ha praticamente applicato alcuna regolamentazione per questi scopi.
Allo stesso modo, ci sono poche o nessuna salvaguardia per limitare il potenziale impatto negativo dell’IA. Software di riconoscimento facciale che equivalgono alla profilazione razziale, opinioni pubbliche simulate e potenziate dai chatbot, video falsi negli annunci politici: tutto questo persiste in un’area grigia legale. Anche i palesi trasgressori della legge sulla pubblicità elettorale potrebbero, sostengono alcuni, essere esonerati se lo facessero semplicemente con l’intelligenza artificiale.
Mitigare i rischi
I rischi che l’intelligenza artificiale comporta per la società sono sorprendentemente familiari, ma c’è una grande differenza: non è troppo tardi. Questa volta sappiamo che tutto sta arrivando. Fresco della nostra esperienza con i danni causati dai social media, abbiamo tutti gli avvertimenti necessari per evitare di commettere gli stessi errori.
L’errore più grande che abbiamo commesso con i social media è stato quello di lasciarli come uno spazio non regolamentato. Anche adesso – dopo tutti gli studi e le rivelazioni sugli effetti negativi dei social media sui bambini e sulla salute mentale, dopo Cambridge Analytica, dopo la denuncia dell’intervento russo nella nostra politica, dopo tutto il resto – i social media negli Stati Uniti rimangono in gran parte un’attività non regolamentata. “arma di distruzione di massa.” Il Congresso riceverà milioni di dollari in contributi dalle Big Tech e i legislatori investiranno persino milioni dei propri dollari in queste società, ma approvare leggi che limitino o penalizzino il loro comportamento sembra un passo troppo lontano.
Non possiamo permetterci di fare la stessa cosa con l’intelligenza artificiale poiché i rischi sono ancora maggiori. Il danno che i social media possono causare deriva dal modo in cui influenzano la nostra comunicazione. L’intelligenza artificiale ci influenzerà allo stesso modo e in molti altri modi. Se la traiettoria delle Big Tech è un segnale, gli strumenti di intelligenza artificiale saranno sempre più coinvolti nel modo in cui apprendiamo e nel modo in cui esprimiamo i nostri pensieri. Ma questi strumenti influenzeranno anche il modo in cui programmiamo le nostre attività quotidiane, come progettiamo i prodotti, come scriviamo le leggi e persino come diagnostichiamo le malattie. Il ruolo espansivo di queste tecnologie nella nostra vita quotidiana offre alle aziende a scopo di lucro l’opportunità di esercitare il controllo su più aspetti della società, il che ci espone ai rischi derivanti dai loro incentivi e decisioni.
La buona notizia è che disponiamo di un’intera categoria di strumenti per modulare il rischio che le azioni aziendali pongono alla nostra vita, a partire dalla regolamentazione. Le normative possono presentarsi sotto forma di restrizioni alle attività, come limitazioni su quali tipi di aziende e prodotti possono incorporare strumenti di intelligenza artificiale. Questi possono presentarsi sotto forma di regole di trasparenza, che richiedono la divulgazione di quali set di dati vengono utilizzati per addestrare i modelli di intelligenza artificiale o quali nuovi modelli di pre-produzione vengono addestrati. E possono presentarsi sotto forma di requisiti di supervisione e responsabilità, consentendo sanzioni civili nei casi in cui le aziende infrangono le regole.
Il più grande punto di influenza che i governi hanno quando si tratta di aziende tecnologiche è la legge antitrust. Nonostante ciò che molti lobbisti vorrebbero far credere, una delle funzioni principali della regolamentazione è preservare la concorrenza, non rendere la vita difficile alle aziende. Non è inevitabile che OpenAI diventi un altro Meta, un gorilla di 800 libbre la cui base di utenti e portata sono molte volte superiori a quelle dei suoi concorrenti. Oltre a rafforzare e far rispettare la legge antitrust, possiamo introdurre una regolamentazione che supporti gli standard di concorrenza specifici del settore tecnologico, come la portabilità dei dati e l’interoperabilità dei dispositivi. Questa è un’altra strategia chiave per resistere al monopolio e al controllo aziendale. Inoltre, i governi possono far rispettare le normative pubblicitarie esistenti. Proprio come gli Stati Uniti regolano quali media possono e non possono ospitare pubblicità per prodotti sensibili come le sigarette, e proprio come molte altre giurisdizioni esercitano uno stretto controllo sui tempi e sulla forma della pubblicità politicamente sensibile, gli Stati Uniti potrebbero anche limitare l’impegno tra i fornitori di media e di intelligenza artificiale inserzionisti. Infine, dobbiamo riconoscere che lo sviluppo e la fornitura di strumenti di intelligenza artificiale non devono necessariamente essere dominio sovrano delle aziende.
Anche noi, il popolo e il nostro governo, possiamo farlo. La proliferazione dello sviluppo dell’intelligenza artificiale open source nel 2023, con un successo tale da spaventare gli attori aziendali, ne è la prova. E possiamo andare oltre, chiedendo al nostro governo di creare strumenti di intelligenza artificiale per l’opinione pubblica sviluppati con supervisione e responsabilità politica nel nostro sistema democratico, dove la dittatura del profitto non si applica.
È possibile discutere quale di queste soluzioni sia più pratica, più importante o più urgentemente necessaria. Dobbiamo avere un dialogo sociale vivace sull’opportunità e sulle modalità di utilizzo di ciascuno di questi strumenti. Ci sono molte strade per un buon risultato.
Il problema è che questo non sta accadendo ora, soprattutto negli Stati Uniti. E con le elezioni presidenziali incombenti, i conflitti che si diffondono in modo allarmante in Asia ed Europa e una crisi climatica globale, è facile immaginare che non saremo in grado di affrontare l’intelligenza artificiale più velocemente di quanto abbiamo (non siamo riusciti) a gestire i social media. Ma non è ancora troppo tardi. Questi sono ancora i primi anni per le applicazioni pratiche dell’intelligenza artificiale di consumo. Dobbiamo e possiamo fare meglio.
Nathan E. Sanders è un data scientist affiliato al Berkman Klein Center dell’Università di Harvard. Bruce Schneier è un tecnologo della sicurezza, membro e professore presso la Harvard Kennedy School.
( fonte: MIT Technology Review )