Qual è il futuro dei chips ?

Grazie al boom dell’Intelligenza Artificiale, il mondo dei chip è sull’orlo di un enorme cambiamento. C’è una crescente domanda di chip in grado di addestrare più velocemente i modelli di intelligenza artificiale e di collegarli da dispositivi come smartphone e satelliti, consentendoci di utilizzare questi modelli senza rivelare dati privati. Governi, giganti della tecnologia e startup competono per assicurarsi le proprie quote nel crescente mercato dei semiconduttori.

Ecco quattro tendenze che definiranno come saranno i chip del futuro, chi li produrrà e quali nuove tecnologie sbloccheranno.

Leggi CHIPS nel mondo

Appena fuori Phoenix, due dei più grandi produttori di chip del mondo, TSMC e Intel, stanno gareggiando per costruire campus nel deserto. L’aspettativa è che questi hub diventino centri del potere americano nella produzione di chip. Una cosa che questi sforzi hanno in comune è il finanziamento: a marzo, il presidente Joe Biden ha annunciato 8,5 miliardi di dollari in fondi federali diretti e 11 miliardi di dollari in prestiti per l’espansione di Intel in tutto il Paese. Alcune settimane dopo, furono annunciati altri 6,6 miliardi di dollari per TSMC.

I sussidi sono solo una parte dei contributi degli Stati Uniti all’industria dei chip attraverso il CHIPS and Science Act da 280 miliardi di dollari, firmato nel 2022. Il denaro significa che qualsiasi azienda coinvolta nell’ecosistema dei semiconduttori sta cercando di ristrutturare le proprie catene di approvvigionamento per trarne vantaggio questo importo. Sebbene gran parte del denaro sia destinato a promuovere la produzione americana di chip, c’è spazio per altri attori che possono candidarsi, dai produttori di apparecchiature alle startup di materiali di nicchia.

Ma gli Stati Uniti non sono l’unico paese che cerca di internalizzare parte della catena di approvvigionamento della produzione di chip.

Il Giappone sta spendendo 13 miliardi di dollari per l’equivalente del CHIPs Act, l’Europa spenderà più di 47 miliardi di dollari e all’inizio di quest’anno l’India ha annunciato uno sforzo di 15 miliardi di dollari per costruire fabbriche locali di chip. Le radici di questa tendenza risalgono al 2014, afferma Chris Miller, professore alla Tufts University e autore del libro Chip War: The Fight for the World’s Most Critical Technology, quando la Cina iniziò a offrire enormi sussidi ai suoi produttori di chip. “Ciò ha creato una dinamica in cui altri governi hanno concluso di non avere altra scelta che offrire incentivi o vedere le aziende spostare la produzione in Cina”, afferma. Questa minaccia, insieme all’ascesa dell’intelligenza artificiale, ha portato i governi occidentali a finanziare alternative. L’anno prossimo, ciò potrebbe avere un effetto valanga, con ancora più paesi che avviano i propri programmi per paura di essere lasciati indietro.

Secondo Miller, è improbabile che il denaro porti a nuovi concorrenti di chip o ristrutturi radicalmente chi sono i maggiori attori in quel mercato. Invece, incoraggerà, in particolare gli attori dominanti come TSMC, a stabilire radici in più paesi. Ma i finanziamenti da soli non saranno sufficienti per raggiungere questo obiettivo rapidamente: gli sforzi di TSMC per costruire fabbriche in Arizona sono stati ostacolati da scadenze non rispettate e controversie di lavoro, e anche Intel non è riuscita a rispettare le scadenze promesse. Inoltre, non è chiaro se, quando le fabbriche saranno finalmente operative, le loro attrezzature e la loro manodopera saranno in grado di mantenere il livello di produzione di chip avanzati che le aziende mantengono all’estero.

“La catena di approvvigionamento cambierà solo lentamente, nel corso di anni e decenni”, afferma Miller. “Ma sta cambiando.”

Più IA al limite

Attualmente, la maggior parte delle nostre interazioni con modelli di intelligenza artificiale come ChatGPT avviene tramite cloud. Ciò significa che quando chiedi a GPT di scegliere un outfit (o di essere il tuo ragazzo), la tua richiesta viene inviata ai server di OpenAI, che la elabora e trae conclusioni (note come “inferenza”) prima che ti venga inviata una risposta. Affidarsi al cloud presenta alcuni svantaggi: richiede ad esempio l’accesso a Internet e significa che alcuni dati vengono condivisi con il creatore del modello.

Questo è il motivo per cui c’è molto interesse e investimento nell’edge computing per l’intelligenza artificiale, dove il processo di interazione con il modello avviene direttamente sul tuo dispositivo, come un laptop o uno smartphone. Con l’industria sempre più impegnata verso un futuro in cui i modelli di intelligenza artificiale sanno molto di noi (Sam Altman ha descritto il suo modello di intelligenza artificiale ideale come quello che sa “assolutamente tutto della mia intera vita, ogni email, ogni conversazione che ho avuto”), ecco che è una richiesta di chip edge più veloci in grado di eseguire modelli senza condividere dati privati. Questi chip devono affrontare vincoli diversi rispetto ai data center: in genere devono essere più piccoli, più economici e più efficienti dal punto di vista energetico.

Il Dipartimento della Difesa degli Stati Uniti sta finanziando molte ricerche sull’edge computing veloce e privato. A marzo, l’ala di ricerca della Defense Advanced Research Projects Agency (DARPA) ha annunciato una partnership con il produttore di chip EnCharge AI per creare un chip di edge computing ultra potente utilizzato per l’inferenza dell’intelligenza artificiale. EnCharge AI sta lavorando per realizzare un chip che consenta una maggiore privacy ma possa anche funzionare a basso consumo. Ciò lo renderà adatto ad applicazioni militari come satelliti e apparecchiature di sorveglianza off-grid. La società prevede di spedire i chip nel 2025.

I modelli di intelligenza artificiale faranno sempre affidamento sul cloud per alcune applicazioni, ma nuovi investimenti e interesse nel miglioramento dell’edge computing potrebbero portare chip più veloci e quindi più intelligenza artificiale nei nostri dispositivi di tutti i giorni. Se i chip edge diventeranno abbastanza piccoli ed economici, probabilmente vedremo ancora più “dispositivi intelligenti” basati sull’intelligenza artificiale nelle nostre case e nei luoghi di lavoro. Oggi, i modelli di intelligenza artificiale sono per lo più limitati ai data center.

“Molte delle sfide che vediamo nei data center saranno superate”, afferma Naveen Verma, cofondatore di EnCharge AI. “Mi aspetto di vedere una grande attenzione all’edge [computing]. Penso che sarà fondamentale per ottenere l’intelligenza artificiale su larga scala”.

Le grandi tecnologie entrano nella mischia per la produzione di chip

In settori che vanno dalla fast fashion alla cura del prato, le aziende stanno pagando cifre esorbitanti in costi computazionali per creare e addestrare modelli di intelligenza artificiale per le loro attività. Gli esempi includono modelli che i dipendenti possono utilizzare per scansionare e riepilogare documenti, nonché tecnologie rivolte all’esterno come agenti virtuali che possono guidarti su come riparare il tuo frigorifero rotto. Ciò significa che la domanda di cloud computing per addestrare questi modelli è alle stelle.

Le aziende che forniscono la maggior parte di questa potenza di calcolo sono: Amazon, Microsoft e Google. Per anni, questi giganti della tecnologia hanno sognato di aumentare i loro margini di profitto producendo internamente chip per i loro data center piuttosto che acquistarli da aziende come Nvidia, un gigante con un quasi monopolio sui chip di addestramento AI più avanzati e con un valore più elevato. rispetto al PIL di 183 paesi.

Amazon ha iniziato i suoi sforzi nel 2015 acquisendo la startup Annapurna Labs. Google ha poi fatto un passo avanti, nel 2018, con i propri chip chiamati TPU. Microsoft ha rilasciato i suoi primi chip AI a novembre e Meta ha presentato una nuova versione dei propri chip di addestramento AI ad aprile.

Questa tendenza potrebbe far pendere la bilancia a sfavore di Nvidia. Ma agli occhi delle Big Tech l’azienda non svolge solo il ruolo di rivale: nonostante i propri sforzi interni, i giganti del cloud hanno ancora bisogno dei chip Nvidia per i loro data center. Ciò è in parte dovuto al fatto che i suoi sforzi nella produzione di chip non riescono a soddisfare tutte le sue esigenze, ma anche perché i suoi clienti si aspettano di essere in grado di utilizzare i chip top di gamma di Nvidia.

“Si tratta davvero di dare ai clienti il ​​potere di scelta”, afferma Rani Borkar, che guida le attività hardware presso Microsoft Azure. Dice di non poter immaginare un futuro in cui Microsoft fornisca tutti i chip per i suoi servizi cloud: “Continueremo le nostre solide partnership e implementeremo chip da tutti i partner con cui lavoriamo”.

Mentre i giganti del cloud computing cercano di rubare quote di mercato ai produttori di chip, Nvidia sta tentando anche il contrario. L’anno scorso, l’azienda ha avviato il proprio servizio cloud in modo che i clienti possano bypassare Amazon, Google o Microsoft e ottenere tempi di elaborazione direttamente con i chip Nvidia. Mentre si svolge questa drammatica lotta per la quota di mercato, il prossimo anno si tratterà di decidere se i clienti considereranno i chip delle Big Tech simili ai chip più avanzati di Nvidia, o più simili ai loro cugini più piccoli.

Nvidia combatte le startup

Nonostante il dominio di Nvidia, c’è un’ondata di investimenti che fluisce verso le startup che mirano a superarla in alcune fette del futuro mercato dei chip. Tutte queste startup promettono una formazione IA più rapida, ma hanno idee diverse su quale tecnologia informatica le porterà lì, dalla quantistica alla fotonica al calcolo reversibile.

Ma Murat Onen, fondatore di una di queste startup di chip, Eva, che ha creato dal suo lavoro di dottorato al MIT, è schietto su cosa significhi avviare un’azienda di chip adesso.

“Il re della collina è Nvidia, e questo è il mondo in cui viviamo”, afferma.

Molte di queste aziende, come SambaNova, Cerebras e Graphcore, stanno cercando di cambiare l’architettura sottostante dei chip. Immagina un chip acceleratore AI che debba costantemente mescolare i dati tra diverse aree: le informazioni vengono archiviate nella zona di memoria, ma devono spostarsi nella zona di elaborazione, dove viene effettuato un calcolo, e quindi essere archiviate nuovamente nella zona di elaborazione per sicurezza. Tutto ciò richiede tempo ed energie.

Rendere questo processo più efficiente fornirebbe ai clienti una formazione sull’intelligenza artificiale più rapida ed economica, ma solo se il produttore di chip dispone di un software sufficientemente buono da consentire alla società di formazione sull’intelligenza artificiale di passare senza problemi al nuovo chip. Se la transizione del software sarà troppo complicata, produttori di modelli come OpenAI, Anthropic e Mistral rimarranno probabilmente i principali produttori di chip. Ciò significa che le aziende che adottano questo approccio, come SambaNova, dedicano molto tempo non solo alla progettazione dei chip, ma anche alla progettazione del software.

Onen propone cambiamenti a un livello più profondo. Invece dei transistor tradizionali, che hanno garantito maggiore efficienza nel corso di decenni in cui sono diventati sempre più piccoli, sta utilizzando un nuovo componente chiamato transistor protonico che, secondo Eva, ha progettato specificamente per le esigenze matematiche dell’addestramento dell’intelligenza artificiale. Consente ai dispositivi di archiviare ed elaborare i dati nello stesso posto, risparmiando tempo ed energia di calcolo. L’idea di utilizzare questo componente per l’inferenza dell’intelligenza artificiale risale agli anni ’60, ma i ricercatori non sono mai riusciti a capire come utilizzarlo per l’addestramento sull’intelligenza artificiale, a causa di un ostacolo materiale: richiede un materiale che possa, tra le altre qualità, , il controllo determina accuratamente la conduttività a temperatura ambiente.

Un giorno in laboratorio, “ottimizzando questi numeri e diventando davvero fortunati, abbiamo ottenuto il materiale che volevamo”, dice Onen. “Improvvisamente il dispositivo non è più un progetto per la fiera della scienza.” Ciò ha sollevato la possibilità di utilizzare questo componente su larga scala. Dopo mesi di lavoro per confermare che i dati fossero corretti, fondò Eva e il lavoro fu pubblicato su Science.

Ma in un settore in cui così tanti fondatori hanno promesso di ribaltare il dominio dei principali produttori di chip – e hanno fallito – Onen ammette liberamente che ci vorranno anni prima di sapere se il progetto funzionerà come previsto e se i produttori accetteranno di produrlo. Guidare un’azienda attraverso questa incertezza, dice, richiede flessibilità e propensione allo scetticismo da parte degli altri.

“Penso che a volte le persone si sentano molto attaccate alle proprie idee, e poi si sentono insicure: se queste svaniscono, non ci sarà nulla da seguire”, dice. “Non credo di sentirmi così. Sto ancora cercando persone che ci sfidino e ci dicano che abbiamo torto”.

( fonte: James O’Donnell/MIT Technology Review)