Graças ao boom da Inteligência Artificial, o mundo dos chips está à beira de uma enorme mudança. Há uma demanda crescente por chips que possam treinar modelos de IA mais rapidamente e conectá-los a partir de dispositivos como smartphones e satélites, permitindo que usemos esses modelos sem revelar dados privados. Governos, gigantes da tecnologia e startups estão competindo para garantir suas fatias do crescente mercado de semicondutores.
Aqui estão quatro tendências que definirão como serão os chips do futuro, quem os fabricará e quais novas tecnologias eles desbloquearão.
Leis dos CHIPS ao redor do mundo
Nos arredores de Phoenix, duas das maiores fabricantes de chips do mundo, TSMC e Intel, estão correndo para construir campi no deserto. A expectativa é de que esses polos se tornem os centros de poderio americano na fabricação de chips. Uma coisa que os esforços têm em comum é seu financiamento: em março, o presidente Joe Biden anunciou US$8,5 bilhões em fundos federais diretos e US$11 bilhões em empréstimos para as expansões da Intel em todo o país. Semanas depois, outros US$6,6 bilhões foram anunciados para a TSMC.
Os subsídios são apenas uma parte dos aportes dos EUA destinados à indústria de chips por meio do CHIPS and Science Act de US$280 bilhões, assinado em 2022. O dinheiro significa que qualquer empresa envolvida no ecossistema de semicondutores está analisando como reestruturar suas cadeias de suprimentos para se beneficiar dessa quantia. Embora grande parte do valor vise impulsionar a fabricação americana de chips, há espaço para outros players se candidatarem, de fabricantes de equipamentos a startups de materiais de nicho.
Mas os EUA não são o único país tentando internalizar parte da cadeia de suprimentos da fabricação de chips. O Japão está gastando US$13 bilhões em seu próprio equivalente ao CHIPs Act, a Europa gastará mais de US$47 bilhões e, no início deste ano, a Índia anunciou um esforço de US$15 bilhões para construir fábricas de chips locais. As raízes dessa tendência remontam a 2014, diz Chris Miller, professor da Universidade Tufts e autor do livro Chip War: The Fight for the World’s Most Critical Technology (Guerra de chips: a luta pela tecnologia mais crítica do mundo), quando a China começou a oferecer enormes subsídios aos seus fabricantes de chips.
“Isso criou uma dinâmica em que outros governos concluíram que não tinham escolha a não ser oferecer incentivos ou ver as empresas transferirem a fabricação para a China”, diz ele. Essa ameaça, juntamente com o aumento da IA, levou os governos ocidentais a financiarem alternativas. No próximo ano, isso pode ter um efeito bola de neve, com ainda mais países iniciando seus próprios programas por medo de serem deixados para trás.
Segundo Miller, é improvável que o dinheiro leve a novos concorrentes de chips ou reestruture fundamentalmente quem são os maiores players desse mercado. Em vez disso, incentivará, principalmente players dominantes como a TSMC, a estabelecer raízes em vários países. Mas o financiamento por si só não será suficiente para fazer isso rapidamente — o esforço da TSMC para construir fábricas no Arizona tem sido prejudicado pelo descumprimento de prazos e disputas trabalhistas, e a Intel também não conseguiu cumprir seus prazos prometidos. Além disso, não está claro se, quando as fábricas finalmente entrarem em operação, seus equipamentos e mão de obra serão capazes de manter o nível de fabricação avançada de chips que as empresas mantêm no exterior.
“A cadeia de suprimentos só mudará lentamente, ao longo de anos e décadas”, diz Miller. “Mas está mudando.”
Mais IA no limite
Atualmente, a maioria das nossas interações com modelos de IA, como o ChatGPT, são feitas via nuvem. Isso significa que, quando você pede ao GPT para escolher uma roupa (ou para ser seu namorado), sua solicitação é enviada aos servidores da OpenAI, que processa e tira conclusões (conhecidas como “inferência”) antes que uma resposta seja enviada de volta para você. Confiar na nuvem tem algumas desvantagens: requer acesso à internet, por exemplo, e significa que alguns dados são compartilhados com o criador do modelo.
É por isso que há muito interesse e investimento em computação de borda para IA, em que o processo de interação com o modelo acontece diretamente no seu dispositivo, como um laptop ou smartphone. Com a indústria cada vez mais trabalhando em direção a um futuro em que os modelos de IA saibam muito sobre nós (Sam Altman descreveu seu modelo de IA ideal como aquele que sabe “absolutamente tudo sobre toda a minha vida, cada e-mail, cada conversa que já tive”), há uma demanda por chips de borda mais rápidos que possam executar modelos sem compartilhar dados privados. Esses chips enfrentam restrições diferentes em comparação com os data centers: eles normalmente precisam ser menores, mais baratos e mais eficientes em termos de energia.
O Departamento de Defesa dos EUA está financiando muitas pesquisas sobre computação de borda rápida e privada. Em março, a ala de pesquisa Defense Advanced Research Projects Agency (DARPA) anunciou uma parceria com a fabricante de chips EnCharge AI para criar um chip de computação de borda ultrapoderoso usado para inferência de IA. A EnCharge AI está trabalhando para fazer um chip que permita maior privacidade, mas também possa operar com pouca energia. Isso o tornará adequado para aplicações militares, como satélites e equipamentos de vigilância off-grid. A empresa espera enviar os chips em 2025.
Os modelos de IA sempre dependerão da nuvem para algumas aplicações, mas novos investimentos e interesse em melhorar a computação de borda poderiam trazer chips mais rápidos e, portanto, mais IA para nossos dispositivos diários. Se os chips de borda ficarem pequenos e baratos o suficiente, é provável que vejamos ainda mais “dispositivos inteligentes” impulsionados por IA em nossas casas e locais de trabalho. Hoje, os modelos de IA são principalmente restritos a data centers.
“Muitos dos desafios que vemos nos data centers serão superados”, diz o cofundador da EnCharge AI, Naveen Verma. “Espero ver um grande foco na [computação de] borda. Acho que será fundamental para conseguir IA em escala.”
Big Techs entram na briga pela fabricação de chips
Em setores que vão de fast fashion a cuidados com gramados, as empresas estão pagando valores exorbitantes em custos computacionais para criar e treinar modelos de IA para seus negócios. Exemplos incluem modelos que os funcionários podem usar para digitalizar e resumir documentos, bem como tecnologias voltadas para o exterior, como agentes virtuais, que podem orientá-lo sobre como consertar sua geladeira quebrada. Isso significa que a demanda por computação em nuvem para treinar esses modelos está nas alturas.
As empresas que fornecem a maior parte desse poder de computação são: Amazon, Microsoft e Google. Durante anos, essas gigantes da tecnologia sonharam em aumentar suas margens de lucro fabricando chips internamente para seus data centers, em vez de comprar de empresas como a Nvidia, uma gigante com quase um monopólio dos chips de treinamento de IA mais avançados e um valor maior do que o PIB de 183 países.
A Amazon iniciou seus esforços em 2015, adquirindo a startup Annapurna Labs. O Google avançou em seguida, em 2018, com seus próprios chips chamados TPUs. A Microsoft lançou seus primeiros chips de IA em novembro, e o Meta revelou uma nova versão de seus próprios chips de treinamento de IA em abril.
Essa tendência pode inclinar a balança contra a Nvidia. Mas a empresa não desempenha apenas o papel de rival aos olhos das Big Techs: independentemente de seus próprios esforços internos, os gigantes da nuvem ainda precisam dos chips Nvidia para seus data centers. Isso ocorre em parte porque seus próprios esforços de fabricação de chips não podem atender a todas as suas necessidades, mas também porque seus clientes esperam poder usar chips topo de linha da Nvidia.
“Trata-se realmente de dar poder de escolha aos clientes”, diz Rani Borkar, que lidera os esforços de hardware na Microsoft Azure. Ela diz que não pode imaginar um futuro em que a Microsoft forneça todos os chips para seus serviços de nuvem: “continuaremos com nossas parcerias sólidas e implantaremos chips de todos os parceiros com os quais trabalhamos”.
Enquanto os gigantes da computação em nuvem tentam roubar um pouco de participação de mercado dos fabricantes de chips, a Nvidia também está tentando o inverso. No ano passado, a empresa iniciou seu próprio serviço de nuvem para que os clientes possam contornar a Amazon, Google ou Microsoft e obter tempo de processamento com chips Nvidia diretamente. À medida que essa luta dramática por participação de mercado se desenrola, o próximo ano será sobre se os clientes veem os chips das Big Techs como semelhantes aos chips mais avançados da Nvidia, ou mais como seus primos menores.
Nvidia luta contra as startups
Apesar do domínio da Nvidia, há uma onda de investimento fluindo para startups que visam superá-la em certas fatias do mercado de chips do futuro. Todas essas startups prometem treinamento de IA mais rápido, mas têm ideias diferentes sobre qual tecnologia computacional as levará até lá, de quântica a fotônica e computação reversível.
Mas Murat Onen, fundador de uma dessas startups de chips, a Eva, que ele criou a partir de seu trabalho de doutorado no MIT, é contundente sobre como é começar uma empresa de chips agora.
“O rei da colina é a Nvidia, e esse é o mundo em que vivemos”, diz ele.
Muitas dessas empresas, como SambaNova, Cerebras e Graphcore, estão tentando mudar a arquitetura subjacente dos chips. Imagine um chip acelerador de IA constantemente tendo que embaralhar dados entre diferentes áreas: uma informação é armazenada na zona de memória, mas deve se mover para a zona de processamento, onde um cálculo é feito, e depois ser armazenada de volta para a zona de memória para segurança. Tudo isso demanda tempo e energia.
Tornar esse processo mais eficiente forneceria treinamento de IA mais rápido e barato aos clientes, mas apenas se a fabricante de chips tiver um software bom o suficiente para permitir que a empresa de treinamento de IA faça a transição de forma perfeita para o novo chip. Se a transição de software for muito complicada, fabricantes de modelos como OpenAI, Anthropic e Mistral provavelmente permanecerão como grandes fabricantes de chips. Isso significa que empresas que adotam essa abordagem, como a SambaNova, estão gastando muito tempo não apenas no design de chips, mas também no design de software.
Onen está propondo mudanças em um nível mais profundo. Em vez dos transistores tradicionais, que entregaram maior eficiência ao longo de décadas ficando cada vez menores, ele está usando um novo componente chamado transistor de prótons que, segundo ele, Eva projetou especificamente para as necessidades matemáticas do treinamento de IA. Ele permite que os dispositivos armazenem e processem dados no mesmo lugar, economizando tempo e energia computacional. A ideia de usar esse componente para inferência de IA remonta à década de 1960, mas os pesquisadores nunca conseguiram descobrir como usá-lo para treinamento de IA, em devido a um obstáculo material – ele requer um material que possa, entre outras qualidades, controlar com precisão a condutividade à temperatura ambiente.
Um dia, no laboratório, “otimizando esses números e tendo muita sorte, conseguimos o material que queríamos”, diz Onen. “De repente, o dispositivo não é mais um projeto de feira de ciências.” Isso levantou a possibilidade de usar esse componente em escala. Depois de meses trabalhando para confirmar que os dados estavam corretos, ele fundou a Eva, e o trabalho foi publicado na Science.
Mas em um setor onde tantos fundadores prometeram derrubar o domínio dos principais fabricantes de chips – e falharam –, Onen admite francamente que levará anos até saber se o design funciona como pretendido e se os fabricantes concordarão em produzi-lo. Liderar uma empresa através dessa incerteza, diz ele, requer flexibilidade e apetite por ceticismo dos outros.
“Acho que às vezes as pessoas se sentem muito apegadas às suas ideias, e então meio que se sentem inseguras de que, se isso desaparecer, não haverá nada a seguir”, diz ele. “Acho que não me sinto assim. Ainda estou procurando pessoas para nos desafiar e dizer que estamos errados.”
( fonte: James O’Donnell/MIT Technology Review)