A NVIDIA controla os chips de IA mais potentes: a OpenAI, a Broadcom e a TSMC querem acabar com isso com as suas XPUs

A OpenAI quer dar um golpe de mestre na corrida para dominar a inteligência artificial. No início de setembro, soubemos que «um cliente misterioso» fez um investimento de 10 mil milhões de dólares na Broadcom para o design de chips de IA. Através de fontes próximas à empresa, soubemos que se tratava da OpenAI, com a intenção de formar uma aliança estratégica tanto com a Broadcom quanto com a TSMC para a fabricação de chips próprios. Denominados “XPUs”, eles têm um objetivo claro: deixar de depender da NVIDIA, algo que muitas grandes empresas de tecnologia desejam.

Ter independência em IA tem um preço elevado. Para a OpenAI, depender completamente da NVIDIA para alimentar o ChatGPT e os seus futuros modelos representa um risco enorme, sobretudo por ter de enfrentar custos astronómicos e estar limitada à evolução tecnológica e ao stock de uma empresa como a NVIDIA. Criar os seus próprios chips permite à OpenAI otimizar o hardware especificamente para os seus modelos de linguagem, reduzir despesas operacionais e libertar-se das amarras de um único fornecedor. Uma estratégia semelhante à da Apple quando se despediu da Intel para começar a fabricar os seus próprios chips nos seus Mac. No entanto, deixar de depender da NVIDIA hoje em dia é complicado.

O trio de ouro por trás dos XPUs. A Broadcom lidera o design destes processadores especializados, contribuindo com a sua experiência em chips personalizados para gigantes tecnológicos. A empresa controla aproximadamente 70% do mercado de processadores de IA personalizados e já colabora com a Google em suas TPUs há anos. A TSMC, maior fabricante de semicondutores do mundo, será responsável pela produção dos chips usando sua avançada tecnologia de 3 nanômetros. A produção em massa deverá começar em 2026, com as primeiras remessas chegando no mesmo ano.

O que são exatamente os XPUs. Esses chips não são GPUs adaptadas para IA, que é o que a NVIDIA comercializa em linhas gerais, mas arquiteturas projetadas do zero com um único objetivo: acelerar modelos de linguagem. Enquanto as GPUs da NVIDIA nasceram para renderizar gráficos e depois foram adaptadas para inteligência artificial, os XPUs da OpenAI são concebidos especificamente para tarefas de treinamento e inferência de IA. Incorporam matrizes sistólicas, memória de alta largura de banda (HBM) e capacidades de rede integradas, semelhantes aos processadores mais avançados da NVIDIA, mas otimizadas para as necessidades específicas da OpenAI.

A rebelião contra a NVIDIA tem várias frentes. A OpenAI não está sozinha em seu esforço para quebrar a hegemonia da NVIDIA. O Google leva quase uma década a desenvolver suas TPUs (Tensor Processing Units), que já estão na sétima geração. A Amazon criou os seus chips Trainium e Inferentia para a AWS. A Microsoft projetou o Maia para o Azure. A Meta colabora com a AMD em soluções alternativas. Mesmo da China, a Huawei ameaça enfrentar a concorrência nos próximos três anos. É claro que todas as grandes empresas de tecnologia querem ter um maior controlo sobre os seus produtos e, para isso, precisam descer até à cadeia de fornecimento de chips para começar a repensar o esquema.

A verdadeira vantagem da NVIDIA. Apesar do panorama atual, a NVIDIA mantém um trunfo na manga que não será fácil de superar: CUDA. Esta plataforma de desenvolvimento tornou-se o padrão da indústria há mais de uma década. Praticamente todos os investigadores e desenvolvedores de IA programam em CUDA, o que gera um efeito de rede muito poderoso. Mudar para uma arquitetura diferente não implica apenas adquirir novos chips, mas também reescrever software, retreinar equipas e, em muitos casos, começar do zero. É essa tecnologia que mantém a NVIDIA numa posição privilegiada, mesmo diante da avalanche de concorrentes.

Uma estratégia dupla. O paradoxo do caso é que a OpenAI não está a abandonar a NVIDIA. Paralelamente a este projeto de chips próprios, a empresa mantém um acordo de 100 mil milhões de dólares com a gigante de Santa Clara para o seu projeto Stargate, que prevê a construção de enormes centros de dados até 2028. Por um lado, garantem o fornecimento de poder de computação com a NVIDIA, enquanto, por outro, desenvolvem a sua alternativa a longo prazo. A ideia é que as XPUs sejam inicialmente utilizadas internamente, sobretudo para inferência (aplicar modelos já treinados), enquanto as GPUs da NVIDIA continuarão a ser necessárias para o treino dos modelos mais exigentes.

O tabuleiro está a mudar. A Broadcom sai claramente reforçada com esta jogada. O anúncio do seu acordo com a OpenAI disparou as suas ações na bolsa e consolida a sua posição como parceiro preferencial para empresas que procuram chips personalizados. A TSMC também sai a ganhar: cada nova onda de chips especializados reforça o seu papel indispensável como fabricante de referência mundial. A NVIDIA, por sua vez, viu as suas ações caírem ligeiramente após o anúncio da notícia, embora continue a manter uma posição dominante muito difícil de derrubar. Além disso, a AMD poderá beneficiar se empresas mais pequenas, incapazes de desenvolver os seus próprios chips, procurarem alternativas mais acessíveis do que a NVIDIA.

Alisia Pereira/ author of the article

Escrevo artigos, partilho ideias simples que tornam a vida mais fácil.

cfeelings