Voltar | Inteligência Artificial

Porque é que as Big Tech querem os seus próprios chips?

por Marta Amaral | 16 de Março, 2026

Durante anos, a corrida à inteligência artificial foi, em grande medida, uma corrida a GPUs da Nvidia.

As grandes empresas tecnológicas do mundo, como a Meta, Google, Amazon, ByteDance, compravam milhares dechips ao mesmo fabricante, pagavam o que era pedido e esperavam na fila. A Nvidia chegou a valer mais de quatro biliões (trillion) de dólares. Mas algo mudou, as mesmas empresas estão agora a construir os seus próprios chips. Porquê?

Dinheiro, claro. Treinar e correr modelos de IA é extraordinariamente caro, e uma boa fatia desse custo vai para o fabricante dos chips. A Meta vai gastar entre 115 e 135 mil milhões de dólares em infraestrutura de IA só em 2026. A Google vai a 93 mil milhões. Quando os números são desta dimensão, qualquer redução nos custos de computação por unidade transforma-se em poupanças de centenas de milhões.

Mas há mais. Trata-se também de controlo. Um chip genérico é desenhado para funcionar bem em muitas situações. Um chip feito à medida para as tarefas específicas de uma empresa pode ser muito mais eficiente. E há ainda a questão da segurança de abastecimento: estar na fila da Nvidia significa aceitar os prazos e as condições da Nvidia. Quem fabrica os seus próprios chips tem maior controlo sobre quando e como expande a sua capacidade.

As três razões por detrás da corrida

  • Poupança em escala: quando se gasta 100 mil milhões por ano, uma eficiência de 30% representa 30 mil milhões poupados. Chips à medida são mais baratos por unidade de computação para tarefas específicas.
  • Independência estratégica: depender de um único fornecedor é um risco. Chips próprios significam não estar sujeito aos preços, prazos e condições da Nvidia.
  • Vantagem competitiva: infraestrutura proprietária é difícil de copiar. Quem tem o melhor hardware para os seus modelos específicos tem uma vantagem que o dinheiro dos concorrentes não compra imediatamente.

Google. Dez anos de vantagem

A Google foi pioneira. Em 2013, a empresa percebeu que se cada utilizador Android usasse a pesquisa por voz três minutos por dia, precisaria de duplicar a capacidade global de data centers. A solução foi desenvolver um chip próprio, o TPU, Tensor Processing Unit. O primeiro entrou em produção interna em 2015; dez anos depois, está na sétima geração.

O TPU v7, chamado Ironwood, é o mais poderoso de sempre: dez vezes mais rápido do que a geração anterior em certas métricas. Ao contrário dos chips anteriores, usados principalmente dentro da Google Cloud, o Ironwood está a ser vendido a clientes externos, incluindo a Anthropic, que em outubro fechou o maior negócio de TPUs da história, com acesso a até um milhão de chips para treinar e correr os seus modelos Claude.

A grande diferença competitiva dos TPUs é a eficiência por dólar: para certas cargas de trabalho, particularmente interpretação, o preço-desempenho é significativamente melhor do que os GPUs da Nvidia. A desvantagem histórica, o facto do ecossistema de software XLA ser menos familiar para programadores do que o CUDA da Nvidia, está a ser gradualmente resolvida com suporte nativo a PyTorch.

Amazon. Chips como produto de cloud

A Amazon chegou ao chip próprio por um caminho diferente. Enquanto a Google queria resolver os seus próprios problemas de computação, a Amazon através da AWS, (o maior serviço de cloud do mundo) queria uma oferta competitiva para os clientes. Os chipsTrainium e Inferentia não são apenas para uso interno, são produtos que a AWS vende como alternativa mais barata aos GPUs da Nvidia.

Em dezembro, a Amazon lançou o Trainium3, o seu chip de terceira geração para treino de IA, construído num processo de 3 nanómetros. Os clientes, segundo a AWS, poupam 30 a 40% por comparação com chips equivalentes da Nvidia. A quarta geração, Trainium4, já está em desenvolvimento e será compatível com os chips da Nvidia.

A Amazon está também a construir “AI Factories”: pacotes de infraestrutura que incluem chips Trainium, GPUs Nvidia, redes AWS e serviços de IA, vendidos como um produto integrado para empresas e governos. A Anthropic, um dos clientes mais importantes da AWS, usa tanto os chips Trainium como os TPUs do Google, um sinal de que o mercado está a diversificar-se rapidamente para além da Nvidia.

Meta. Quatro gerações em dois anos

A Meta demorou mais do que a Google ou a Amazon a entrar nesta corrida. O seu primeiro chip, o MTIA, só foi revelado em 2023. Mas há uns dias, a empresa fez um anúncio que mudou o tom da conversa: quatro gerações de chips em dois anos, um ritmo que nenhuma outra empresa tentou igualar. Enquanto a indústria tipicamente lança uma nova geração a cada um a dois anos, a Meta está a lançar a sua a cada seis meses.

Os chips MTIA 300, 400, 450 e 500, são usados exclusivamente internamente e destinam-se sobretudo a duas funções: os sistemas de recomendação (o algoritmo que decide o que aparece no feed do Instagram e do Facebook) e a interpretação de modelos generativos de IA. O MTIA 300 já está em produção; o 400 está a ser preparado para os data centers; os modelos 450 e 500 chegam no próximo ano.

Seguem uma estratégia de portefólio variado, ou seja, em vez de um chip que faça tudo, a Meta quer chips optimizados para cada tipo de tarefa. A parceria técnica é com a Broadcom, e o fabrico é feito pela TSMC. Ao mesmo tempo, a Meta assinou contratos de milhares de milhões com a Nvidia e com a AMD, os chips da casa não substituem os de fora, complementam-nos.

ByteDance. Uma estratégia “criativa”

O caso da ByteDance, dona do TikTok e do Douyin, é o mais complexo dos quatro e o mais revelador das tensões geopolíticas que atravessam a indústria. A empresa chinesa opera numa posição peculiar: é um dos maiores consumidores de chips de IA do mundo, mas está sujeita a restrições de exportação americanas que limitam o acesso à tecnologia mais avançada da Nvidia.

Por um lado, a ByteDance está a gastar o equivalente a 4 mil milhões de dólares em chips Nvidia H200 em 2026, uma versão ligeiramente menos potente dos chips topo de gama, aprovada para venda à China. Por outro lado, tem uma equipa interna de cerca de mil engenheiros a desenvolver chips próprios, com parceria técnica com a Broadcom e a TSMC.

Mas há uma terceira via, e é aqui que a história fica mais interessante. Os EUA proibiram a exportação dos chips mais avançados da Nvidia (a família Blackwell) directamente para a China. A tecnológica chinesa, não pode comprá-los para data centers em território chinês. A solução encontrada foi a Malásia: a Nvidia vende os chips a uma empresa intermediária que monta servidores, esses servidores são instalados em data centers malayos, e a ByteDance arrenda ou financia essa capacidade. Os chips nunca entram em solo chinês, por isso não violam as regras de exportação americanas mas a ByteDance tem acesso à sua capacidade de processamento à mesma. A empresa planeia ter cerca de 36 mil chips Blackwell B200 na Malásia, num investimento superior a 2,5 mil milhões de dólares.

Tudo isto faz sentido quando se percebe a escala da ByteDance. O Doubao, o chatbot de IA mais popular da China, processou o equivalente a dezenas de milhares de milhões de palavras por dia em dezembro, um crescimento de 12 vezes num ano. Para servir esta procura, a empresa precisa de poder computacional massivo. E para ter esse poder sem depender inteiramente de um fornecedor americano sujeito a restrições políticas, precisa tanto de chips próprios como de acordos criativos como o da Malásia.

O que vem a seguir?

O que une estas quatro histórias é o facto de a computação de IA se ter tornado tão central para o negócio destas empresas quedepender de um único fornecedor externo deixou de ser aceitável. Não é que a Nvidia esteja a fazer um mau trabalho, os seus chips continuam a ser o padrão de ouro para treinar grandes modelos. A diferença é que a escala chegou a um ponto em que ter chips próprios, mesmo que apenas para parte das tarefas, faz diferença de centenas de milhões no final do ano.

O que parece estar a mudar é a dinâmica de poder: as grandes empresas tecnológicas deixaram de ser apenas clientes passivos e tornaram-se também arquitectas da sua própria infraestrutura. O teste real virá nos próximos dois a três anos, quando os chips próprios tiverem de provar o seu valor em produção em grande escala.