Microsoft lança chip Maia 200 e entra de vez na briga dos chips de IA
A Microsoft anuncia nesta segunda-feira (26) o Maia 200, seu primeiro chip dedicado a inteligência artificial, que estreia em data centers nos Estados Unidos. A aposta mira cortar custos, reduzir a dependência de Nvidia e Google e reforçar a disputa pelos processadores que alimentam a nova geração de serviços de IA.
Microsoft entra no jogo dos chips de IA
O Maia 200 nasce com uma missão clara: sustentar a explosão de serviços de IA generativa e, ao mesmo tempo, aliviar a conta bilionária de infraestrutura da Microsoft. O chip é fabricado pela taiwanesa TSMC em tecnologia de 3 nanômetros, uma das mais avançadas do mercado, e chega primeiro aos data centers da região central dos Estados Unidos, com expansão planejada para o Arizona.
A empresa desenha o Maia 200 não só para treinar grandes modelos, mas principalmente para acelerar a etapa de inferência, quando a IA responde ao usuário. É o momento em que um chatbot elabora um texto, um sistema monta um vídeo complexo ou um assistente virtual atende a uma demanda empresarial em segundos. Cada interação exige servidores potentes, alta memória e muita banda de dados, o que encarece a operação.
O novo chip será oferecido via Azure, a plataforma de nuvem da Microsoft que disputa o mercado corporativo com a AWS, da Amazon, e o Google Cloud. Ao usar hardware próprio, a companhia tenta controlar o custo por operação de IA, hoje fortemente atrelado às GPUs da Nvidia, que se tornam mais caras à medida que a demanda global cresce.
A Microsoft afirma que o Maia 200 entrega eficiência de custo e desempenho 30% superior às soluções atuais usadas em seus data centers. A empresa não cita rivais nominalmente, mas a mensagem é clara para o mercado: a era da dependência quase absoluta da Nvidia começa a ser desafiada por alternativas internas e por arquiteturas desenhadas sob medida para IA.
Um salto na infraestrutura de IA
O Maia 200 representa uma mudança profunda na forma como a Microsoft organiza sua infraestrutura de nuvem. Em vez de adaptar placas de vídeo criadas originalmente para gráficos, como ocorre com as GPUs da Nvidia, a companhia aposta em um acelerador especializado, pensado desde o início para cargas de trabalho de aprendizado de máquina.
O chip usa memória HBM3e de alta velocidade, com 216 GB disponíveis, contra 141 GB do H200, da Nvidia, uma diferença relevante para modelos com bilhões de parâmetros. A largura de banda de memória atinge 7 TB/s, frente aos 4,8 TB/s do rival, o que permite alimentar os modelos com dados em ritmo mais intenso e reduzir gargalos em tarefas complexas.
Para lidar com o calor gerado por essa densidade de processamento, a Microsoft integra um sistema de resfriamento líquido de circuito fechado de segunda geração. Em vez de confiar apenas em ar condicionado e ventiladores, o data center passa a circular líquido próximo aos chips, retirando calor de forma mais eficiente e estável. Essa abordagem ajuda a manter o desempenho máximo por mais tempo e reduz o risco de falhas.
Na comunicação entre servidores, a empresa escolhe um caminho pragmático. O Maia 200 se conecta por meio de redes baseadas em Ethernet padrão, tecnologia presente na maior parte da infraestrutura de internet corporativa. Em vez de sistemas proprietários caros e mais difíceis de escalar, a Microsoft aposta em um padrão consolidado, adaptado para conectar grandes conjuntos de chips em clusters, o que facilita a expansão rápida de capacidade.
O movimento se insere em um cenário de competição crescente. A Nvidia domina o mercado de processadores para IA, com valor de mercado superior a US$ 2 trilhões em 2025 e demanda tão forte que leva a filas de meses para entrega de GPUs. O Google corre por fora com suas TPUs, processadores próprios usados para treinar modelos como o Gemini 3, que roda sobre a sexta geração do chip, o TPU v6.
A potência do TPU v6 atrai inclusive rivais diretos do Google. Segundo o site “The Information”, a Meta firma acordo para treinar seus modelos de IA na nuvem do Google com o novo chip e, em uma etapa posterior, receber unidades para operar em sua própria infraestrutura. Essa teia de parcerias e dependências mostra o quanto controlar o próprio chip se torna uma vantagem estratégica.
Impacto para a IA generativa e a disputa na nuvem
O Maia 200 entra em cena em um momento em que a IA deixa de ser promessa e vira serviço cotidiano. A Microsoft pretende usar o novo chip para sustentar o Copilot, assistente que se integra ao Windows, ao Office e a outros produtos da companhia. Cada resumo de reunião, cada texto gerado no Word e cada análise automatizada em Excel consomem ciclos de computação que, somados, representam bilhões de chamadas mensais.
Ao reduzir o custo por inferência, a empresa ganha margem para ampliar o uso do Copilot, lançar recursos mais sofisticados e, potencialmente, reduzir preços ou oferecer camadas gratuitas mais generosas. Empresas que hoje hesitam em integrar IA a todos os fluxos de trabalho, por medo da conta de nuvem, podem rever essa equação se a promessa de 30% de ganho de custo-performance se comprovar em larga escala.
A aposta em hardware próprio também mexe com o equilíbrio de poder entre os grandes provedores de nuvem. A AWS desenvolve seus chips de IA da linha Trainium e Inferentia, enquanto o Google se apoia nas TPUs. Ao apresentar o Maia 200, a Microsoft sinaliza que não quer ficar para trás nessa corrida e que vê o controle da pilha completa — do chip ao software — como peça-chave para o futuro da IA.
Usuários finais tendem a perceber os efeitos de forma indireta, na forma de respostas mais rápidas, serviços mais estáveis e aplicações capazes de lidar com tarefas mais pesadas, como geração de vídeos de alta resolução ou simulações complexas em tempo real. Desenvolvedores corporativos passam a contar com um novo tipo de instância no Azure, otimizada para inferência, com mais memória disponível e melhor aproveitamento da infraestrutura.
Nem todos ganham com o movimento. A Nvidia vê crescer a lista de clientes que decidem criar seus próprios chips, em vez de depender exclusivamente de suas GPUs. A empresa ainda mantém forte vantagem tecnológica e de ecossistema, mas precisa conviver com um cenário em que Microsoft, Google, Amazon e até a própria Meta investem em alternativas internas para reduzir custos e negociar em melhores condições.
Próximas gerações e a corrida pela superinteligência
A Microsoft indica que o Maia 200 é apenas o primeiro passo de uma família de chips. As próximas gerações já estão em fase de projeto, segundo a companhia, em um sinal de que a estratégia de longo prazo passa por ciclos rápidos de evolução de hardware. A cada nova leva, a empresa pode ajustar o desenho do chip às necessidades reais dos modelos e dos serviços que rodam em sua nuvem.
O novo acelerador também é apresentado como base para ambições maiores, que vão além do Copilot. A Microsoft fala em usar o Maia 200 para sustentar pesquisas em modelos de “superinteligência”, sistemas mais poderosos e autônomos que os atuais chats de texto e geradores de imagem. Essa visão exige não apenas algoritmos avançados, mas uma infraestrutura capaz de suportar volumes massivos de dados e cálculos contínuos.
Na prática, o lançamento de um chip próprio de IA por uma gigante de software reforça uma tendência: os limites entre empresas de nuvem, fabricantes de chips e desenvolvedoras de IA ficam cada vez mais difusos. Controlar o silício passa a ser tão estratégico quanto ter o melhor modelo de linguagem ou a interface mais amigável.
A corrida agora se desloca para um patamar em que eficiência energética, custo por operação e capacidade de escalar em poucos meses valem tanto quanto ter o rótulo de “mais inteligente”. O Maia 200 entra nesse tabuleiro como um novo jogador de peso. Os próximos anos dirão se o chip da Microsoft consegue, de fato, reequilibrar uma disputa hoje dominada pela Nvidia e marcada pelo avanço silencioso do Google.
