Microsoft lança chip Maia 200 e acirra disputa por IA em nuvem
A Microsoft anuncia nesta segunda-feira (26) o Maia 200, primeiro chip próprio dedicado à inteligência artificial, voltado à etapa de inferência. O processador estreia nos data centers da região central dos Estados Unidos e do Arizona e mira diretamente o domínio da Nvidia e o avanço do Google no mercado de aceleradores de IA.
Microsoft entra de vez na guerra dos chips de IA
O Maia 200 nasce com uma missão dupla: cortar custos e reduzir a dependência de fornecedores externos, ao mesmo tempo em que coloca a Microsoft como competidora direta no coração da nova economia da IA. Em vez de se apoiar apenas em GPUs da Nvidia ou em parcerias com terceiros, a empresa passa a controlar uma parte central da infraestrutura que alimenta seus serviços de nuvem e seus próprios modelos de inteligência artificial.
O chip é desenhado especificamente para a etapa de inferência, quando sistemas como chatbots, assistentes virtuais ou geradores de vídeo transformam pedidos de usuários em respostas prontas. É o momento em que os modelos já treinados são colocados para trabalhar em escala, com milhões de requisições simultâneas, do resumo de um e-mail à criação de um vídeo cheio de detalhes. É nessa fase que os custos de operação disparam e onde a Microsoft tenta ganhar eficiência.
O Maia 200 será acessado exclusivamente pela nuvem Azure, rival direta da Amazon Web Services (AWS) e do Google Cloud. Os primeiros lotes entram em operação em data centers na região central dos Estados Unidos e em seguida chegam ao Arizona, em uma expansão gradual. A empresa afirma que a nova geração de hardware deve mudar a “economia da IA em larga escala” ao oferecer mais desempenho por dólar consumido em computação.
Segundo a Microsoft, o Maia 200 entrega uma eficiência custo-performance até 30% superior em relação às soluções atuais disponíveis para clientes corporativos, sem citar diretamente Nvidia ou Google. Em um mercado em que diferenças de um dígito já influenciam bilhões de dólares em contratos de nuvem, o percentual indica uma aposta agressiva para atrair empresas que hoje dependem exclusivamente de GPUs tradicionais.
Dentro do chip: 100 bilhões de transistores e disputa com Nvidia
O Maia 200 não é apenas uma troca de fornecedor. Ele representa um salto tecnológico dentro da própria Microsoft. O chip é fabricado pela taiwanesa TSMC com processo de 3 nanômetros e reúne mais de 100 bilhões de transistores em uma única peça de silício. Quanto menor o processo de fabricação, maior a densidade de componentes, o que permite mais poder de processamento com menor consumo de energia por operação.
Para lidar com o calor gerado por essa concentração de circuitos, a empresa integrou um sistema de resfriamento líquido de circuito fechado de segunda geração. A solução, adotada diretamente nos racks dos data centers, tenta evitar gargalos térmicos que reduzem desempenho e encarecem a operação. A Microsoft também aposta em uma rede baseada em Ethernet padrão, em vez de protocolos proprietários, para conectar milhares de chips em clusters e facilitar a expansão.
Na comparação direta com o H200, um dos chips de IA de última geração da Nvidia, o Maia 200 aparece com números mais robustos em pontos-chave. A Microsoft fala em 216 GB de memória HBM3e, contra 141 GB do rival, e largura de banda de 7 TB/s, frente a 4,8 TB/s do H200. A combinação de mais memória e mais velocidade de acesso permite que modelos maiores sejam carregados e executados com menos divisão de tarefas entre múltiplas placas, o que reduz latência e complexidade.
O movimento ocorre em meio a uma corrida global pelo controle da infraestrutura de IA. O Google desenvolve e usa suas próprias TPUs, hoje na geração v6, para treinar e rodar modelos como o Gemini 3. A capacidade dos chips atrai até concorrentes diretos. Segundo o site “The Information”, a Meta firma acordo para treinar modelos de IA com o TPU v6 no Google Cloud e, no futuro, receber os chips para uso próprio. As GPUs da Nvidia, originalmente criadas para computação gráfica e adaptadas à IA, seguem dominantes, mas enfrentam agora pressão coordenada dos próprios grandes clientes.
Ao lançar o Maia 200, a Microsoft tenta se afastar da posição de cliente cativo e se aproximar da condição de fornecedora de referência. O chip reforça serviços como o Copilot, assistente de IA que já se espalha por Windows, Office, GitHub e outros produtos. Também dá base para projetos mais ambiciosos, como os modelos de “superinteligência” que a empresa e seus parceiros vêm anunciando em tom de longo prazo.
Impacto na nuvem, nos preços e na próxima geração de IA
Para clientes que usam Azure, o efeito mais imediato tende a aparecer na conta de computação. Se as promessas de até 30% de ganho em custo-performance se confirmam, empresas que rodam chatbots, sistemas de atendimento automatizado, análise de dados em tempo real e geração de conteúdo podem cortar gastos relevantes ou ampliar capacidade de serviço com o mesmo orçamento.
O impacto vai além da nuvem da Microsoft. A oferta de um acelerador proprietário pressiona Nvidia, hoje avaliada como a empresa mais valiosa do mundo, a manter um ritmo acelerado de inovação. Também força outros provedores de nuvem a seguir o caminho dos chips próprios, como já fazem Google e Amazon, para não ficar dependentes de um único fornecedor em um mercado sujeito a escassez e alta de preços.
A disputa chega também ao varejo de tecnologia e aos grandes marketplaces de serviços em nuvem, que passam a negociar contratos em um cenário mais competitivo. Com mais opções de hardware especializado, clientes ganham poder de barganha para discutir preço, desempenho e disponibilidade de chips para treinar e operar seus modelos de IA. Fabricantes de semicondutores, por sua vez, precisam equilibrar a produção entre encomendas sob medida e a demanda ampla por GPUs.
Setores como finanças, saúde, mídia, indústria e governo sentem reflexos diretos. Aplicações que dependem de respostas rápidas e confiáveis, como triagem médica assistida por IA, análise antifraude em tempo real ou geração de vídeos sob demanda, exigem um volume massivo de inferências. Cada ganho de eficiência na base de hardware permite que essas soluções avancem sem que o custo de operação se torne proibitivo.
Próximas gerações e uma corrida ainda em aberto
A Microsoft indica que o Maia 200 é apenas o primeiro passo. Próximas gerações da linha já estão em fase de projeto, em um cronograma que tende a seguir o ritmo acelerado dos ciclos de IA. A pressão por modelos maiores, mais multimodais e mais integrados ao dia a dia das pessoas exige chips com ainda mais memória, largura de banda e eficiência energética.
A entrada definitiva da empresa na guerra dos chips reorganiza alianças e rivalidades no setor, mas não encerra nenhuma delas. Nvidia segue dominante, Google avança com suas TPUs, a Meta amplia apostas em parcerias e outros gigantes da tecnologia correm para não ficar para trás. O Maia 200 coloca a Microsoft no centro desse tabuleiro e abre uma nova fase na disputa por quem vai sustentar, em silício, a próxima onda da inteligência artificial.
