Ciencia e Tecnologia

Microsoft lança chip Maia 200 e entra na briga pelos chips de IA

A Microsoft anuncia nesta segunda-feira (26) o Maia 200, seu primeiro chip próprio dedicado a inteligência artificial, com foco em baratear e acelerar serviços de IA. O processador estreia nos data centers da região central dos Estados Unidos e do Arizona e mira diretamente o domínio de Nvidia e Google no mercado de aceleradores. A aposta inaugura uma nova etapa da estratégia da empresa para controlar mais da infraestrutura que sustenta seus produtos em nuvem.

Corrida pelos chips de IA ganha um novo jogador de peso

O Maia 200 nasce num momento em que cada pedido feito a um chatbot ou a um gerador de imagem pressiona servidores caros e disputados. A Microsoft tenta responder a essa pressão com um chip desenhado para a etapa de inferência, quando os modelos de IA produzem respostas em tempo real para o usuário. Ao colocar seu próprio processador nessa função, a empresa busca reduzir a fatura de energia e de aluguel de chips de terceiros, hoje dominado pelas GPUs da Nvidia.

A companhia afirma que o novo chip oferece eficiência de custo e desempenho 30% superior às soluções atuais, sem citar concorrentes. Esse ganho, se confirmado na prática, altera a conta de cada interação em serviços como o Copilot, assistente de IA integrado ao Windows, ao Office e a produtos corporativos. Em vez de depender de placas gráficas adaptadas para IA, a Microsoft passa a operar com um acelerador criado desde o início para tarefas de aprendizado de máquina em larga escala.

Dentro do Maia 200: potência, resfriamento e disputa geopolítica

O Maia 200 é fabricado pela TSMC, em Taiwan, com processo de 3 nanômetros, hoje um dos mais avançados do setor. O chip soma mais de 100 bilhões de transistores, pequenas chaves eletrônicas responsáveis pelo processamento de dados. Essa densidade de componentes aumenta a capacidade de cálculo, mas também gera calor em níveis difíceis de dissipar com ventoinhas tradicionais.

Para lidar com esse desafio, a Microsoft adota um sistema de resfriamento líquido de segunda geração em circuito fechado, instalado diretamente nos servidores que abrigam o Maia 200. A solução busca manter o chip em temperatura estável e permitir que ele opere próximo ao limite de desempenho, sem quedas abruptas de velocidade. A empresa também aposta em redes baseadas em Ethernet padrão para interligar milhares de unidades, evitando protocolos proprietários mais caros e facilitando a expansão em grandes clusters.

Na comparação com o H200, um dos chips de IA mais avançados da Nvidia, o Maia 200 se destaca em números-chave. O novo processador traz 216 GB de memória HBM3e, diante de 141 GB no rival, e oferece largura de banda de 7 TB por segundo, contra 4,8 TB por segundo do H200. Mais memória e mais largura de banda significam, em tese, modelos maiores rodando com mais rapidez e menor gargalo na circulação de dados dentro do sistema.

A ofensiva da Microsoft ocorre enquanto o mercado de chips de IA se torna eixo central da competição entre gigantes da tecnologia. O Google usa sua própria linha de aceleradores, as TPUs, para treinar e rodar modelos como o Gemini 3, e já atrai clientes como a Meta, que ainda depende das GPUs da Nvidia. Segundo o site “The Information”, a empresa de Mark Zuckerberg fecha acordo para treinar seus modelos com o TPU v6 no Google Cloud, em um sinal de que controlar ou garantir acesso privilegiado a chips de IA virou uma questão estratégica.

O que muda para a nuvem, para a IA e para o bolso da Microsoft

O Maia 200 chega primeiro ao Azure, serviço de nuvem da Microsoft que disputa espaço diretamente com a Amazon Web Services e o Google Cloud. Usuários não vão comprar o chip individualmente; o acesso acontece por meio dos serviços de computação oferecidos pela empresa. Na prática, o cliente contrata horas de processamento com IA, e cabe à Microsoft decidir se a carga roda em GPUs da Nvidia ou em seus próprios aceleradores.

Se o Maia 200 entregar o desempenho prometido, a conta da Microsoft muda de forma relevante. Cada ponto percentual de redução no custo por operação de IA representa economia de milhões de dólares em data centers espalhados pelo mundo. A empresa também ganha poder de barganha na hora de negociar com fornecedores externos, já que passa a ter alternativa concreta às GPUs que hoje movem a maior parte dos sistemas de IA generativa.

Para o usuário comum, o impacto aparece em serviços mais rápidos e, possivelmente, em planos de assinatura de IA com preços mais competitivos. Um Copilot mais barato de operar pode chegar a mais camadas de produtos, de pacotes básicos de escritório a ferramentas específicas para desenvolvedores ou criadores de vídeo. A companhia também declara que o Maia 200 servirá de base para o desenvolvimento de modelos de “superinteligência”, conceito usado internamente para sistemas muito mais avançados do que os atuais.

O movimento pressiona rivais. A Nvidia vê crescer o número de clientes que desenham soluções próprias para reduzir a dependência de suas GPUs. O Google precisa mostrar que suas TPUs seguem competitivas diante de um concorrente com escala similar e forte presença em nuvem. Outras empresas de tecnologia podem se ver obrigadas a acelerar planos de chips internos ou buscar alianças para não ficar presas a um único fornecedor num mercado em rápida consolidação.

Próximas gerações no forno e uma disputa de longo prazo

A Microsoft indica que as próximas gerações da linha Maia já estão em fase de projeto, o que sugere um compromisso de longo prazo com o desenvolvimento de hardware próprio. O caminho repete, em parte, o que a Apple faz ao controlar desde o chip até o sistema operacional, estratégia que se mostrou eficaz para ganhos de desempenho e eficiência energética.

A diferença é que, no caso da IA em nuvem, a escala é muito maior e os custos de erro também. Cada nova geração de chip exige investimentos bilionários em projeto, fabricação e adaptação de software. A empresa precisa provar, nos próximos trimestres, que o Maia 200 se integra bem ao ecossistema do Azure e entrega, em uso real, a vantagem que promete em apresentações.

O lançamento do Maia 200 marca apenas o início dessa disputa. A pergunta que fica é se a Microsoft conseguirá transformar esse controle maior da infraestrutura em vantagem duradoura num mercado em que ciclos de inovação se medem em meses, não em anos.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *