Ciencia e Tecnologia

Microsoft lança chip Maia 200 e entra na briga dos aceleradores de IA

A Microsoft apresenta nesta segunda (26) o Maia 200, chip próprio para aplicações de inteligência artificial, com estreia em data centers nos Estados Unidos. A peça mira a etapa de inferência, quando IAs respondem a usuários, e promete reduzir custos em até 30%. O movimento coloca a empresa na disputa direta com Nvidia e Google no mercado de aceleradores de IA.

Microsoft troca de marcha na corrida da IA

O Maia 200 nasce como a aposta mais ambiciosa da Microsoft para controlar o coração da infraestrutura de inteligência artificial que hoje sustenta serviços como o Copilot e modelos avançados de linguagem. O chip estreia nos data centers da região central dos Estados Unidos e, em seguida, chega ao Arizona, sempre integrado ao Azure, a nuvem da empresa que concorre com AWS, da Amazon, e Google Cloud.

Ao desenvolver um acelerador de IA dentro de casa, a companhia tenta reduzir a dependência de fornecedores externos, sobretudo da Nvidia, dona das GPUs que viram padrão de fato no setor. Também busca flexibilizar a própria estratégia: quanto mais domina o hardware, mais liberdade tem para ajustar software, modelos de IA e serviços comerciais sem ficar presa a ciclos de lançamento e disponibilidade de terceiros.

O foco do Maia 200 é a inferência, etapa em que chatbots, assistentes de escrita ou geradores de vídeo recebem pedidos e produzem respostas em tempo real. Em vez de treinar um modelo do zero, os servidores precisam interpretar o que o usuário pede e rodar cálculos em frações de segundo. Nessa fase, eficiência energética e custo por resposta contam tanto quanto a potência bruta de processamento.

Segundo a Microsoft, o chip oferece eficiência de custo-performance até 30% superior às soluções atuais, sem citar concorrentes. Na prática, isso significa reduzir a conta de energia, acomodar mais pedidos por segundo nos mesmos racks e baratear o uso de IA em larga escala, tanto para a própria empresa quanto para clientes corporativos que rodam seus modelos no Azure.

Dentro do Maia 200, a aposta é em densidade e resfriamento

O Maia 200 é fabricado com processo de 3 nanômetros pela taiwanesa TSMC, uma das líderes globais em produção de chips avançados. A peça reúne mais de 100 bilhões de transistores, os minúsculos interruptores que ligam e desligam correntes elétricas e formam a base de todo o processamento digital. Quanto menor o processo de fabricação, maior a densidade de componentes em uma mesma pastilha de silício e maior o potencial de desempenho.

O aumento de potência, porém, cobra um preço: calor. Para evitar gargalos térmicos, a Microsoft integra ao Maia 200 um sistema de resfriamento líquido de circuito fechado de segunda geração. Em vez de depender apenas de ar, o data center passa a circular líquido próximo aos chips, retira calor de forma mais eficiente e permite que cada unidade opere mais tempo no limite de desempenho sem risco de superaquecimento.

A empresa também aposta em uma arquitetura de rede baseada em Ethernet padrão, tecnologia comum em conexões de internet corporativa. A decisão evita protocolos proprietários caros e facilita o escalonamento de clusters com milhares de chips. Em termos simples, a Microsoft tenta montar supercomputadores de IA com peças e padrões mais próximos do que já existe no mercado, o que tende a reduzir custos e acelerar a expansão da infraestrutura.

Na comparação direta com o H200, um dos aceleradores mais avançados da Nvidia, o Maia 200 leva vantagem em alguns números-chave. O novo chip da Microsoft traz 216 GB de memória HBM3e, contra 141 GB da peça rival, e oferece largura de banda de 7 TB por segundo, frente aos 4,8 TB por segundo do H200. Também concentra mais transistores, reforçando o discurso de salto tecnológico.

Nos bastidores, o Maia 200 surge em um cenário de aquecimento intenso. A Nvidia se torna a empresa mais valiosa do mundo com a demanda por GPUs para IA. O Google acelera com suas TPUs, processadores próprios para aprendizado de máquina. A Meta, que hoje depende das placas da Nvidia, já firma acordo para treinar modelos com o TPU v6 no Google Cloud e, no futuro, receber esses chips para uso próprio, segundo o site The Information. A Microsoft tenta agora ocupar o mesmo patamar de autonomia.

Impacto para o mercado e para os serviços de IA

O Maia 200 não é apenas uma peça nova na prateleira de hardware. A Microsoft quer que o chip redesenhe a economia da IA em larga escala. Se a promessa de eficiência 30% maior se confirma no uso real, a empresa ganha margem para reduzir preços, oferecer mais capacidade no Azure e investir em modelos ainda maiores e mais complexos.

O movimento atinge diretamente o tabuleiro dos grandes fornecedores de chips. A Nvidia, que constrói sua liderança com GPUs originalmente pensadas para gráficos, vê crescer a pressão de soluções sob medida, como as TPUs do Google e, agora, o Maia da Microsoft. Esses processadores surgem focados em tarefas específicas de IA, com ganhos de velocidade e consumo para certos tipos de trabalho. Cada ponto percentual de economia em energia e infraestrutura pesa em contratos bilionários com big techs e grandes bancos de dados.

Para clientes de nuvem, o efeito tende a aparecer em duas frentes. Serviços como o Copilot, integrados ao Windows, ao Office e a outros produtos da Microsoft, podem ganhar respostas mais rápidas, estáveis e baratas de operar. Empresas que treinam e rodam seus próprios modelos no Azure também devem acessar instâncias equipadas com o Maia 200, o que abre espaço para planos específicos de custo por uso e para novas faixas de produto.

O anúncio também pressiona concorrentes a acelerar suas próprias soluções. Google e Amazon investem pesado em chips internos, enquanto a Meta tenta diminuir a dependência da Nvidia. A corrida deixa de ser apenas por modelos de IA mais avançados e passa a incluir a disputa pelos equipamentos que tornam essa IA viável, de forma contínua e lucrativa.

Próximas gerações e a disputa pela infraestrutura do futuro

A Microsoft indica que o Maia 200 é apenas o primeiro passo. As próximas gerações da linha já estão em projeto, sinal de que a empresa não vê o chip como experimento isolado, mas como pilar de longo prazo. A ambição declarada passa por sustentar não só o Copilot, mas também os modelos de “superinteligência” que a companhia promete desenvolver nos próximos anos.

A expansão começa pelos data centers da região central dos Estados Unidos e do Arizona, mas a tendência é que, conforme a produção amadurece, o Maia 200 se espalhe para outras regiões estratégicas do Azure. Cada novo ponto de presença amplia a capacidade da Microsoft de oferecer IA de baixa latência em mais países e de adaptar sua oferta a regulações locais de dados.

O lançamento reforça uma mudança de fase na corrida da IA. A disputa deixa de se concentrar apenas em quem tem o modelo mais poderoso e passa a considerar quem controla o conjunto completo: da fábrica de chip ao serviço que chega ao usuário final. A Microsoft aposta que, ao dominar essa pilha, ganha fôlego para manter a liderança num mercado em que margem de erro encolhe a cada nova geração de hardware.

A pergunta agora é quanto tempo rivais conseguem manter vantagem sem aprofundar ainda mais seus próprios projetos de chips, e até que ponto clientes corporativos aceitarão ficar presos a ecossistemas fechados. O Maia 200 entra em campo como um sinal de que a era da IA sob medida para cada gigante de tecnologia está só no começo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *