Google Gemini passa a criar músicas de até 30 segundos com IA
O Google libera nesta quinta-feira (19) a criação de músicas de até 30 segundos diretamente no chatbot Gemini. O recurso usa inteligência artificial para gerar clipes completos, com instrumentos, clima emocional e até voz cantada, sem depender de programas extras. A ferramenta mira músicos, criadores de conteúdo e curiosos que querem experimentar produção sonora em poucos minutos.
IA transforma chatbot em miniestúdio musical
No novo modo, o Gemini passa a gerar áudio dentro da própria interface de conversa, sem redirecionar para apps externos. O usuário descreve o que quer ouvir em um comando de texto e recebe, em segundos, um trecho musical pronto para download ou uso em vídeos curtos, stories e postagens. A duração máxima é de 30 segundos, tempo pensado para encaixar em formatos populares de redes sociais.
A base da novidade é o modelo Lyria 3, sistema de IA generativa treinado para composição e síntese de áudio em alta qualidade. Em vez de exigir conhecimento técnico em edição, o Google aposta em linguagem comum. O usuário pode pedir, por exemplo, um ska tradicional com metais fortes, um hip hop lo-fi chuvoso ou um piseiro romântico com pegada eletrônica. O Gemini interpreta estilo, instrumentos, ritmo e emoção para construir a faixa.
O funcionamento lembra um briefing musical detalhado. Quanto mais informações entram no prompt, mais a IA afina o resultado. Termos como “melancólico”, “eufórico”, “cinemático” ou “relaxante” ajudam a definir o clima. A ferramenta também responde bem a descrições de instrumentos, como “sanfona sintetizada suave”, “baixo eletrônico profundo” ou “bateria cadenciada”, o que aproxima o resultado de uma direção musical profissional.
O recurso inclui ainda geração de voz cantada, inclusive em português do Brasil. O usuário descreve gênero, timbre e estilo de interpretação. Pode pedir um vocal feminino sussurrado, um rap rápido de voz grave ou uma performance mais próxima da música pop radiofônica. Para quem prefere focar apenas na base instrumental, basta especificar que deseja uma faixa “100% instrumental” para que o sistema ignore linhas de canto.
Ferramenta amplia acesso, mas esbarra em direitos autorais
O lançamento reforça a estratégia do Google de transformar o Gemini em uma espécie de canivete suíço da criação digital. Em 2025, a empresa já vinha testando geração de imagem e vídeo embutida na plataforma. Com áudio, completa um ciclo que coloca, em um único chatbot, capacidades que antes exigiam uma combinação de softwares de edição, plugins pagos e conhecimento técnico acumulado. Para criadores independentes, isso reduz custos e encurta prazos de produção.
O impacto é imediato em áreas como trilhas para vídeos curtos, podcasts, games casuais e publicidade de pequeno porte. Um influenciador pode testar, em poucos minutos, dezenas de variações de abertura para seu canal, sem depender de produtoras. Uma microempresa pode criar jingle próprio para campanhas locais, explorando estilos regionais como forró eletrônico, sertanejo ou funk. A barreira de entrada, que antes incluía licenças de software e horas de estúdio, cai para um simples texto digitado no navegador.
Essa facilidade, porém, vem acompanhada de freios claros. O Google ativa filtros de direitos autorais para bloquear pedidos que tentem imitar vozes específicas ou copiar o estilo de artistas famosos. Solicitações desse tipo podem ser classificadas como controversas e levadas ao bloqueio automático, exigindo que o usuário reescreva o comando ou recomece a conversa. A estratégia busca evitar disputas jurídicas em um momento em que tribunais dos Estados Unidos e da Europa ainda tateiam como enquadrar músicas feitas por IA.
Os prompts recomendados priorizam descrições genéricas de gênero, clima e instrumentação, e não a reprodução direta de uma carreira consagrada. Em vez de pedir um clone de um cantor popular, o usuário é orientado a falar de emoções, histórias e cenários. Exemplos incluem letras sobre superar obstáculos em um dia de sol ou sobre a saudade de um romance interiorano, sem citar artistas ou canções específicas. Com isso, a empresa tenta equilibrar liberdade criativa com proteção de propriedade intelectual.
Um diferencial do Gemini está na leitura de imagens e vídeos. O usuário pode enviar uma foto ou um trecho de cena e pedir uma trilha de 30 segundos que combine com a emoção visual. A IA analisa cores, enquadramento e contexto e devolve uma música alinhada ao clima da imagem. Em alguns casos, o modelo Nano Banana ainda gera uma capa gráfica baseada no mesmo arquivo, oferecendo pacote completo para lançamentos rápidos em plataformas digitais.
Próximos passos e dilemas da música feita por IA
O avanço da criação musical por IA pressiona tanto a indústria quanto reguladores. Plataformas de streaming já discutem formas de rotular faixas geradas por máquinas, enquanto entidades de gestão coletiva acompanham o tema para definir novas regras de remuneração. A possibilidade de gerar milhares de clipes em questão de horas levanta dúvidas sobre saturação de conteúdo, uso indevido de referências e critérios de curadoria em catálogos digitais.
Para músicos profissionais, a ferramenta surge ao mesmo tempo como risco e oportunidade. De um lado, jingles simples e trilhas de fundo tendem a migrar para soluções automatizadas, o que pode reduzir demanda em nichos mais básicos. De outro, o recurso pode funcionar como rascunho rápido, maquete sonora ou laboratório de ideias, encurtando o caminho entre esboço e arranjo final. A diferença estará em como cada artista decide incorporar, ou não, essa camada algorítmica ao próprio processo criativo.
O Google evita falar em substituição e insiste no discurso de apoio à criatividade humana, mas ainda não detalha como pretende lidar com disputas de autoria em casos de sucesso comercial gerado via Gemini. Questões sobre divisão de créditos, uso de bancos de dados de treinamento e eventuais compensações a titulares de obras usadas nos modelos seguem abertas. Enquanto isso, a empresa aposta na adesão massiva de usuários que querem experimentar, hoje, o que parecia ficção científica há poucos anos.
A expansão da música feita por algoritmos tende a se acelerar nos próximos 12 a 24 meses, impulsionada por concorrentes que já preparam ferramentas similares. A disputa não será apenas tecnológica, mas também ética e regulatória. Resta saber se o ouvinte médio vai se importar com a origem da faixa que embala seus 30 segundos de vídeo ou se, na prática, a autoria será apenas mais um ruído de fundo na trilha sonora da internet.
