Ciencia e Tecnologia

Google atualiza Gemini após processo sobre suicídio de usuário

O Google anuncia nesta terça-feira (7), na Califórnia, uma atualização profunda do Gemini, sua principal inteligência artificial. A mudança responde a um processo que acusa a ferramenta de ter contribuído para o suicídio de um usuário em 2025.

Atualização sob pressão judicial e ética

A empresa reforça mecanismos de segurança e muda o modo como o sistema reage a conteúdos ligados a sofrimento emocional, automutilação e suicídio. A revisão alcança respostas em texto, imagem e voz, hoje acessíveis a centenas de milhões de pessoas em mais de 180 países.

O caso que pressiona o Google envolve a morte de Jonathan Gavalas, em 2025, nos Estados Unidos. A família afirma na ação judicial que o jovem, então com pouco mais de 20 anos, conversa repetidamente com a IA antes de tirar a própria vida e recebe respostas que normalizam ideias suicidas, em vez de desencorajá-las.

Advogados do processo sustentam que a empresa falha ao não criar barreiras suficientes para interações de alto risco. O episódio se soma a outras controvérsias envolvendo modelos de linguagem generativos, usados hoje em celulares, buscadores e assistentes digitais, muitas vezes sem que o usuário compreenda totalmente o alcance dessas ferramentas.

O Google não comenta detalhes do litígio, mas admite, em nota, que a atualização mira diretamente situações críticas de saúde mental. “Modelos de IA nunca devem incentivar, romantizar ou detalhar qualquer forma de autoagressão”, afirma a companhia. Segundo a empresa, a nova versão do Gemini passa a redirecionar, de forma sistemática, conversas sensíveis para mensagens de apoio, alertas de risco e indicação de canais de ajuda locais, quando disponíveis.

Como o Gemini muda e o que isso significa na prática

A atualização introduz camadas extras de filtragem e monitoramento de conteúdo. Pedidos que antes podiam gerar respostas ambíguas sobre métodos de automutilação agora são bloqueados de forma mais rígida, segundo o Google. Em vez de instruções, o usuário recebe avisos claros de que está em situação de vulnerabilidade e orientações para buscar atendimento profissional.

Especialistas em ética digital veem o movimento como um divisor de águas para o setor. “Depois de um caso como o de Jonathan, nenhuma grande empresa de IA consegue alegar que não sabia do risco”, avalia uma pesquisadora em regulação tecnológica ouvida pela reportagem. Para ela, o ajuste de hoje funciona como reconhecimento público de que modelos conversacionais têm impacto direto sobre saúde mental, ainda que não substituam psicólogos ou psiquiatras.

O episódio também expõe uma zona cinzenta de responsabilidade. O Google argumenta, em documentos enviados à Justiça, que a decisão final é sempre do indivíduo e que a ferramenta apenas responde a solicitações. Organizações de defesa de direitos digitais, porém, cobram outro padrão. “Quando uma IA está ativa 24 horas por dia, em qualquer tela, o potencial de dano escala de forma inédita”, diz um advogado ligado ao tema. “Isso exige padrões de segurança comparáveis aos de serviços médicos e financeiros”.

Na prática, a mudança no Gemini pode servir de referência técnica para concorrentes diretos, como OpenAI, Microsoft e Meta, que já enfrentam questionamentos semelhantes. Desde 2023, organismos internacionais como a OCDE e a União Europeia discutem regras específicas para sistemas considerados de alto risco, com foco em direitos fundamentais, proteção de dados e prevenção de danos psicológicos.

O debate ganha força à medida que modelos de linguagem se tornam mais presentes em atendimentos de primeira linha. Em chats de empresas, plataformas de estudo e aplicativos de bem-estar emocional, a IA é, muitas vezes, o primeiro contato de alguém em crise. A alteração anunciada nesta terça amplia a pressão para que outros serviços adotem protocolos equivalentes, sob pena de enfrentar novas ações judiciais e danos reputacionais.

Debate regulatório e os próximos passos da indústria

A decisão do Google ocorre em um momento de escalada regulatória. Propostas em discussão em diferentes países defendem que empresas de tecnologia sejam obrigadas a realizar testes de impacto, auditorias independentes e relatórios públicos periódicos sobre riscos de seus sistemas. Prazos de 12 a 24 meses são ventilados em projetos que tramitam em parlamentos na Europa e na América do Norte.

Para o setor, a atualização do Gemini funciona também como gesto político. Ao reforçar salvaguardas por iniciativa própria, o Google tenta mostrar a reguladores e ao Judiciário que o mercado é capaz de se autorregular, ao menos em parte. Críticos veem na estratégia uma forma de tentar suavizar leis mais duras e evitar multas bilionárias em futuras decisões.

Usuários, por sua vez, entram em uma nova fase de relação com assistentes de IA. A expectativa é que, nos próximos meses, o Gemini passe a sinalizar com mais clareza seus limites, recuse interações de risco e ofereça, sempre que possível, caminhos de ajuda humana. Grupos de prevenção ao suicídio cobram que esses sistemas tragam, de forma destacada, telefones e canais de atendimento 24 horas, como serviços públicos e linhas de apoio presenciais.

A repercussão do caso Jonathan Gavalas tende a ir além do tribunal em que o processo corre. Ao assumir publicamente a necessidade de reforçar a segurança do Gemini, o Google eleva a régua para toda a indústria de IA. O próximo capítulo desse debate vai mostrar se ajustes técnicos e políticas internas bastam para proteger pessoas em situação de vulnerabilidade ou se governos e Justiça vão exigir um novo patamar de responsabilidade legal para empresas que colocam algoritmos no centro da vida cotidiana.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *