Ciencia e Tecnologia

Óculos Ray-Ban Meta com IA transformam rotina de menina cega em Brasília

Uma estudante de 12 anos, moradora de Brasília, usa há cerca de três meses óculos inteligentes Ray-Ban Meta com inteligência artificial. O acessório descreve objetos, cores e até livros em áudio, amplia a autonomia dela e vira símbolo do potencial das tecnologias assistivas no país.

Óculos com IA viram extensão dos olhos

Júlia, diagnosticada ainda na infância com Amaurose Congênita de Leber, uma doença genética que provoca cegueira, grava um vídeo doméstico no fim de 2025. Na tela do celular, ela aparece de cabelo preso, óculos escuros e um sorriso largo. Em menos de três meses, o registro ultrapassa 1,1 milhão de visualizações e coloca no centro do debate uma pergunta simples: o que acontece quando a inteligência artificial deixa de ser promessa e vira ferramenta de acesso ao mundo?

No vídeo, publicado no perfil @notasdadiversidade, no Instagram, Júlia apresenta os óculos Ray-Ban Meta, lançados comercialmente como item de moda conectada, mas rapidamente adotados por parte da comunidade de pessoas com deficiência visual. O dispositivo reúne câmera, microfones e fones embutidos na haste. Com uma combinação de reconhecimento de imagem e IA generativa, ele descreve em áudio o que está diante das lentes.

Júlia aciona o sistema com um comando de voz direto: “ei Meta, descreva o que eu estou segurando?”. A resposta, em segundos, chega clara pelo fone embutido: “Você está segurando um pato de pelúcia rosa”. A cena, que para muitos seria apenas uma demonstração de tecnologia, representa para ela algo bem mais concreto: conseguir saber, sozinha, o que está em suas mãos, sem depender da mediação constante de um adulto.

Em outro trecho, ela conta que já leu onze livros usando os óculos inteligentes. A leitura não acontece pelo toque em páginas em braile, mas pela câmera que captura o texto impresso e o transforma em áudio quase em tempo real. A estudante encosta o livro na altura do peito, faz novo comando de voz e deixa a IA cuidar do resto. “Eu não consigo mais imaginar minha vida sem ele”, afirma, em uma frase que encapsula o salto de autonomia que a tecnologia oferece.

Autonomia, educação e debate sobre inclusão

Os Ray-Ban Meta passam a integrar a rotina de Júlia em tarefas corriqueiras. As lentes conectadas ajudam a distinguir cores de roupas antes de sair de casa, identificar embalagens na cozinha, encontrar um brinquedo em meio a outros objetos. Funções que parecem triviais ganham outra dimensão quando se considera a vida de uma criança cega em uma cidade como Brasília, onde boa parte da sinalização urbana e do transporte público ainda ignora necessidades de acessibilidade.

Especialistas em inclusão costumam dizer que a maior barreira para pessoas com deficiência não é o corpo, mas o ambiente. A rotina de Júlia ilustra essa tese. Até poucos meses atrás, quase tudo que envolvia informação visual exigia a presença de alguém ao lado: um familiar lendo a capa de um livro, descrevendo rótulos no supermercado, apontando onde está uma mochila esquecida. Com os óculos, parte desse trabalho migra para a IA, que atua como uma espécie de narrador permanente do entorno.

O efeito aparece de forma mais nítida na educação. Aos 12 anos, fase em que conteúdos escolares ficam mais densos, ganhar a capacidade de ler onze livros adicionais em poucos meses, usando um único dispositivo, altera o horizonte de aprendizado. A possibilidade de acessar textos em tinta, sem depender de versões em braile ou audiolivros pré-gravados, reduz a defasagem que frequentemente separa estudantes cegos de colegas que enxergam.

O impacto extrapola a sala de aula. A projeção de um vídeo gravado no quarto de uma adolescente de Brasília, alcançando mais de 1,1 milhão de visualizações, escancara a demanda reprimida por tecnologias assistivas no Brasil. Em um país onde o Censo 2022 aponta milhões de pessoas com algum grau de deficiência visual, histórias como a de Júlia ajudam a traduzir em imagens e sons o que muitas vezes fica preso em relatórios técnicos e audiências públicas vazias.

A viralização também pressiona empresas e governos. Fabricantes de dispositivos com IA enxergam, nos números, um mercado em expansão e começam a adaptar produtos pensados para entretenimento para cenários de acessibilidade. Secretarias de educação e de direitos humanos são cobradas a acompanhar a inovação, seja com políticas de subsídio, seja com programas de formação de professores para uso de recursos digitais com alunos cegos ou com baixa visão.

Desafios de acesso e próximos passos da tecnologia assistiva

A história de Júlia ilumina um ponto sensível do debate: quem consegue pagar pela tecnologia que muda o jogo. Óculos inteligentes como os Ray-Ban Meta chegam ao mercado brasileiro com preço de aparelho premium, na casa de alguns milhares de reais, bem acima da renda média da maioria das famílias. Sem políticas públicas de financiamento, o risco é que a IA amplie privilégios em vez de reduzir desigualdades.

Organizações que atuam com pessoas com deficiência visual discutem, nos bastidores, modelos para aproximar esse tipo de recurso da rede pública. Uma das possibilidades em análise é incluir óculos inteligentes no rol de tecnologias assistivas que podem ser adquiridas com recursos do poder público, a exemplo de bengalas eletrônicas e leitores de tela. Projetos piloto em escolas e bibliotecas inclusivas já aparecem em conversas de gestores de educação e inovação, ainda sem cronograma oficial.

Nesse cenário, o vídeo da menina brasiliense funciona como vitrine e, ao mesmo tempo, como provocação. Se uma tecnologia disponível comercialmente desde 2023 é capaz, em 2026, de mudar o cotidiano de uma única estudante, quantas outras crianças seguem à margem por falta de acesso a soluções semelhantes? A pergunta ecoa entre pesquisadores de IA, desenvolvedores e formuladores de políticas públicas.

A expectativa é que, nos próximos anos, recursos hoje restritos a óculos inteligentes migrem para outros dispositivos, como celulares, relógios e até sistemas embarcados em ônibus e metrôs. O avanço da IA generativa, que já permite descrever com riqueza de detalhes cenas complexas, abre espaço para mapas sonoros urbanos, sinalização falada em tempo real e materiais didáticos mais acessíveis.

Enquanto esse futuro se desenha, Júlia segue com sua rotina em Brasília, óculos no rosto e fone discreto no ouvido. Entre uma aula e outra, um livro em áudio a mais, um objeto reconhecido sem ajuda, um vídeo que cruza fronteiras digitais. O gesto simples de perguntar “ei Meta, o que eu estou segurando?” continua ecoando como um lembrete de que o debate sobre tecnologia só se completa quando inclui quem, por muito tempo, ficou fora do campo de visão.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *