Já experimentámos os óculos IA da Google

Sven Rietkerk
Sven Rietkerk
2 Março 2026, 14:00
3 min tempo de leitura
Traduzido e adaptado por Mafalda Vieira Santos.

Os óculos inteligentes prometem ser a próxima grande revolução no mundo dos wearables. A Meta já deu os primeiros passos com os seus Ray-Ban e a Xreal aposta em modelos que funcionam como um segundo ecrã. A Google já tinha revelado a sua visão sobre este conceito, mas agora, durante o MWC, tive finalmente a oportunidade de experimentar um protótipo.

Tudo gira em torno do Gemini

A Google levou um protótipo ao MWC, pelo que a minha experiência foi, acima de tudo, um primeiro contacto com a tecnologia. O vidro esconde um pequeno ecrã integrado que funciona como uma camada digital sobre o mundo real. Por defeito, via a meteorologia e as horas no canto inferior do campo de visão, mas, fora isso, pareciam uns óculos perfeitamente normais.

Tudo muda assim que tocas na haste lateral. O protagonista é, claro, o Gemini; com esse toque, ativas a IA da Google. O ícone do assistente surge no teu campo de visão e ficas pronto para fazer perguntas. Na minha demonstração, estava diante de uma imagem icónica: “Barcelona”, de Freddie Mercury e Montserrat Caballé. Tal como acontece com o Gemini no teu smartphone ou no browser, a IA conta-te factos interessantes sobre a música.

A grande diferença em relação à IA atual da Google é que não precisas de ter o telemóvel na mão. Além disso, a interação é contínua: podes dar uma instrução de seguimento. Se quiseres reproduzir a música imediatamente, basta pedir. Já agora, o som dos óculos é surpreendentemente bom, especialmente para um protótipo.

<h1>Protótipo dos Google AI Glasses</h1>

Navegar com os AI Glasses

Como já tínhamos visto no ano passado durante o Google I/O, a navegação será um dos pontos fortes destes óculos. No canto do olho, vês a indicação da próxima curva ou saída. Funciona um pouco como aquela barra verde superior que vês durante a navegação normal no Maps.

Mas a verdadeira magia acontece quando olhas para baixo. Vês o trajeto projetado no chão, de forma transparente, indicando o caminho à frente dos teus pés. Estás na dúvida se é para virar à esquerda ou à direita? Basta baixar o olhar. No nosso teste, bastou digitalizar uma foto do estádio Camp Nou e dizer “quero ir para ali”.

Outra funcionalidade que a Google demonstrou é a capacidade de captar e editar fotos com o “Nano Banana”. Os óculos têm câmaras integradas que, tal como acontece nos modelos da Meta, acompanham o que estás a ver. Dás a ordem, os óculos disparam e, se quiseres, podes editar a imagem logo de seguida com o gerador de imagens da Google. A tradução em tempo real também faz parte do pacote, embora não tenha estado disponível nesta demonstração específica.

Ainda sem data de lançamento

Durante a demo, foi-me dito explicitamente que isto é apenas um protótipo. Ainda não se sabe quando é que estes óculos chegarão efetivamente ao mercado. Resta também saber se veremos este dispositivo disponível no nosso mercado logo na primeira vaga de lançamentos. Frequentemente, acabamos por ter de esperar mais tempo por este tipo de tecnologia — basta olhar para o exemplo dos Meta Ray-Ban, que demoraram a chegar cá. O preço dos AI Glasses também permanece uma incógnita.