A chegada de novas tecnologias, especialmente no campo da Realidade Aumentada (AR) e Inteligência Artificial (IA), muitas vezes gera uma sensação de nervosismo e incerteza. É como mergulhar no desconhecido. Aqui, em um evento focado em AR realizado em Long Beach, é possível observar um momento de transição tecnológica onde a IA está dominando o cenário e as formas de interação estão começando a mudar.
Diversas novidades estão no horizonte, incluindo novos dispositivos como as meta bands e óculos de XR. Há expectativa para os óculos de AR da Snap que serão lançados no próximo ano, além do Android XR do Google, uma plataforma completa de VR e AR que integrará o Gemini. Inicialmente, essa plataforma focará em óculos com IA, que estarão disponíveis através de varejistas como a Warby Parker, antes de evoluir para óculos de AR completos.
O que esperar da evolução da tecnologia AR
Podemos antecipar algumas tendências observadas no evento:
- Periféricos Inovadores: A Qualcomm está demonstrando como anéis podem ser usados em conjunto com óculos de AR. Além disso, a Double Point está desenvolvendo a integração de relógios com diferentes óculos de AR.
- Interoperabilidade: A Double Point está colaborando com a Snap para mostrar como um relógio pode se interconectar com os óculos Spectacles, expandindo as funcionalidades além dos gestos manuais ou situações em que a mão está fora de vista, como ao caminhar.
Os óculos de AR têm o objetivo de serem dispositivos que as pessoas realmente usem no cotidiano. A Snap tem sido proativa nessas explorações, pois seus óculos podem ser utilizados ao ar livre e suportam interações com múltiplas pessoas simultaneamente.
Experiências de AR baseadas em localização
Foi demonstrada uma experiência de AR baseada em localização pela Niantic Spatial, utilizando os Snap Spectacles. Durante a demonstração, um pequeno personagem alienígena, um “paradot” que também funciona como um jogo autônomo, atuava como um guia de IA, apontando locais de interesse ao redor. A interação permitiu até mesmo perguntar sobre um objeto próximo (identificado como um mosaico de lula-gigante de Humboldt), embora a voz fofa do personagem fosse automática.
A Snap planeja lançar uma versão menor dos Spectacles no próximo ano, que ainda não foi revelada. Embora muitas tecnologias estejam em desenvolvimento, experiências de AR baseadas em localização e uso externo como a vista ainda não são comuns.
Essa demonstração exigiu que o dispositivo estivesse conectado a um ponto de acesso (“hot spot”) ou a um celular para garantir conectividade e dados suficientes. É importante notar que, devido a limitações de visão, a experiência foi observada com certa dificuldade, mas foi possível entender o funcionamento das interações.
Empresas já estão trabalhando na sobreposição dessas tecnologias no entretenimento. A Meow Wolf anunciou parceria com a Niantic Spatial para estender suas instalações físicas com realidade aumentada, embora essas experiências completas só devam estar disponíveis por volta de 2026. O que foi visto, contudo, ofereceu um “gostinho” dessa integração.
A convergência entre o físico e o virtual está se manifestando em áreas como automobilística. Uma empresa chamada Distance apresentou um display de campo de luz (light field display) sem óculos, projetado para situações críticas como defesa e condução. O display permitia uma grande profundidade de campo, superior ao que se costuma ver, e, por ser semitransparente, poderia ser incorporado ao para-brisa de um carro, exibindo sobreposições rápidas o suficiente para o uso durante a condução. A empresa já está buscando a instalação dessa tecnologia em carros, além de aplicações médicas.
Previsões de Lançamento e Avanços
A questão sobre quando veremos essas tecnologias em óculos de uso diário é relevante. O Android XR ainda está em desenvolvimento. Espera-se que os novos óculos da Meta sejam lançados no final deste ano, enquanto os óculos de IA do Google estão previstos para 2026.
Enquanto isso, algumas empresas já estão avançando significativamente. A XRLL está usando a tecnologia atual, como os óculos XRL 1 Pro e uma câmera ocular vendida separadamente, que se conecta ao dispositivo. Esses óculos já capturam fotos e vídeos e, eventualmente, integrarão IA. Além disso, oferecem seis graus de liberdade (6DoF), permitindo que um display seja fixado no espaço e o usuário caminhe em direção a ele ou se afaste, como em uma experiência de AR tradicional.
Um display fixado de uma imagem de celular foi mantido no espaço enquanto a pessoa caminhava ao redor, demonstrando um avanço nesse tipo de rastreamento. A XRLL planeja lançar uma versão para desenvolvedores do headset Project Aura, baseada nessa tecnologia, que rodará AR usando o Google Play e o Android XR, podendo se conectar ao celular.
Táticas de Interação e Haptics
O futuro também envolve o tato. Foi possível experimentar luvas hápticas (Hapticosis gloves), que buscam adicionar mais sensação tátil aos gestos manuais. Atualmente, essas luvas utilizam controladores Quest para auxiliar no rastreamento espacial, o que adiciona peso. O objetivo final é eliminar esses controladores.
Na demonstração, foi possível sentir a vibração do coração e uma resistência nos dedos ao agarrar objetos. Além disso, houve a experimentação com os sapatos de caminhada VR da Free Aim. Estes são calçados motorizados com rodas que ativam e desativam conforme a atividade do usuário, podendo até se mover para trás enquanto a pessoa caminha. Embora a caminhada neles seja comparável a usar patins, e talvez não seja ideal para uso constante, a tecnologia demonstra o esforço para integrar a locomoção ao ambiente virtual.
O evento funcionou como uma exploração de várias possibilidades. O próximo ano promete trazer mais clareza à medida que mais óculos e dispositivos acessórios, como relógios inteligentes, começarem a interagir com eles. Embora o futuro exato — óculos de AR, headsets VR ou nenhuma tecnologia — permaneça incerto, a tendência é saltar de cabeça nesse desconhecido.
Perguntas Frequentes
- Como a IA está impactando o desenvolvimento de óculos de AR?
A IA está sendo integrada em plataformas como o Android XR do Google, permitindo funcionalidades avançadas em óculos futuros, começando com assistentes de IA. - O que são os periféricos mencionados como anéis e relógios na AR?
São dispositivos acessórios que se conectam aos óculos de AR para oferecer novas formas de interação, como controle por gestos nos dedos (anéis) ou integração com notificações e rastreamento (relógios). - É possível usar experiências de AR em ambientes externos atualmente?
Sim, alguns dispositivos, como os Snap Spectacles, permitem o uso ao ar livre e suportam experiências baseadas em localização, como a demonstração com a Niantic Spatial. - Qual a previsão de lançamento dos óculos de AR completos?
Os óculos de IA do Google estão previstos para 2026, enquanto os novos óculos da Meta são esperados para o final deste ano. - Como funcionam os displays de campo de luz sem óculos (glasses-free)?
Esses displays, como o mostrado pela Distance, criam imagens com profundidade significativa e podem ser semi-transparentes, sendo aplicáveis em para-brisas para sobreposições de informação em tempo real.






