Poucas vezes a Apple interrompe um projeto já anunciado para acelerar outro, mas foi exatamente o que aconteceu: a segunda geração do Vision Pro ficou em pausa porque os óculos inteligentes, apelidados informalmente de “Apple Glasses”, viraram prioridade absoluta em Cupertino. Para quem vive de tecnologia, cria conteúdo ou faz dinheiro com marketing digital, isso sinaliza que o mercado de wearables de 2026 pode ser tão disruptivo quanto o lançamento do primeiro iPhone.
Mais do que um acessório futurista, os Apple Glasses pretendem competir diretamente com os recém-lançados Ray-Ban Display da Meta. Só que, diferentemente dos rivais, eles não terão uma tela embutida na primeira versão. A aposta da empresa é usar câmeras, áudio espacial e — principalmente — uma Siri turbinada por inteligência artificial para conquistar o usuário. A seguir, destrinchamos tudo o que já se sabe oficialmente (e nos bastidores) sobre o projeto.
Design voltado para moda, não para o laboratório
Assim como aconteceu com o Apple Watch, a empresa quer que os óculos sejam antes de tudo um item de estilo. Estão em desenvolvimento diversas opções de armação e hastes, em materiais e cores diferentes, para que o wearable não fique limitado a um único “formato nerd”. O grande desafio é acomodar bateria, chip e múltiplas câmeras sem comprometer a estética — algo que os designers vêm tentando contornar com variações de tamanho e acabamento.
Siri de próxima geração: o controle por voz é o coração do produto
A Apple só colocará os óculos no mercado quando a nova Siri, reconstruída sobre modelos de linguagem de grande porte, estiver pronta. A previsão interna é que essa versão mais “conversacional” da assistente estreie na primavera de 2026 (hemisfério norte). Com isso, será possível:
- Pedir descrições em tempo real daquilo que a câmera está vendo;
- Solicitar tradução de placas, menus e conversas;
- Receber instruções para encontrar objetos perdidos ou o carro no estacionamento;
- Tocar música, enviar mensagens e buscar informações sem tocar no iPhone.
A meta é equiparar todos esses recursos ao que o Meta AI já faz nos Ray-Ban Display, mantendo o ecossistema da maçã como diferencial.
Recursos esperados para a primeira geração
Apesar da ausência de display, a lista de funcionalidades divulgada por fontes internas e analistas inclui:
- Captura de fotos e gravação de vídeo;
- Reprodução de áudio (músicas, podcasts e audiolivros);
- Navegação por direções turn-by-turn;
- Respostas a perguntas gerais via IA;
- Identificação de plantas, animais, pontos turísticos e objetos;
- Chamadas telefônicas e envio de mensagens;
- Tradução de idiomas em tempo real.
Dependência do iPhone e autonomia de bateria
Os Apple Glasses usarão um chip da própria empresa, baseado no processador do Apple Watch. Mesmo assim, eles não serão independentes: precisarão de um iPhone pareado para processar as tarefas de IA mais pesadas e, de quebra, economizar bateria. Ainda não há estimativa oficial de duração da carga, mas delegar parte do trabalho ao telefone deve ampliar a autonomia.
Imagem: Juli Clover
Lançamento e preço: janela apontada para 2026
A aceleração no cronograma indica apresentação dos óculos no fim de 2026, com chegada às lojas possivelmente no primeiro trimestre de 2027. Sobre preço, nada é definitivo, porém os Ray-Ban da Meta começam em US$ 380; analistas acreditam que a Apple tentará se manter “na mesma rua” para competir.
Óculos sem tela, mas cheios de dados: por que essa aposta pode redefinir o consumo de conteúdo
O ponto mais intrigante da estratégia da Apple não é a ausência de display, e sim a escolha de priorizar a voz e a câmera como interfaces primárias. Para criadores de conteúdo, isso sugere uma nova fase de “conteúdo auditivo” e “visual assistido por IA”, em que tutoriais, notícias e até anúncios poderão ser consumidos sem olhar para uma tela. Para o marketing digital, abre-se um leque de interações baseadas em contexto: imagine anúncios de afiliados que só são ofertados quando a IA reconhece um objeto relacionado no seu campo de visão.
Já para desenvolvedores WordPress ou gestores de blogs, a incorporação de microconteúdos otimizados para áudio e respostas rápidas via assistente torna-se prioridade. Se a Apple repetir o que fez com o iPhone — transformar um dispositivo complementar em objeto de desejo de massa —, veremos um deslocamento do tráfego tradicional para experiências de voz e realidade assistida. Em outras palavras: adaptar-se ao “SEO para ouvidos” pode ser tão importante quanto aprender a rankear no Google hoje.
No fim das contas, mesmo sem tela, os Apple Glasses parecem prontos para inaugurar uma nova etapa em que hardware, IA e conteúdo se fundem de forma quase invisível. Quem entender essa convergência primeiro terá vantagem competitiva quando o mundo começar a enxergar — literalmente — por novas lentes.