A Visão da Apple para a Siri na WWDC25: Câmeras São o Próximo Foco

O Futuro da IA da Apple: Uma Análise dos Desafios da Siri e a Visão das Câmeras

A aguardada apresentação de software da Apple, a WWDC, marcada para o dia 9 de junho, está sob os holofotes. A expectativa principal reside em como a empresa abordará o futuro de suas ferramentas de Inteligência Artificial e, em particular, a evolução da Siri.

Não é segredo que a assistente de voz da Apple necessita de melhorias significativas. A Siri tem sido criticada por falhar em responder a perguntas básicas. A própria Apple reconheceu a necessidade de mais tempo para finalizar as atualizações que estavam previstas para o iPhone 16. Essa situação gerou repercussões sérias, incluindo a apresentação de uma ação coletiva por propaganda enganosa.

Mudanças de Liderança Focadas em Resolver os Problemas da Siri

Em meio a esses desafios, houve uma reestruturação na liderança. O executivo responsável pelo lançamento do Vision Pro foi designado para liderar o time de correção da Siri.

Embora possa parecer surpreendente, essa decisão faz sentido quando se considera o Vision Pro como um sistema que interage com o usuário por meio de métodos que vão além do teclado e mouse. O headset possui 12 câmeras que processam o ambiente ao redor. De fato, relatórios indicam que a Apple tem se referido internamente às iniciativas do Vision Pro como “produtos de IA”. Se a equipe que desenvolveu o Vision Pro, com sua vasta capacidade de processamento visual, agora está focada em aprimorar a Siri, isso sugere uma direção clara para a futura inteligência artificial da Apple.

A Visão da Apple: Câmeras como Chave para a Próxima Fase da IA

A empresa parece acreditar que as câmeras são o elemento crucial para a próxima etapa da inteligência artificial. O foco não estaria apenas em tornar a assistente mais conversacional, mas sim em mudar a maneira como a Siri “enxerga” o mundo.

Com a chegada da iOS 19 e a próxima fase da “Apple Intelligence”, há uma grande pressão para demonstrar resultados práticos das capacidades da IA que foram antecipadas há um ano. Espera-se que a Siri aprimorada ofereça ajuda mais personalizada, sendo capaz de correlacionar dados entre aplicativos, fazer conexões entre mensagens e o calendário do usuário. O atraso no lançamento dessas funcionalidades é um ponto negativo para a Apple, especialmente porque os materiais de marketing já promoviam esses benefícios como parte do argumento de venda para o iPhone 16.

A demora culminou na referida ação coletiva, que busca indenização por publicidade enganosa de recursos de IA que não foram entregues.

A Estratégia de IA Baseada em Visão

O relatório da Bloomberg indica que o vice-presidente Mike Rockwell, líder da criação e lançamento do Vision Pro, agora comanda a equipe da Siri, trazendo consigo membros de sua equipe anterior.

Essa transição sugere que a Apple está apostando fortemente em capacidades baseadas em visão para impulsionar a IA. É provável que na WWDC sejam detalhadas as formas como a inteligência das câmeras será integrada aos planos de IA e à Siri.

Alguns projetos rumorejados que ligam IA e câmeras incluem:

* **Apple Watch com Câmera:** A possibilidade de adicionar uma câmera ao Apple Watch, transformando-o em um assistente de IA vestível. A ideia é que as câmeras captem informações do ambiente para oferecer sugestões ou executar ações.
* **Sensores de Câmera nos AirPods:** Há relatos de que a Apple está explorando a inclusão de sensores de câmera nos fones de ouvido para coletar mais dados ambientais. Isso não seria para fotografia comum, mas sim para alimentar a IA, talvez detectando gestos de mão, aprimorando o áudio espacial ou acionando ações via Apple Intelligence.
* **Campainha Inteligente:** Um projeto anterior mencionado incluía uma campainha inteligente com câmera capaz de destravar o acesso para rostos reconhecidos. Embora o lançamento possa demorar, isso se alinha com a visão de processar o ambiente por meio de escaneamento visual.

Treinamento de IA com Dados de Mapeamento Visual

A direção da Apple com câmeras e IA fica ainda mais clara quando observamos o Apple Maps. As câmeras utilizadas em veículos e mochilas para coletar imagens para o Maps estão agora sendo usadas para treinar a Apple Intelligence. Relatos indicam que as imagens coletadas por meio de pesquisas veiculares serão utilizadas para aprimorar a IA generativa, beneficiando ferramentas como o Image Playground e o recurso de limpeza de imagens.

Embora o futuro pareça empolgante com essas inovações visuais, persistem dúvidas sobre a situação atual da Siri e se os consumidores estarão dispostos a adquirir novos dispositivos recheados de câmeras e sensores se as interações de voz básicas da Siri continuarem insatisfatórias.

Perguntas Frequentes

  • O que causou a necessidade de aprimoramento urgente da Siri?
    A Siri tem sido criticada por não conseguir lidar com perguntas básicas, e a Apple precisou adiar recursos prometidos para o iPhone 16, o que levou a uma ação judicial por propaganda enganosa.
  • Por que a liderança do Vision Pro assumiu o comando da Siri?
    Acredita-se que a experiência em criar um sistema altamente dependente de processamento visual e interação ambiental, como o Vision Pro, é vista como crucial para o futuro da Siri baseado em IA visual.
  • Como a Apple planeja usar as câmeras na IA?
    A Apple parece focar em usar a entrada visual de câmeras em dispositivos como o Apple Watch e AirPods para que a IA compreenda melhor o ambiente do usuário e ofereça sugestões contextuais.
  • É possível que as câmeras nos novos dispositivos sejam para fotos normais?
    Não. Analistas sugerem que as câmeras em desenvolvimento, incluindo câmeras infravermelhas, seriam focadas em detectar gestos, aprimorar áudio espacial e alimentar recursos de IA, em vez de fotografia tradicional.
  • Qual a relação entre as câmeras do Apple Maps e a IA?
    As imagens capturadas por veículos e mochilas de coleta de dados para o Apple Maps estão sendo utilizadas para treinar a IA generativa da Apple, melhorando ferramentas como o Image Playground.