Tudo Anunciado no Google Cloud Next em 12 Minutos

Inovações em Infraestrutura, IA e Produtividade

Este artigo detalha uma série de anúncios focados em expandir a rede global privada do Google Cloud, introduzir novas gerações de hardware de IA e aprimorar as capacidades de inteligência artificial no ambiente de trabalho.

Cloud WAN: A Rede Global Privada para Empresas

O Google está disponibilizando sua rede privada global para empresas em todo o mundo, um serviço denominado Cloud Wide Area Network (Cloud WAN). Esta solução aproveita a rede de escala planetária do Google e é otimizada para o desempenho de aplicações.

Com o Cloud WAN, é possível obter um desempenho até 40% mais rápido, ao mesmo tempo em que se reduz o Custo Total de Propriedade (TCO) em até 40%. Empresas como a Citadel Securities e a Nestlé já estão utilizando esta rede para soluções mais rápidas e confiáveis. A disponibilidade geral para todos os clientes do Google Cloud está prevista para o final do mês.

Avanços em Hardware de IA: TPU Ironwood

Um destaque importante é a introdução da sétima geração de Tensor Processing Units (TPUs), chamada Ironwood, prevista para o final deste ano.

Em comparação com a primeira TPU disponibilizada publicamente, a Ironwood alcança um desempenho 3600 vezes superior. Este é o chip mais potente já construído pela empresa e visa possibilitar a próxima fronteira dos modelos de Inteligência Artificial.

No mesmo período de desenvolvimento dessas TPUs, houve um aumento de 29 vezes na eficiência energética.

Potência dos Pods Ironwood

As TPUs Ironwood representam os maiores e mais potentes pods de TPU até agora. Cada pod conta com mais de 9.000 chips, proporcionando um aumento de mais de 10 vezes em comparação com a geração anterior de TPUs de alto desempenho.

Essa configuração entrega incríveis 42.5 exaflops de computação por pod. Para se ter uma noção da escala, o principal supercomputador do mundo suporta 1.7 exaflops; portanto, os pods Ironwood oferecem mais de 24 vezes essa capacidade de computação.

Melhorias em Software para Inferência de IA

O software é fundamental para orquestrar e simplificar o acesso a esse hardware poderoso. Três melhorias significativas foram anunciadas para a inferência de IA:

1. **Google Kubernetes Engine (GKE):** Introdução de novas capacidades de inferência no GKE, incluindo recursos de escalonamento e balanceamento de carga específicos para IA Generativa (Gen AI). Isso ajuda a reduzir os custos de serviço em até 30%, a latência de cauda em até 60% e aumenta o *throughput* em até 40%.
2. **Pathways no Vertex AI:** O *runtime* de ML distribuído do Google, o Pathways (que já suporta o Gemini), está disponível para clientes da nuvem pela primeira vez. Desenvolvido pelo Google DeepMind, ele permite inferência multi-host com escalabilidade dinâmica, mantendo alto desempenho a custos otimizados, possibilitando o *scale out* do serviço de modelos para centenas de aceleradores.
3. **VLM para TPUs:** A tecnologia VLM (Visual Language Model) está sendo integrada às TPUs. Isso permite que clientes que otimizaram PyTorch com VLM para GPUs possam executar suas cargas de trabalho em TPUs de maneira fácil e custo-eficiente.

Em conjunto, essas melhorias no *hypercomputer* de IA do Google entregam mais inteligência ou *output* útil de IA a um preço baixo e consistente. Como resultado, o Gemini 2.0 Flash, potencializado pelo *hypercomputer* de IA, alcança 24 vezes mais inteligência por dólar em comparação com o GPT-4o e cinco vezes mais que o DeepSeek R1.

Além disso, o Gemini agora pode rodar no Google Distributed Cloud localmente em ambientes *airgapped* (isolados) ou em ambientes conectados.

Segurança e Suporte a Hardware de Terceiros

O ecossistema é complementado pelo suporte a tecnologias de parceiros:

* Suporte para *confidential computing* da Nvidia.
* Suporte às plataformas Blackwell, como DGXB200 e HGXB200, com a Dell como parceira chave.

Isso complementa o produto Google Distributed Cloud *air gap*, que agora está autorizado para missões secretas e *top secret* do governo dos EUA, com o Gemini já disponível nessas instâncias, garantindo os mais altos níveis de segurança e conformidade.

Inovações no Gemini e Google Workspace

Três novas inovações foram anunciadas para integrar o Gemini ao Workspace:

* **Help me analyze no Google Sheets:** Orientação para o usuário realizar análises de dados de nível especialista.
* **Audio overviews no Google Docs:** Permite interagir com o Docs de uma maneira nova, criando versões em áudio de alta qualidade do conteúdo.
* **Google Workspace flows:** Auxilia na automação de tarefas repetitivas e demoradas, facilitando tomadas de decisão com mais contexto.

A ferramenta LIA também foi disponibilizada no Google Cloud, permitindo transformar *prompts* de texto em clipes de música de 30 segundos.

Outros anúncios em IA generativa incluem:

* A disponibilidade geral do Meta Llama 3 na Vertex AI.
* O portfólio completo de modelos abertos do AI2 agora acessível no *Model Guard* da Vertex AI, garantindo que os modelos tenham acesso às informações corretas no momento certo, conectando-se a qualquer fonte de dados ou banco de vetores em qualquer nuvem.
* A capacidade de construir agentes diretamente no **NetApp Storage** existente, sem a necessidade de duplicação de dados.

A plataforma suporta a conexão com diversas aplicações, incluindo Oracle, SAP, ServiceNow e Workday.

Grounding Abrangente para Factualidade

Para garantir a factualidade dos modelos, o Google oferece a abordagem mais completa de *grounding* (ancoragem de fatos) do mercado, combinando:

* Grounding com a Pesquisa Google.
* Grounding com dados da própria empresa (*enterprise data*).
* Grounding com Google Maps e fontes de terceiros.

Desenvolvimento de Agentes com Vertex AI

Começando imediatamente, é possível construir e gerenciar sistemas multi-agentes com a Vertex AI e o novo Agent Development Kit (ADK).

O ADK é um novo *framework* *open-source* que simplifica a construção de sistemas sofisticados de múltiplos agentes. Ele permite a criação de agentes baseados no Gemini que podem usar ferramentas e realizar tarefas complexas de múltiplos passos, incluindo raciocínio.

O ADK suporta o **Model Context Protocol**, um método unificado para que modelos de IA acessem e interajam com diversas fontes de dados e ferramentas, eliminando a necessidade de integrações personalizadas para cada um.

Além disso, o **Agent-to-Agent Protocol** permite que agentes se comuniquem, independentemente do modelo ou *framework* subjacente (incluindo LangGraph e CrewAI).

O **Google Agent Space** foi lançado para escalar a adoção de agentes em toda a empresa. Ele combina Pesquisa de Qualidade Empresarial do Google, IA conversacional (chat) e agentes de terceiros com o Gemini. Inclui conectores *purpose-built* para transacionar com documentos, bancos de dados e aplicações SaaS, com segurança avançada.

Agentes Especializados

A suíte de engajamento do cliente receberá a próxima geração de recursos, incluindo:

* Compreensão de voz similar à humana.
* Capacidade de entender emoções para adaptação conversacional.
* Suporte a *streaming* de vídeo para que agentes virtuais interpretem e respondam em tempo real ao que veem nos dispositivos dos clientes.
* Assistência de IA para criar agentes personalizados em uma interface *no-code*.
* Capacidade de usar ferramentas via chamadas de API para executar tarefas específicas como busca de produtos, adição ao carrinho ou *checkout*.

Foram anunciados agentes especializados para as equipes de dados:

* **Para Engenharia de Dados:** Agentes cobrem todo o ciclo de vida, desde a automação de catálogo e geração de metadados até a manutenção da qualidade de dados e geração de *data pipelines*.
* **Para Ciência de Dados:** Um agente atua como parceiro de codificação completo em notebooks, acelerando o carregamento de dados, *feature engineering* e modelagem preditiva.
* **Para Analistas e Usuários de Negócios:** Um agente de análise conversacional realiza análises poderosas e confiáveis inteiramente em linguagem natural, podendo ser incorporado em aplicações web ou móveis.

Agentes de Código

Novos **Code Assist agents** foram anunciados para auxiliar em tarefas que vão desde a modernização de código até o suporte a todo o ciclo de desenvolvimento de software.

Os desenvolvedores podem interagir com esses agentes por meio de um quadro Kanban, que exibe o status das tarefas, e também interagir diretamente com os agentes. Estes agentes possuem integrações com dezenas de parceiros como Atlassian, Sentry e Snyk, com mais integrações a caminho.

Perguntas Frequentes

  • O que é o Cloud WAN?
    Cloud WAN é a rede privada global do Google disponibilizada para empresas, otimizada para desempenho de aplicações, oferecendo maior velocidade e menor custo total de propriedade.
  • Qual o desempenho da nova TPU Ironwood?
    A Ironwood, sétima geração de TPUs, oferece 3600 vezes melhor desempenho em comparação com a primeira TPU disponibilizada publicamente e fornece 42.5 exaflops de computação por pod.
  • Como o Agent Development Kit (ADK) simplifica a criação de agentes?
    O ADK é um *framework* *open-source* que simplifica a construção de sistemas sofisticados multi-agentes, permitindo que eles usem ferramentas e executem tarefas complexas.
  • Qual a vantagem de usar o Grounding em modelos de IA?
    O *grounding* combina a resposta do modelo com fontes externas confiáveis, como a Pesquisa Google e dados empresariais, garantindo maior factualidade e precisão.
  • É possível rodar o Gemini em ambientes isolados?
    Sim, o Gemini pode ser executado no Google Distributed Cloud localmente em ambientes *airgapped* (isolados) e também em ambientes conectados.