A Construção da Web Agêntica Escalável em 2025
Estamos avançando em 2025 com o objetivo de construir uma web agêntica aberta e escalável. A transição é clara: saímos de aplicações com arquiteturas verticalmente integradas para uma plataforma que habilita essa web agêntica escalável. O foco principal é expandir as oportunidades para desenvolvedores em todas as camadas da tecnologia.
Este artigo detalha uma série de atualizações importantes lançadas, abrangendo desde ferramentas de desenvolvimento até capacidades avançadas de agentes de IA.
Novidades no Visual Studio e VS Code
O **Visual Studio** continua sendo o IDE mais robusto para desenvolvimento em .NET e C++. Novas funcionalidades incluem:
* Suporte para .NET 10.
* Pré-visualização ao vivo (live preview) no tempo de design.
* Melhorias nas ferramentas Git.
* Um novo *debugger* projetado para aplicativos *cross-platform*.
Em relação ao **VS Code**, a centésima versão foi recentemente lançada, trazendo melhorias no suporte a múltiplas janelas (*multi-window support*) e facilitando a visualização do *stage* diretamente do editor.
GitHub: O Lar dos Desenvolvedores
O GitHub Enterprise mantém um forte crescimento no ambiente empresarial, reforçando o compromisso com desenvolvedores que criam aplicações que exigem alta confiança, segurança, conformidade, auditabilidade e residência de dados.
Com a evolução do **GitHub Copilot** dentro do VS Code, a Inteligência Artificial se tornou central no processo de codificação. Por isso, foi anunciada a decisão de abrir o código-fonte do Copilot no VS Code, integrando capacidades de IA diretamente ao *core* do VS Code, que reside no mesmo repositório *open-source* do editor mais popular do mundo.
Copilot em Modo Agente e Modernização de Aplicações
O Copilot agora possui a capacidade de operar em um “modo agente”, focado na modernização de aplicações:
* **Atualização de Frameworks:** Pode realizar o *upgrade* de *frameworks*, como migrar Java 8 para Java 21 ou .NET 6 para .NET 9.
* **Migração para a Nuvem:** É capaz de migrar aplicativos *on-premise* para a nuvem.
Um avanço significativo é a introdução de um **agente autônomo para SRE (Site Reliability Engineering)**. Este agente SRE inicia automaticamente a triagem de causa raiz (*root causing*), mitiga o problema e, em seguida, registra um relatório de gestão de incidentes como um *issue* no GitHub, incluindo todos os itens de reparo necessários.
Esses itens de reparo podem ser, inclusive, atribuídos ao GitHub Copilot, transformando-o de um simples *pair programmer* em um **programador parceiro** completo. É possível delegar correções de bugs, novas funcionalidades e manutenção de código, e o Copilot os executará de forma autônoma.
A Nova Interface para IA: Chat, Pesquisa e Agentes Unificados
As atualizações recentes unem diversas funcionalidades em um *scaffolding* intuitivo, frequentemente descrito como a “UI para IA e chat”.
* **Chat:** A funcionalidade de chat está fundamentada tanto em dados da web quanto nos dados de trabalho do usuário.
* **Pesquisa:** A pesquisa abrange todas as aplicações, incluindo Confluence, Google Drive, Jira e ServiceNow, não se limitando apenas a dados do M365.
* **Notebooks:** Permitem a criação de coleções heterogêneas de dados, integrando *chats*, páginas e documentos, e até mesmo gerando análises de áudio ou *podcasts* a partir delas.
* **Create:** Ferramenta para transformar conteúdo, como converter uma apresentação PowerPoint em um novo vídeo explicativo ou gerar imagens.
Agentes Especializados
Foram destacados agentes especiais como o **Pesquisador (*Researcher*)**, que sintetiza informações tanto da web quanto de fontes corporativas, aplicando raciocínio de cadeia de pensamento profunda (*deep chain of thought reasoning*) a qualquer tópico.
O agente **Analista (*Analyst*)** processa dados brutos de múltiplos arquivos-fonte (como vários arquivos Excel), extrai *insights*, realiza previsões e gera visualizações.
Todos os agentes construídos podem agora ser exibidos no Teams e no Copilot. É possível questionar, atribuir itens de ação ou iniciar fluxos de trabalho simplesmente mencionando um agente em um chat ou reunião.
Com a biblioteca de IA do Teams, construir agentes *multiplayer* está mais fácil. Há suporte para MCP (Multi-Client Protocol) e, com apenas uma linha de código, é possível habilitar comunicação *agent-to-agent* (A2A). A memória semântica e episódica pode ser adicionada usando o Azure Search e um novo sistema de recuperação.
O maior avanço para desenvolvedores é a capacidade de publicar agentes criados na **Loja de Agentes (*Agent Store*)** para descoberta e distribuição em Copilot e Teams, alcançando centenas de milhões de usuários.
Copilot Tuning: Modelos Corporativos Personalizados
Foi introduzida uma nova classe de agentes de nível empresarial (*enterprise-grade*), construídos usando modelos ajustados (*fine-tuned*) nos dados, fluxos de trabalho e estilo da empresa. Isso é chamado de **Copilot Tuning**.
O Copilot pode aprender o tom e a linguagem únicos da organização. Em breve, ele entenderá a experiência e o conhecimento específicos da empresa. O processo é simples: fornecer um pequeno conjunto de referências para iniciar o treinamento. O modelo personalizado herda as permissões de todos os controles de origem e, após ser integrado ao agente, pode ser implementado para usuários autorizados.
Roteamento de Modelos e Multimodelidade
O novo **roteador de modelos (*model router*)** escolherá automaticamente o melhor modelo da OpenAI para cada tarefa, eliminando a necessidade de seleção manual de modelos. Isso permite uma abordagem *multimodel*, onde os aplicativos não estão mais limitados a um único modelo.
Com isso, o modelo **Grock, da XAI**, está chegando ao Azure. Ao utilizar múltiplos modelos, é necessário um novo recurso no **Foundry**: provisionar *throughput* uma única vez e utilizá-lo em vários modelos, incluindo o Grock. O serviço de agente do Foundry permite a criação de agentes declarativos com poucas linhas de código no portal para orquestração complexa de múltiplos agentes.
O serviço de agente está agora **geralmente disponível (*generally available*)**. Está simplificado conectar o Foundry a aplicativos de contêineres ou funções, e implantar qualquer modelo *open-source* no AKS (Azure Kubernetes Service), seja na nuvem ou em modo híbrido com ARC. É possível pegar um modelo, pós-treiná-lo no Foundry e implantá-lo no Copilot Studio para automação de fluxos de trabalho.
O orquestrador de agentes de saúde utilizado por Stanford agora está disponível para todos no Foundry.
Observabilidade e Segurança de Agentes
Novos recursos de observabilidade estão chegando ao Foundry para monitorar e gerenciar IAs em produção, permitindo rastrear impacto, qualidade, segurança e custo em um único lugar.
Com o **Entra ID**, os agentes agora possuem sua própria identidade, permissões, políticas e controles de acesso. Agentes construídos no Foundry e Copilot Studio aparecerão automaticamente em um diretório de agentes no Entra. Parcerias com ServiceNow e Workday automatizam o provisionamento e a gestão desses agentes via Entra.
Na governança de dados, o **Purview** agora se integra ao Foundry, garantindo proteção de dados ponta a ponta ao escrever um agente.
No aspecto de segurança, o **Defender** também se integra ao Foundry, protegendo agentes contra ameaças como abuso de *wallet* ou roubo de credenciais, da mesma forma que protege um *endpoint*.
Estendendo a Plataforma para a Edge e o Desenvolvimento Local
A capacidade do servidor de aplicativos e de construção de aplicações está sendo estendida para a *edge* e clientes através do **Foundry Local**, anunciado neste evento. Ele inclui um *runtime* de alto desempenho, modelos e agentes como serviço, além de uma CLI para desenvolvimento local de aplicativos, com suporte total para Windows e Mac.
O **Windows AI Foundry** foi anunciado. O que era usado internamente pela equipe para construir recursos de SDK agora está sendo estendido para suportar todo o ciclo de vida de desenvolvimento, não apenas em PCs com Copilot, mas também em CPUs, GPUs, NPUs e na nuvem, permitindo que a aplicação rode em qualquer silício.
O Foundry Local está integrado ao Windows AI Foundry, permitindo acesso a um catálogo de modelos *open-source* pré-otimizados para execução local no dispositivo.
Suporte Nativo a MCP no Windows
O Windows agora oferece suporte nativo para MCP, incluindo servidores embutidos para sistemas de arquivos, configurações, ações de aplicativos e *windowing*. Há também um registro MCP nativo que permite que clientes compatíveis descubram servidores MCP seguros e validados por desempenho e segurança, mantendo o controle do usuário.
Em um movimento de abertura, o Bash no Ubuntu (agora conhecido como WSL) foi tornado **totalmente *open source***.
WSL e Integração de Dados
O WSL agora é totalmente *open source*. Qualquer website ou API pode ser facilmente transformado em uma aplicação agêntica.
Houve integração direta do **Cosmos DB** no Foundry, permitindo que agentes armazenem e recuperem histórico conversacional e, futuramente, utilizem o Cosmos para todas as necessidades de aplicações RAG (*Retrieval-Augmented Generation*).
A conexão com **Azure Databricks** permite que os dados nos *Genie Spaces* ou em Funções de IA sejam ligados ao Foundry.
Em consultas **PostgreSQL SQL**, agora é possível integrar respostas de LLM diretamente.
O Cosmos DB está sendo trazido também para o Fabric, reconhecendo que aplicações de IA necessitam de dados não estruturados e semiestruturados (texto, imagens, áudio). A unificação do *data estate* com Cosmos e Fabric torna os dados disponíveis ao lado do SQL, prontos para IA.
O construtor de **Gêmeos Digitais (*Digital Twin Builder*)** está sendo integrado ao Fabric, permitindo mapear dados de ativos físicos e sistemas com pouquíssimo ou nenhum código.
Transformações com OneLake
Foram anunciadas as **Transformações de Atalho (*Shortcut Transformations*)** no OneLake, que funcionam como um ETL conduzido por IA. É possível aplicar transformações pré-construídas e otimizadas por IA, como áudio para texto, análise de sentimento e sumarização, diretamente no Fabric.
O maior supercomputador baseado em GB200 será o Azure, indicando um forte foco no escalonamento dessas tecnologias para todos os desenvolvedores.
A ambição é aplicar toda essa pilha tecnológica à ciência, através do **Microsoft Discovery**, uma plataforma que compreende a nuance do conhecimento no domínio científico, tanto de fontes públicas quanto de dados proprietários de empresas de biofarma. O Discovery, construído sobre o Foundry, traz agentes avançados e altamente especializados em P&D, não apenas para raciocinar, mas para conduzir a pesquisa em si.
Perguntas Frequentes
- Como o Copilot Tuning personaliza a IA para uma empresa?
O Copilot Tuning utiliza modelos ajustados (fine-tuned) nos dados, fluxos de trabalho e estilo exclusivos da empresa, permitindo que a IA aprenda o tom e a linguagem corporativa, e futuramente, o conhecimento específico. - O que é o modo agente no Copilot?
O modo agente permite que o Copilot realize tarefas complexas autonomamente, como modernizar aplicações, atualizar *frameworks* (ex: Java, .NET) e migrar sistemas *on-premise* para a nuvem. - Qual a vantagem de publicar agentes na Loja de Agentes?
Publicar agentes na Loja permite que eles sejam descobertos e distribuídos em plataformas como Copilot e Teams, fornecendo acesso a centenas de milhões de usuários. - O que é o Foundry Local?
O Foundry Local estende a capacidade do servidor de aplicativos e construção de agentes para a *edge* e clientes, permitindo o desenvolvimento local de aplicações com suporte para diversos tipos de hardware (CPUs, GPUs, NPUs). - Por que a integração do Defender com o Foundry é importante?
Garante que os agentes construídos sejam protegidos contra ameaças de segurança, como abuso de *wallet* ou roubo de credenciais, da mesma forma que um *endpoint* tradicional.






