Os cronogramas convergem: o surgimento da IA agente - AWS Orientação prescritiva

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Os cronogramas convergem: o surgimento da IA agente

2023-2024 — plataformas de agentes de nível corporativo

A convergência de arquiteturas de agentes de software distribuídos e baseadas em transformadores LLMs culminou no surgimento da IA agente.

  • O Amazon Bedrock Agents introduziu uma forma totalmente gerenciada de criar agentes de software orientados por metas e usando modelos básicos do Amazon Bedrock.

  • O Model Context Protocol (MCP) da Anthropic definiu um método para grandes modelos de linguagem acessarem e interagirem com ferramentas, ambientes e memória externos. Isso é fundamental para um comportamento contextual, persistente e autônomo.

Esses dois marcos representam a síntese de agência e inteligência. Os agentes não estavam mais limitados a fluxos de trabalho estáticos ou automação rígida. Agora, eles podiam raciocinar em várias etapas, coordenar com ferramentas e APIs manter o estado contextual e aprender e se adaptar ao longo do tempo.

De janeiro a junho de 2025 — capacidades corporativas expandidas

No primeiro semestre de 2025, o cenário de IA agente se expandiu significativamente com novos recursos corporativos. Em fevereiro de 2025, a Anthropic lançou o Claude 3.7 Sonnet, que foi o primeiro modelo de raciocínio híbrido no mercado, e a especificação MCP ganhou ampla adoção.

Assistentes de codificação de IA, como Amazon Q Developer, Cursor e MCP WindSurf integrado, para padronizar a geração de código, a análise de repositórios e os fluxos de trabalho de desenvolvimento. A versão do MCP de março de 2025 introduziu recursos significativos prontos para uso corporativo, incluindo integração de segurança OAuth 2.1, tipos de recursos expandidos para acesso diversificado a dados e opções aprimoradas de conectividade por meio de HTTP Streamable. Com base nessa base, AWS anunciou em maio de 2025 que estava se juntando ao comitê diretor do MCP e contribuindo para novas capacidades de agent-to-agent comunicação. Isso fortalece ainda mais a posição do protocolo como um padrão do setor para interoperabilidade de IA agente.

Em maio de 2025, AWS fortaleceu as opções dos clientes para criar fluxos de trabalho de IA agentes ao abrir o código-fonte da estrutura Strands Agents. Essa estrutura independente do provedor e independente do modelo permite que os desenvolvedores usem modelos básicos em todas as plataformas, mantendo a profunda integração de serviços. AWS Conforme destacado no blog de código AWS aberto, a Strands Agents segue uma filosofia de design que prioriza o modelo, que coloca os modelos básicos no centro da inteligência dos agentes. Isso torna mais fácil para os clientes criar e implantar agentes de IA sofisticados para seus casos de uso específicos.

Emergência — IA agente

A evolução dos agentes de software, desde as ideias iniciais de autonomia até a orquestração moderna baseada em LLM, foi longa e complexa. O que começou com a visão de Oliver Selfridge de perceber programas se transformou em um ecossistema robusto de agentes de software inteligentes, conscientes do contexto e orientados por metas que podem colaborar, se adaptar e raciocinar.

A convergência da inteligência artificial distribuída (DAI) e da IA generativa baseada em transformadores marca o início de uma nova era na qual os agentes de software não são mais apenas ferramentas, mas atores autônomos em sistemas inteligentes.

A IA agente representa a próxima evolução em sistemas de software. Ele fornece uma classe de agentes inteligentes que são autônomos, assíncronos e agentes, que podem agir com intenção delegada e operar propositalmente em ambientes dinâmicos e distribuídos. A inteligência artificial da Agentic unifica o seguinte:

  • A linhagem arquitetônica de sistemas multiagentes e o modelo de ator

  • O modelo cognitivo de perceber, raciocinar, agir

  • O poder generativo dos transformadores LLMs e

  • A flexibilidade operacional da computação nativa em nuvem e sem servidor