Edge AI e distribuição global de inferência - AWS Orientação prescritiva

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Edge AI e distribuição global de inferência

Embora a inferência baseada em nuvem atenda à maioria dos casos de uso corporativo, certos cenários exigem respostas em tempo real, recursos off-line ou proximidade com a fonte de dados ou o usuário. Para esses casos, a IA de ponta, executando a lógica de IA no dispositivo ou próximo a ele, oferece um complemento poderoso à arquitetura de nuvem sem servidor.

AWS oferece suporte à IA de ponta por meio de duas tecnologias principais sem servidor:

  • O Lambda @Edge executa a lógica de inferência globalmente em AWS pontos de presença usando a Amazon. CloudFront

    Exemplo — Um site global de comércio eletrônico usa a função Lambda @Edge para personalizar o conteúdo da página inicial com base na localização e no idioma do usuário. Como resultado, ele oferece experiências personalizadas instantaneamente a partir da localização CloudFront periférica mais próxima.

  • AWS IoT Greengrasspermite a execução local da IA em dispositivos conectados.

    Exemplo: um dispositivo inteligente usa um modelo implantado AWS IoT Greengrass para diagnósticos em tempo real, sincronizando informações com a nuvem quando necessário ou quando a conectividade permite.

Juntas, essas tecnologias ampliam o alcance da IA sem servidor para ambientes de baixa latência, sensíveis à largura de banda ou off-line e bases de usuários distribuídas globalmente.

Lambda @Edge: inferência global na camada CDN

Ao usar o Lambda @Edge, os desenvolvedores podem executar AWS Lambda funções em locais CloudFront periféricos. Essa abordagem reduz a latência para os usuários finais e permite experiências de IA que sejam sensíveis ao contexto e ultrarrápidas.

Os principais recursos do Lambda @Edge incluem o seguinte:

  • Executa a lógica na camada CDN em resposta a CloudFront eventos como solicitação do visualizador e resposta de origem

  • Personaliza o conteúdo, como personalização e recomendações de páginas da Web, de acordo com o usuário, a localização e o dispositivo

  • Integra a inferência de IA diretamente na entrega de conteúdo sem roteamento para uma central Região da AWS

  • Implementa globalmente sem provisionar a infraestrutura

Exemplos de casos de uso do Lambda @Edge

O Lambda @Edge permite os seguintes casos de uso principais:

  • Personalização de comércio eletrônico — forneça recomendações dinâmicas de produtos com base na ID e no comportamento do usuário.

  • Streaming de mídia — ajuste as recomendações e os controles parentais com base nas políticas regionais.

  • Campanhas de marketing — personalize banners, conteúdo e ofertas para cada local.

  • Experiência de usuário multilíngue (UX) — Detecte a localização e o idioma do usuário para fornecer conteúdo traduzido pelo Amazon Bedrock LLM em linha.

Ao colocar a lógica de inferência o mais próximo possível do usuário, o Lambda @Edge oferece suporte à entrega de front-end hiperpersonalizada e orientada por IA, o que é ideal para aplicativos de consumo de alta escala.

O Lambda @Edge é frequentemente usado em conjunto com o Amazon Bedrock SageMaker ou o Serverless Inference usando estratégias assíncronas de roteamento e armazenamento em cache para combinar velocidade com inteligência.

AWS IoT Greengrass: Inferência local na borda

AWS IoT Greengrass é um tempo de execução leve que os clientes podem usar para executar funções Lambda, inferência de ML e código personalizado. Ele opera em dispositivos de ponta, como controladores industriais, câmeras, dispositivos médicos ou aparelhos inteligentes.

Os principais recursos do AWS IoT Greengrass incluem o seguinte:

  • Executa as funções do Lambda localmente, mesmo quando desconectado da nuvem.

  • Empacota modelos de ML ( SageMaker por meio de treinamento personalizado) para realizar inferências diretamente no dispositivo.

  • Simplifica as atualizações por meio do gerenciamento seguro over-the-air de implantação e configuração.

  • Integra-se com Serviços da AWS (por exemplo, Amazon S3 AWS IoT Core e CloudWatch Amazon) para monitoramento centralizado.

Exemplos de casos de uso de AWS IoT Greengrass

AWS IoT Greengrass permite aplicativos de inferência na borda em vários setores, como os seguintes:

  • Fabricação — Detecte defeitos na entrada da câmera sem viagens de ida e volta na nuvem.

  • Assistência médica — Monitore pacientes e realize diagnósticos em clínicas com conectividade intermitente.

  • Agricultura — Classifique as condições das plantações usando imagens de drones.

  • Energia — Monitore tubulações e turbinas usando modelos de detecção de anomalias.

AWS IoT Greengrass permite que essas cargas de trabalho sejam rápidas, resilientes e independentes da latência da nuvem, ao mesmo tempo em que fornecem gerenciamento, observabilidade e sincronização no lado da nuvem. Ao usar AWS IoT Greengrass, os desenvolvedores podem implantar as mesmas funções Lambda usadas na nuvem, criando continuidade em sistemas centralizados e distribuídos.

IA global e local: uma estratégia de execução em camadas

As empresas podem combinar o Lambda @Edge e AWS IoT Greengrass criar um sistema de IA de ponta em camadas. Essa arquitetura híbrida permite que decisões inteligentes sejam tomadas na camada certa, dependendo da sensibilidade à latência, tamanho do modelo, conectividade e requisitos de conformidade. A tabela a seguir descreve os níveis, AWS as tecnologias e as funções dessa arquitetura.

Nível

AWS tecnologia

Papel da tecnologia

Borda do dispositivo

AWS IoT Greengrass

  • No dispositivo

  • Compatível com capacidade off-line

  • Lógica de IA

  • Processamento de dados do sensor

Borda da rede

Lambda@Edge

  • Personalização de conteúdo

  • IA leve perto do usuário

  • Latência ultrabaixa

Núcleo da nuvem

Amazon Bedrock, Amazon SageMaker Serverless Inference e AWS Step Functions

  • Inferência pesada de IA

  • Orquestração

  • Raciocínio do agente

  • Tubulações RAG

Resumo do edge AI

O Edge AI é uma evolução natural da arquitetura sem servidor, trazendo inferência de baixa latência, personalização contextual e resiliência aos desafios de conectividade. Com o AWS IoT Greengrass Lambda @Edge, as organizações podem alcançar o seguinte:

  • Os desenvolvedores podem estender os princípios sem servidor além do data center.

  • As empresas podem implantar e manter pipelines de IA mais próximos dos usuários e das fontes de dados.

  • A lógica de IA se torna consciente da localização, autônoma e altamente escalável.

A IA está se tornando difundida em todos os setores, desde cidades inteligentes até robótica de campo e entrega de mídia global. Para apoiar essa evolução, eles Serviços da AWS podem desempenhar um papel fundamental na criação de aplicativos distribuídos e inteligentes que são executados em qualquer lugar.