As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Edge AI e distribuição global de inferência
Embora a inferência baseada em nuvem atenda à maioria dos casos de uso corporativo, certos cenários exigem respostas em tempo real, recursos off-line ou proximidade com a fonte de dados ou o usuário. Para esses casos, a IA de ponta, executando a lógica de IA no dispositivo ou próximo a ele, oferece um complemento poderoso à arquitetura de nuvem sem servidor.
AWS oferece suporte à IA de ponta por meio de duas tecnologias principais sem servidor:
-
O Lambda @Edge executa a lógica de inferência globalmente em AWS pontos de presença usando a Amazon. CloudFront
Exemplo — Um site global de comércio eletrônico usa a função Lambda @Edge para personalizar o conteúdo da página inicial com base na localização e no idioma do usuário. Como resultado, ele oferece experiências personalizadas instantaneamente a partir da localização CloudFront periférica mais próxima.
-
AWS IoT Greengrasspermite a execução local da IA em dispositivos conectados.
Exemplo: um dispositivo inteligente usa um modelo implantado AWS IoT Greengrass para diagnósticos em tempo real, sincronizando informações com a nuvem quando necessário ou quando a conectividade permite.
Juntas, essas tecnologias ampliam o alcance da IA sem servidor para ambientes de baixa latência, sensíveis à largura de banda ou off-line e bases de usuários distribuídas globalmente.
Lambda @Edge: inferência global na camada CDN
Ao usar o Lambda @Edge, os desenvolvedores podem executar AWS Lambda funções em locais CloudFront periféricos. Essa abordagem reduz a latência para os usuários finais e permite experiências de IA que sejam sensíveis ao contexto e ultrarrápidas.
Os principais recursos do Lambda @Edge incluem o seguinte:
-
Executa a lógica na camada CDN em resposta a CloudFront eventos como solicitação do visualizador e resposta de origem
-
Personaliza o conteúdo, como personalização e recomendações de páginas da Web, de acordo com o usuário, a localização e o dispositivo
-
Integra a inferência de IA diretamente na entrega de conteúdo sem roteamento para uma central Região da AWS
-
Implementa globalmente sem provisionar a infraestrutura
Exemplos de casos de uso do Lambda @Edge
O Lambda @Edge permite os seguintes casos de uso principais:
-
Personalização de comércio eletrônico — forneça recomendações dinâmicas de produtos com base na ID e no comportamento do usuário.
-
Streaming de mídia — ajuste as recomendações e os controles parentais com base nas políticas regionais.
-
Campanhas de marketing — personalize banners, conteúdo e ofertas para cada local.
-
Experiência de usuário multilíngue (UX) — Detecte a localização e o idioma do usuário para fornecer conteúdo traduzido pelo Amazon Bedrock LLM em linha.
Ao colocar a lógica de inferência o mais próximo possível do usuário, o Lambda @Edge oferece suporte à entrega de front-end hiperpersonalizada e orientada por IA, o que é ideal para aplicativos de consumo de alta escala.
O Lambda @Edge é frequentemente usado em conjunto com o Amazon Bedrock SageMaker ou o Serverless Inference usando estratégias assíncronas de roteamento e armazenamento em cache para combinar velocidade com inteligência.
AWS IoT Greengrass: Inferência local na borda
AWS IoT Greengrass é um tempo de execução leve que os clientes podem usar para executar funções Lambda, inferência de ML e código personalizado. Ele opera em dispositivos de ponta, como controladores industriais, câmeras, dispositivos médicos ou aparelhos inteligentes.
Os principais recursos do AWS IoT Greengrass incluem o seguinte:
-
Executa as funções do Lambda localmente, mesmo quando desconectado da nuvem.
-
Empacota modelos de ML ( SageMaker por meio de treinamento personalizado) para realizar inferências diretamente no dispositivo.
-
Simplifica as atualizações por meio do gerenciamento seguro over-the-air de implantação e configuração.
-
Integra-se com Serviços da AWS (por exemplo, Amazon S3 AWS IoT Core e CloudWatch Amazon) para monitoramento centralizado.
Exemplos de casos de uso de AWS IoT Greengrass
AWS IoT Greengrass permite aplicativos de inferência na borda em vários setores, como os seguintes:
-
Fabricação — Detecte defeitos na entrada da câmera sem viagens de ida e volta na nuvem.
-
Assistência médica — Monitore pacientes e realize diagnósticos em clínicas com conectividade intermitente.
-
Agricultura — Classifique as condições das plantações usando imagens de drones.
-
Energia — Monitore tubulações e turbinas usando modelos de detecção de anomalias.
AWS IoT Greengrass permite que essas cargas de trabalho sejam rápidas, resilientes e independentes da latência da nuvem, ao mesmo tempo em que fornecem gerenciamento, observabilidade e sincronização no lado da nuvem. Ao usar AWS IoT Greengrass, os desenvolvedores podem implantar as mesmas funções Lambda usadas na nuvem, criando continuidade em sistemas centralizados e distribuídos.
IA global e local: uma estratégia de execução em camadas
As empresas podem combinar o Lambda @Edge e AWS IoT Greengrass criar um sistema de IA de ponta em camadas. Essa arquitetura híbrida permite que decisões inteligentes sejam tomadas na camada certa, dependendo da sensibilidade à latência, tamanho do modelo, conectividade e requisitos de conformidade. A tabela a seguir descreve os níveis, AWS as tecnologias e as funções dessa arquitetura.
Nível |
AWS tecnologia |
Papel da tecnologia |
|---|---|---|
Borda do dispositivo |
AWS IoT Greengrass |
|
Borda da rede |
Lambda@Edge |
|
Núcleo da nuvem |
Amazon Bedrock, Amazon SageMaker Serverless Inference e AWS Step Functions |
|
Resumo do edge AI
O Edge AI é uma evolução natural da arquitetura sem servidor, trazendo inferência de baixa latência, personalização contextual e resiliência aos desafios de conectividade. Com o AWS IoT Greengrass Lambda @Edge, as organizações podem alcançar o seguinte:
-
Os desenvolvedores podem estender os princípios sem servidor além do data center.
-
As empresas podem implantar e manter pipelines de IA mais próximos dos usuários e das fontes de dados.
-
A lógica de IA se torna consciente da localização, autônoma e altamente escalável.
A IA está se tornando difundida em todos os setores, desde cidades inteligentes até robótica de campo e entrega de mídia global. Para apoiar essa evolução, eles Serviços da AWS podem desempenhar um papel fundamental na criação de aplicativos distribuídos e inteligentes que são executados em qualquer lugar.