View a markdown version of this page

Configurando um modelo de linguagem grande (LLM) - Criador de aplicações de IA generativa na AWS

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Configurando um modelo de linguagem grande (LLM)

Qual LLM é ideal para seu caso de uso depende de um grande conjunto de fatores específicos às suas necessidades e do tipo de experiência do cliente que você deseja organizar. Essa solução não parece ser prescritiva, mas tem como objetivo fornecer as ferramentas necessárias para avaliar o que funciona melhor para sua aplicação.

O espaço gerado pela IA está evoluindo rapidamente, portanto, cabe a você se manter atualizado sobre os modelos, as técnicas de otimização e as melhores práticas mais recentes para garantir que esteja criando as experiências certas para seus clientes.

nota

Se você estiver trabalhando com dados confidenciais ou não públicos, certifique-se de selecionar uma opção de LLM usando os serviços da AWS (como Amazon Bedrock ou Amazon SageMaker AI). Isso melhora a postura geral de segurança de sua implantação ao manter os dados em sua região e na rede AWS em comparação com o uso de um LLM hospedado por um provedor terceirizado.