Terminologia básica
Este capítulo explica a terminologia que ajudará você a compreender o que o Amazon Bedrock oferece e como ele funciona. Leia a seguinte lista para compreender a terminologia de IA generativa e os recursos fundamentais do Amazon Bedrock:
-
Modelo de base (FM): um modelo de IA com um grande número de parâmetros e treinado em uma grande quantidade de dados diversos. Um modelo de base pode gerar uma variedade respostas para uma ampla gama de casos de uso. Os modelos de base podem gerar texto ou imagem e também podem converter entradas em incorporações. Para obter mais informações sobre modelos, consulte Modelos de base compatíveis no Amazon Bedrock.
-
Modelo de base: um modelo de base que é fornecido empacotado por um fornecedor e pronto para uso. O Amazon Bedrock oferece uma variedade de modelos de base líderes do setor dos principais fornecedores. Para obter mais informações, consulte Modelos de base compatíveis no Amazon Bedrock.
-
Inferência de modelo: o processo de um modelo de base que gera uma saída (resposta) em uma determinada entrada (prompt). Para obter mais informações, consulte Envie prompts e gere respostas com a inferência de modelo.
-
Prompt: uma entrada fornecida a um modelo para que ele gere uma resposta. Por exemplo, um prompt de texto pode consistir em uma única linha para o modelo responder, ou pode detalhar instruções ou uma tarefa para o modelo executar. O prompt pode conter o contexto da tarefa, exemplos de saídas ou texto para um modelo usar em sua resposta. Os prompts podem ser usados para executar tarefas, como classificação, resposta a perguntas, geração de código, redação criativa e muito mais. Para obter mais informações, consulte Conceitos de engenharia de prompts.
-
Token: uma sequência de caracteres que um modelo pode interpretar ou prever como uma única unidade de significado. Por exemplo, com modelos de texto, um símbolo pode corresponder não apenas a uma palavra, mas também a uma parte de uma palavra com significado gramatical (como “-ed”), um sinal de pontuação (como “?”), ou uma frase comum (como “muito”).
-
Parâmetros de modelo: valores que definem um modelo e seu comportamento na interpretação de entradas e na geração de respostas. Os parâmetros de modelo são controlados e atualizados pelos provedores. Você também pode atualizar os parâmetros do modelo para criar um modelo por meio do processo de personalização do modelo.
-
Parâmetros de inferência: valores que podem ser ajustados durante a inferência do modelo para influenciar uma resposta. Os parâmetros de inferência podem afetar a variedade das respostas e o tamanho de uma resposta ou a ocorrência de sequências especificadas. Para obter mais informações e definições de parâmetros de inferência específicos, consulte Geração de resposta de influência com parâmetros de inferência.
-
Playground: uma interface gráfica fácil de usar no Console de gerenciamento da AWS na qual é possível experimentar a execução da inferência de modelos para se familiarizar com o Amazon Bedrock. Use o playground para testar os efeitos de diferentes modelos, configurações e parâmetros de inferência nas respostas geradas para diferentes prompts que você insere. Para obter mais informações, consulte Gerar respostas no console usando playgrounds.
-
Incorporação: o processo de condensar informações transformando a entrada em um vetor de valores numéricos, conhecido como incorporação, a fim de comparar a semelhança entre objetos diferentes usando uma representação numérica compartilhada. Por exemplo, sentenças podem ser comparadas para determinar a semelhança de significado, imagens podem ser comparadas para determinar semelhança visual ou texto e imagem podem ser comparados para ver se são relevantes um para o outro. Você também pode combinar entradas de texto e de imagem em um vetor de incorporações médias, se for relevante para o caso de uso. Para obter mais informações, consulte Envie prompts e gere respostas com a inferência de modelo e Recuperar dados e gerar respostas de IA com as Bases de Conhecimento do Amazon Bedrock.
-
Orquestração: o processo de coordenação entre modelos de base e dados e aplicações corporativos para executar uma tarefa. Para obter mais informações, consulte Automatizar tarefas em sua aplicação usando agentes de IA.
-
Agente: uma aplicação que executa orquestrações por meio da interpretação de entradas de forma cíclica e da produção de saídas usando um modelo de base. Um agente pode ser usado para executar as solicitações dos clientes. Para obter mais informações, consulte Automatizar tarefas em sua aplicação usando agentes de IA.
-
Geração aumentada via recuperação (RAG): o processo envolve:
Consultar e recuperar informações de uma fonte de dados.
Aumentar um prompt com essas informações para fornecer um contexto melhor ao modelo de base.
Obter uma resposta melhor do modelo de base usando o contexto adicional.
Para obter mais informações, consulte Recuperar dados e gerar respostas de IA com as Bases de Conhecimento do Amazon Bedrock.
-
Personalização de modelo: o processo de usar dados de treinamento para ajustar os valores de parâmetros de modelos em um modelo de base a fim de criar um modelo personalizado. Exemplos de personalização de modelo incluem o ajuste, que usa dados rotulados (entradas e saídas correspondentes), e o Pré-treinamento contínuo, que usa dados não rotulados (somente entradas) para ajustar os parâmetros do modelo. Para obter mais informações sobre as técnicas de personalização de modelos disponíveis no Amazon Bedrock, consulte Personalizar o modelo para melhorar a performance para o caso de uso.
-
Hiperparâmetros: valores que podem ser ajustados para a personalização do modelo para controlar o processo de treinamento e, consequentemente, o modelo personalizado de saída. Para obter mais informações e definições de hiperparâmetros, consulte Hiperparâmetros de modelo personalizado.
-
Avaliação de modelo: o processo de avaliar e comparar os resultados do modelo a fim de determinar o modelo mais adequado para um caso de uso. Para obter mais informações, consulte Avaliar o desempenho dos recursos do Amazon Bedrock.
-
Throughput provisionado: um nível de throughput que você compra para um modelo de base ou personalizado a fim de aumentar a quantidade e/ou a taxa de tokens processados durante a inferência do modelo. Quando você compra throughput provisionado para um modelo, é criado um modelo provisionado que pode ser usado para executar a inferência do modelo. Para obter mais informações, consulte Throughput provisionado.