As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Modelos da Mistral AI
Esta seção descreve os parâmetros de solicitação e os campos de resposta dos modelos da Mistral AI. Use essas informações para fazer chamadas de inferência para Mistral AI modelos com as operações InvokeModeland InvokeModelWithResponseStream(streaming). Esta seção também inclui exemplos de código do Python que mostram como chamar modelos da Mistral AI. Para usar um modelo em uma operação de inferência, o ID do modelo é necessário. Para obter o ID do modelo, consulte Modelos de base compatíveis no Amazon Bedrock. Alguns modelos também funcionam com a ConverseAPI. Para verificar se a Converse API é compatível com um Mistral AI modelo específico, consulteModelos compatíveis e recursos do modelo. Para obter mais exemplos de código, consulte Exemplos de código para o Amazon Bedrock usando AWS SDKs.
Os modelos de base no Amazon Bedrock são compatíveis com as modalidades de entrada e saída, que variam de modelo para modelo. Para verificar as modalidades compatíveis com os modelos da Mistral AI, consulte Modelos de base compatíveis no Amazon Bedrock. Para verificar quais recursos do Amazon Bedrock são compatíveis com os modelos da Mistral AI, consulte Modelos de base compatíveis no Amazon Bedrock. Para verificar em quais AWS regiões Mistral AI esses modelos estão disponíveis, consulteModelos de base compatíveis no Amazon Bedrock.
Ao fazer chamadas de inferência com modelos da Mistral AI, inclua um prompt no modelo. Para obter informações gerais sobre como criar prompts para os modelos compatíveis com o Amazon Bedrock, consulte Conceitos de engenharia de prompts. Para obter informações de prompts específicos da Mistral AI, consulte o Mistral AI prompt engineering guide