Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Modelli Mistral AI
Questa sezione descrive i parametri di richiesta e i campi di risposta per i modelli Mistral AI. Utilizza queste informazioni per effettuare chiamate di inferenza ai modelli Mistral AI con le operazioni InvokeModel e InvokeModelWithResponseStream (streaming). Questa sezione include anche esempi di codice Python che mostrano come chiamare i modelli Mistral AI. Per utilizzare un modello in un’operazione di inferenza, è necessario l’ID modello per il modello. Per ottenere l’ID modello, consulta Modelli di fondazione supportati in Amazon Bedrock. Alcuni modelli funzionano anche con l’API Converse. Per verificare se l’API Converse supporta un modello Mistral AI specifico, consulta Modelli e funzionalità del modello supportati. Per ulteriori esempi di codice, consulta Esempi di codice per l'utilizzo di Amazon Bedrock AWS SDKs.
I modelli di fondazione in Amazon Bedrock supportano modalità di input e output, che variano da modello a modello. Per verificare le modalità supportate dai modelli Mistral AI, consulta Modelli di fondazione supportati in Amazon Bedrock. Per verificare quali funzionalità di Amazon Bedrock sono supportate dai modelli Mistral AI, consulta Modelli di fondazione supportati in Amazon Bedrock. Per verificare in quali Regioni AWS i modelli Mistral AI sono disponibili, consulta Modelli di fondazione supportati in Amazon Bedrock.
Quando effettui chiamate di inferenza con modelli Mistral AI, includi un prompt per il modello. Per informazioni generali sulla creazione di prompt per i modelli supportati da Amazon Bedrock, consulta Concetti di progettazione dei prompt. Per informazioni sui prompt specifiche di Mistral AI, consulta la Guida alla progettazione dei prompt di Mistral AI