Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
AI21 Labsmodelli
Questa sezione descrive i parametri di richiesta e i campi di risposta per i AI21 Labs modelli. Utilizzate queste informazioni per effettuare chiamate di inferenza ai AI21 Labs modelli con le operazioni InvokeModeland InvokeModelWithResponseStream(streaming). Questa sezione include anche esempi di Python codice che mostrano come chiamare AI21 Labs i modelli. Per utilizzare un modello in un'operazione di inferenza, è necessario l'ID del modello. Per ottenere l'ID del modello, consultaModelli di fondazione supportati in Amazon Bedrock. Alcuni modelli funzionano anche con l'ConverseAPI. Per verificare se l'ConverseAPI supporta un AI21 Labs modello specifico, consultaModelli e caratteristiche del modello supportati. Per altri esempi di codice, consultaEsempi di codice per l'utilizzo di Amazon Bedrock AWS SDKs.
I modelli Foundation di Amazon Bedrock supportano modalità di input e output, che variano da modello a modello. Per verificare le modalità supportate dai AI21 Labs modelli, consulta. Modelli di fondazione supportati in Amazon Bedrock Per verificare quali funzionalità di Amazon Bedrock sono supportate dai AI21 Labs modelli, consultaModelli di fondazione supportati in Amazon Bedrock. Per verificare in quali AWS regioni i AI21 Labs modelli sono disponibili, consultaModelli di fondazione supportati in Amazon Bedrock.
Quando si effettuano chiamate di inferenza con AI21 Labs i modelli, viene inclusa una richiesta per il modello. Per informazioni generali sulla creazione di prompt per i modelli supportati da Amazon Bedrock, consulta. Concetti ingegneristici rapidi Per informazioni AI21 Labs specifiche sui prompt, consulta la guida tecnica dei AI21 Labs prompt.