Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Informazioni sui casi d’uso per diversi metodi di inferenza del modello
L’inferenza del modello può essere eseguita direttamente nei modi seguenti:
| Metodo | Caso d'uso |
|---|---|
| Playground della console Amazon Bedrock | Esecuzione dell’inferenza in un’interfaccia grafica intuitiva. Comodo per l’esplorazione. |
| Converse o ConverseStream | Implementazione di applicazioni conversazionali con un’API unificata per l’input del modello. |
| InvokeModel o InvokeModelWithResponseStream | Invio di un singolo prompt e generazione di una risposta in modo sincrono. Utile per generare risposte in tempo reale o per le query di ricerca. |
| StartAsyncInvoke | Invio di un singolo prompt e generazione di una risposta in modo asincrono. Utile per generare risposte su larga scala. |
| CreateModelInvocationJob | Preparazione di un set di dati di prompt e generazione di risposte in batch. |
Anche le seguenti funzionalità di Amazon Bedrock utilizzano l’inferenza del modello in un flusso di lavoro più ampio:
-
La valutazione del modello utilizza il processo di invocazione del modello per valutare le prestazioni di diversi modelli dopo l’invio di una richiesta CreateEvaluationJob.
-
Le knowledge base utilizzano l’invocazione del modello quando usano l’API RetrieveAndGenerate per generare una risposta basata sui risultati recuperati da una knowledge base.
-
Gli agenti utilizzano l’invocazione del modello per generare risposte in varie fasi durante una richiesta InvokeAgent.
-
I flussi includono risorse Amazon Bedrock, ad esempio prompt, knowledge base e agenti, che utilizzano l’invocazione del modello.
Dopo aver testato diversi modelli di fondazione con prompt e parametri di inferenza diversi, è possibile configurare l’applicazione per chiamare queste API con le specifiche desiderate.