Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Scopri i casi d'uso per diversi metodi di inferenza dei modelli
È possibile eseguire direttamente l'inferenza del modello nei seguenti modi:
| Metodo | Caso d'uso |
|---|---|
| Parchi giochi per console Amazon Bedrock | Esegui l'inferenza in un'interfaccia grafica intuitiva. Comodo per l'esplorazione. |
| Converse o ConverseStream | Implementa applicazioni conversazionali con un'API unificata per l'input del modello. |
| InvokeModel o InvokeModelWithResponseStream | Invia un singolo prompt e genera una risposta in modo sincrono. Utile per generare risposte in tempo reale o per le query di ricerca. |
| StartAsyncInvoke | Invia un singolo prompt e genera una risposta in modo asincrono. Utile per generare risposte su larga scala. |
| CreateModelInvocationJob | Prepara un set di dati di richieste e genera risposte in batch. |
Le seguenti funzionalità di Amazon Bedrock utilizzano anche l'inferenza dei modelli come fase di un flusso di lavoro più ampio:
-
La valutazione del modello utilizza il processo di invocazione del modello per valutare le prestazioni di diversi modelli dopo aver inviato una richiesta. CreateEvaluationJob
-
Le knowledge base utilizzano l'invocazione del modello quando utilizzano l'RetrieveAndGenerateAPI per generare una risposta basata sui risultati recuperati da una knowledge base.
-
Gli agenti utilizzano l'invocazione del modello per generare risposte in varie fasi durante una richiesta. InvokeAgent
-
I flussi includono risorse Amazon Bedrock, come prompt, knowledge base e agenti, che utilizzano l'invocazione di modelli.
Dopo aver testato diversi modelli di base con prompt e parametri di inferenza diversi, puoi configurare l'applicazione in modo che li richiami con le specifiche desiderate. APIs