Informazioni sui casi d’uso per diversi metodi di inferenza del modello - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Informazioni sui casi d’uso per diversi metodi di inferenza del modello

L’inferenza del modello può essere eseguita direttamente nei modi seguenti:

Metodo Caso d'uso
Playground della console Amazon Bedrock Esecuzione dell’inferenza in un’interfaccia grafica intuitiva. Comodo per l’esplorazione.
Converse o ConverseStream Implementazione di applicazioni conversazionali con un’API unificata per l’input del modello.
InvokeModel o InvokeModelWithResponseStream Invio di un singolo prompt e generazione di una risposta in modo sincrono. Utile per generare risposte in tempo reale o per le query di ricerca.
StartAsyncInvoke Invio di un singolo prompt e generazione di una risposta in modo asincrono. Utile per generare risposte su larga scala.
CreateModelInvocationJob Preparazione di un set di dati di prompt e generazione di risposte in batch.

Anche le seguenti funzionalità di Amazon Bedrock utilizzano l’inferenza del modello in un flusso di lavoro più ampio:

  • La valutazione del modello utilizza il processo di invocazione del modello per valutare le prestazioni di diversi modelli dopo l’invio di una richiesta CreateEvaluationJob.

  • Le knowledge base utilizzano l’invocazione del modello quando usano l’API RetrieveAndGenerate per generare una risposta basata sui risultati recuperati da una knowledge base.

  • Gli agenti utilizzano l’invocazione del modello per generare risposte in varie fasi durante una richiesta InvokeAgent.

  • I flussi includono risorse Amazon Bedrock, ad esempio prompt, knowledge base e agenti, che utilizzano l’invocazione del modello.

Dopo aver testato diversi modelli di fondazione con prompt e parametri di inferenza diversi, è possibile configurare l’applicazione per chiamare queste API con le specifiche desiderate.