Scopri i casi d'uso per diversi metodi di inferenza dei modelli - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Scopri i casi d'uso per diversi metodi di inferenza dei modelli

È possibile eseguire direttamente l'inferenza del modello nei seguenti modi:

Metodo Caso d'uso
Parchi giochi per console Amazon Bedrock Esegui l'inferenza in un'interfaccia grafica intuitiva. Comodo per l'esplorazione.
Converse o ConverseStream Implementa applicazioni conversazionali con un'API unificata per l'input del modello.
InvokeModel o InvokeModelWithResponseStream Invia un singolo prompt e genera una risposta in modo sincrono. Utile per generare risposte in tempo reale o per le query di ricerca.
StartAsyncInvoke Invia un singolo prompt e genera una risposta in modo asincrono. Utile per generare risposte su larga scala.
CreateModelInvocationJob Prepara un set di dati di richieste e genera risposte in batch.

Le seguenti funzionalità di Amazon Bedrock utilizzano anche l'inferenza dei modelli come fase di un flusso di lavoro più ampio:

  • La valutazione del modello utilizza il processo di invocazione del modello per valutare le prestazioni di diversi modelli dopo aver inviato una richiesta. CreateEvaluationJob

  • Le knowledge base utilizzano l'invocazione del modello quando utilizzano l'RetrieveAndGenerateAPI per generare una risposta basata sui risultati recuperati da una knowledge base.

  • Gli agenti utilizzano l'invocazione del modello per generare risposte in varie fasi durante una richiesta. InvokeAgent

  • I flussi includono risorse Amazon Bedrock, come prompt, knowledge base e agenti, che utilizzano l'invocazione di modelli.

Dopo aver testato diversi modelli di base con prompt e parametri di inferenza diversi, puoi configurare l'applicazione in modo che li richiami con le specifiche desiderate. APIs