Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Invia prompt e genera risposte con l'inferenza del modello
L'inferenza si riferisce al processo di generazione di un output da un input fornito a un modello.
Amazon Bedrock offre una suite di modelli di base che puoi utilizzare per generare output nelle seguenti modalità. Per vedere il supporto delle modalità in base al modello di base, consulta. Modelli di fondazione supportati in Amazon Bedrock
| Modalità di output | Descrizione | Casi d'uso di esempio |
|---|---|---|
| Testo | Fornisci input di testo e genera vari tipi di testo | Chat, brainstorming question-and-answering, riepilogo, generazione di codice, creazione di tabelle, formattazione dei dati, riscrittura |
| Immagine | Fornisci testo o inserisci immagini e genera o modifica immagini | Generazione di immagini, modifica delle immagini, variazione delle immagini |
| Video | Fornisci testo o immagini di riferimento e genera un video | Generazione di video, conversione di immagini in video |
| Incorporamenti | Fornisci testo, immagini o sia testo che immagini e genera un vettore di valori numerici che rappresentano l'input. Il vettore di output può essere confrontato con altri vettori di incorporamento per determinare la somiglianza semantica (per il testo) o la somiglianza visiva (per le immagini). | Ricerca di testo e immagini, interrogazione, categorizzazione, consigli, personalizzazione, creazione di knowledge base |
Argomenti
Scopri i casi d'uso per diversi metodi di inferenza dei modelli
Influenza la generazione della risposta con parametri di inferenza
Regioni e modelli supportati per l'esecuzione dell'inferenza dei modelli
Migliora le risposte del modello con il ragionamento basato sui modelli
Usa uno strumento per completare una risposta al modello Amazon Bedrock
Usa uno strumento di utilizzo del computer per completare una risposta del modello Amazon Bedrock
Memorizzazione rapida nella cache per un'inferenza più rapida del modello