Terminologia chiave
Questo capitolo spiega la terminologia che consente di capire cosa offre Amazon Bedrock e come funziona. Leggi il seguente elenco per comprendere la terminologia dell’IA generativa e le funzionalità fondamentali di Amazon Bedrock:
-
Modello di fondazione (FM): modello di intelligenza artificiale con un numero elevato di parametri e addestrato in base a un’enorme quantità di dati diversi. Un modello di fondazione può generare una varietà di risposte per un’ampia gamma di casi d’uso. I modelli di fondazione possono generare testo o immagini e possono anche convertire gli input in embedding. Per ulteriori informazioni sui modelli di fondazione, consulta Modelli di fondazione supportati in Amazon Bedrock.
-
Modello base: modello di fondazione creato da un provider e pronto per essere utilizzato. Amazon Bedrock offre una varietà di modelli di fondazione leader del settore forniti da provider di spicco. Per ulteriori informazioni, consulta Modelli di fondazione supportati in Amazon Bedrock.
-
Inferenza del modello: processo con cui un modello di fondazione genera un output (risposta) da un determinato input (prompt). Per ulteriori informazioni, consulta Invio di prompt e generazione di risposte con l’inferenza del modello.
-
Prompt - input fornito a un modello per guidarlo a generare una risposta oppure un output appropriato. Ad esempio, un prompt di testo può essere costituito da una singola riga a cui il modello deve rispondere oppure può fornire istruzioni dettagliate o un’attività che il modello deve eseguire. Il prompt può contenere il contesto dell’attività, esempi di output o testo che un modello può utilizzare nella risposta. I prompt possono essere utilizzati per svolgere attività quali classificazione, risposta a domande, generazione di codice, scrittura creativa e altro ancora. Per ulteriori informazioni, consulta Concetti di progettazione dei prompt.
-
Token: sequenza di caratteri che un modello può interpretare o prevedere come una singola unità di significato. Ad esempio, con i modelli di testo, un token potrebbe corrispondere non solo a una parola, ma anche a una parte di una parola con un significato grammaticale (come “-ato”), un segno di punteggiatura (come “?”) o una frase comune (come “molti”).
-
Parametri del modello: valori che definiscono un modello e il relativo comportamento nell’interpretazione degli input e nella generazione di risposte. I parametri del modello sono controllati e aggiornati dai provider. È inoltre possibile aggiornare i parametri del modello per creare un nuovo modello attraverso il processo di personalizzazione del modello.
-
Parametri di inferenza: valori che possono essere regolati durante l’inferenza del modello per influenzare una risposta. I parametri di inferenza possono influire sulla varietà delle risposte e possono anche limitare la lunghezza di una risposta o l’occorrenza di sequenze specifiche. Per ulteriori informazioni e definizioni di parametri di inferenza specifici, consulta Influenza sulla generazione della risposta con i parametri di inferenza.
-
Playground: interfaccia grafica intuitiva nella Console di gestione AWS in cui è possibile sperimentare l’inferenza del modello in esecuzione per familiarizzare con Amazon Bedrock. Usa il playground per testare gli effetti di modelli, configurazioni e parametri di inferenza differenti sulle risposte generate per i diversi prompt che inserisci. Per ulteriori informazioni, consulta Generare risposte nella console utilizzando i playground.
-
Embedding: processo di condensazione delle informazioni mediante la trasformazione dell’input in un vettore di valori numerici, noti come embedding, per confrontare la somiglianza tra oggetti diversi utilizzando una rappresentazione numerica condivisa. Ad esempio, è possibile confrontare le frasi per determinare la somiglianza di significato, confrontare le immagini per determinare la somiglianza visiva o confrontare testo e immagine per vedere se sono pertinenti tra loro. È anche possibile combinare input di testo e immagini in un vettore di embedding medio, se pertinente al caso d’uso specifico. Per ulteriori informazioni, consulta Invio di prompt e generazione di risposte con l’inferenza del modello e Recupero di dati e generazione di risposte di IA con Knowledge Base per Amazon Bedrock.
-
Orchestrazione: processo di coordinamento tra i modelli di fondazione e i dati e le applicazioni aziendali per svolgere un’attività. Per ulteriori informazioni, consulta Automazione delle attività nella propria applicazione utilizzando agenti IA.
-
Agente: applicazione che esegue le orchestrazioni tramite l’interpretazione ciclica degli input e la generazione di output utilizzando un modello di fondazione. Un agente può essere utilizzato per rispondere alle richieste dei clienti. Per ulteriori informazioni, consulta Automazione delle attività nella propria applicazione utilizzando agenti IA.
-
Generazione potenziata da recupero dati (RAG): il processo prevede:
Esecuzione di query e recupero di informazioni da un’origine dati
Miglioramento di un prompt con queste informazioni per fornire un contesto migliore al modello di fondazione
Ottenere una risposta migliore dal modello di fondazione utilizzando il contesto aggiuntivo
Per ulteriori informazioni, consulta Recupero di dati e generazione di risposte di IA con Knowledge Base per Amazon Bedrock.
-
Personalizzazione del modello: processo di utilizzo dei dati di addestramento per regolare i valori dei parametri in un modello base al fine di creare un modello personalizzato. Esempi di personalizzazione del modello includono il fine-tuning, che utilizza dati etichettati (input e output corrispondenti), e il pre-addestramento continuo, che utilizza dati senza etichetta (solo input) per regolare i parametri del modello. Per ulteriori informazioni sulle tecniche di personalizzazione dei modelli disponibili in Amazon Bedrock, consulta Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso.
-
Iperparametri: valori che possono essere regolati per la personalizzazione del modello al fine di controllare il processo di addestramento e, di conseguenza, il modello di output personalizzato. Per ulteriori informazioni e definizioni di iperparametri specifici, consulta Iperparametri del modello personalizzato.
-
Valutazione del modello: processo di valutazione e confronto dei risultati del modello per determinare il modello più adatto per un caso d’uso specifico. Per ulteriori informazioni, consulta Valutare le prestazioni delle risorse Amazon Bedrock.
-
Throughput allocato: livello di throughput acquistato per un modello base o personalizzato per aumentare la quantità e/o la velocità di token elaborati durante l’inferenza del modello. Quando si acquista throughput allocato per un modello, viene creato un modello allocato che può essere utilizzato per eseguire l’inferenza del modello. Per ulteriori informazioni, consulta Throughput allocato.