Informazioni sul modello di fondazione Amazon Bedrock - Amazon Bedrock

Informazioni sul modello di fondazione Amazon Bedrock

Un modello di fondazione è un modello di intelligenza artificiale con un numero elevato di parametri e addestrato in base a un’enorme quantità di dati diversi. Un modello di fondazione può generare una varietà di risposte per un’ampia gamma di casi d’uso. I modelli di fondazione possono generare testo o immagini e possono anche convertire gli input in embedding. Questa sezione fornisce informazioni sui modelli di fondazione (FM) che si possono utilizzare in Amazon Bedrock, ad esempio le funzionalità supportate dai modelli e le Regioni AWS in cui i modelli sono disponibili. Per informazioni sui modelli di fondazione supportati da Amazon Bedrock, consulta Modelli di fondazione supportati in Amazon Bedrock.

L’accesso a tutti i modelli di fondazione Amazon Bedrock è abilitato per impostazione predefinita. Per iniziare, è sufficiente selezionare un modello dal catalogo dei modelli nella console Amazon Bedrock e aprirlo nel playground. Per i modelli Anthropic, i nuovi utenti potrebbero dover inviare i dettagli del caso d’uso prima di poter accedere al modello. Dopo aver selezionato un modello, è possibile utilizzarlo nei seguenti modi:

  • Eseguire l’inferenza inviando prompt a un modello e generando risposte. I playground offrono un’interfaccia intuitiva nella Console di gestione AWS per la generazione di testo, immagini o chat. Consulta la colonna Modalità di output per determinare i modelli utilizzabili in ogni playground.

    Nota

    I playground della console non supportano l’esecuzione di inferenza sui modelli di embedding. Per eseguire l’inferenza sui modelli di embedding, usa l’API.

  • Valutare i modelli per confrontare gli output e determinare il modello migliore per il caso d’uso specifico.

  • Configurare una knowledge base con l’aiuto di un modello di embedding. Utilizzare quindi un modello di testo per generare risposte alle domande.

  • Creare un agente e utilizzare un modello per eseguire l’inferenza sui prompt e l’orchestrazione.

  • Personalizzare un modello inserendo dati di addestramento e convalida per adattare i parametri del modello al caso d’uso specifico. Per utilizzare un modello personalizzato, è necessario acquistare throughput allocato.

  • Acquistare throughput allocato per un modello per aumentarne il throughput.

Per utilizzare un modello di fondazione con l’API Amazon Bedrock, è necessario determinare l’ID modello appropriato. Consulta la tabella seguente per determinare dove trovare l’ID modello da utilizzare.

Caso d'uso Come trovare l’ID modello
Utilizzo di un modello base Cerca l’ID nel grafico di ID modello base
Utilizzo di un profilo di inferenza tra Regioni Cerca l’ID nella pagina dei profili di inferenza supportati
Acquisto di throughput allocato per un modello base Cerca l’ID nel grafico degli ID modello per il throughput allocato e utilizzalo come modelId nella richiesta CreateProvisionedModelThroughput.
Acquisto di throughput allocato per un modello personalizzato Usa il nome del modello personalizzato o il relativo ARN come modelId nella richiesta CreateProvisionedModelThroughput.
Utilizzo di un modello allocato Dopo la creazione, un throughput allocato restituisce un provisionedModelArn. Tale ARN è l’ID modello.
Utilizzo di un modello personalizzato Acquista throughput allocato per il modello personalizzato e usa il valore provisionedModelArn restituito come ID modello.

Per un esempio di codice, consulta la documentazione relativa alla funzionalità che utilizzi e Esempi di codice per Amazon Bedrock con gli AWS SDK.