

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Informazioni sul modello di fondazione Amazon Bedrock
<a name="foundation-models-reference"></a>

Un modello di fondazione è un modello di intelligenza artificiale con un numero elevato di parametri e addestrato in base a un’enorme quantità di dati diversi. Un modello di fondazione può generare una varietà di risposte per un’ampia gamma di casi d’uso. I modelli di fondazione possono generare testo o immagini e possono anche convertire gli input in *embedding*. Questa sezione fornisce informazioni sui modelli base (FM) che puoi utilizzare in Amazon Bedrock, ad esempio le funzionalità supportate dai modelli e i Regioni AWS modelli disponibili. Per informazioni sui modelli di fondazione supportati da Amazon Bedrock, consulta [Modelli di fondazione supportati in Amazon Bedrock](models-supported.md). 

L’accesso a tutti i modelli di fondazione Amazon Bedrock è abilitato per impostazione predefinita. Per iniziare, è sufficiente selezionare un modello dal catalogo dei modelli nella console Amazon Bedrock e aprirlo nel playground. Per i modelli Anthropic, i nuovi utenti potrebbero dover inviare i dettagli del caso d’uso prima di poter accedere al modello. Dopo aver selezionato un modello, è possibile utilizzarlo nei seguenti modi:
+ [Eseguire l’inferenza](inference.md) inviando prompt a un modello e generando risposte. I [parchi giochi](playgrounds.md) offrono un'interfaccia intuitiva Console di gestione AWS per la generazione di testo, immagini o chat. Consulta la colonna **Modalità di output** per determinare i modelli utilizzabili in ogni playground.
**Nota**  
I playground della console non supportano l’esecuzione di inferenza sui modelli di embedding. Per eseguire l’inferenza sui modelli di embedding, usa l’API.
+ [Valutare i modelli](evaluation.md) per confrontare gli output e determinare il modello migliore per il caso d’uso specifico.
+ [Configurare una knowledge base](knowledge-base.md) con l’aiuto di un modello di embedding. Utilizzare quindi un modello di testo per generare risposte alle domande.
+ [Creare un agente](agents.md) e utilizzare un modello per eseguire l’inferenza sui prompt e l’orchestrazione.
+ [Personalizzare un modello](custom-models.md) inserendo dati di addestramento e convalida per adattare i parametri del modello al caso d’uso specifico. Per utilizzare un modello personalizzato, è necessario acquistare [throughput allocato](prov-throughput.md).
+ [Acquistare throughput allocato](prov-throughput.md) per un modello per aumentarne il throughput.

Per utilizzare un modello di fondazione con l’API Amazon Bedrock, è necessario determinare l’**ID modello** appropriato. Consulta la tabella seguente per determinare dove trovare l’ID modello da utilizzare.


****  

| Caso d’uso | Come trovare l’ID modello | 
| --- | --- | 
| Utilizzo di un modello base | [Cerca l'ID nella tabella del modello base IDs ](models-supported.md) | 
| Utilizzo di un profilo di inferenza tra Regioni | Cerca l’ID nella pagina dei [profili di inferenza supportati](inference-profiles-support.md) | 
| Acquisto di throughput allocato per un modello base | Cerca l'ID nel modello IDs per il grafico Provisioned Throughput e usalo come modelId nella [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)richiesta. | 
| Acquisto di throughput allocato per un modello personalizzato | Usa il nome del modello personalizzato o il relativo ARN come indicato modelId nella [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)richiesta. | 
| Utilizzo di un modello allocato | Dopo la creazione, un throughput allocato restituisce un provisionedModelArn. Tale ARN è l’ID modello. | 
| Utilizzo di un modello personalizzato | [Acquista throughput allocato](prov-throughput.md) per il modello personalizzato e usa il valore provisionedModelArn restituito come ID modello. | 

Per un esempio di codice, consulta la documentazione relativa alla funzionalità che utilizzi e [Esempi di codice per l'utilizzo di Amazon Bedrock AWS SDKs](service_code_examples.md).

**Topics**
+ [Come ottenere le informazioni sui modelli di fondazione](models-get-info.md)
+ [Modelli di fondazione supportati in Amazon Bedrock](models-supported.md)
+ [Supporto del modello da parte Regione AWS di Amazon Bedrock](models-regions.md)
+ [Funzionalità supportate da Regione AWS Amazon Bedrock](features-regions.md)
+ [Supporto del modello per funzionalità in Amazon Bedrock](models-features.md)
+ [Parametri di richiesta di inferenza e campi di risposta per i modelli di fondazione](model-parameters.md)
+ [Ciclo di vita del modello](model-lifecycle.md)