

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# JumpStart utilizzo del modello di base
<a name="jumpstart-foundation-models-use"></a>

Scegli, addestra o distribuisci modelli di base tramite Amazon SageMaker Studio o Amazon SageMaker Studio Classic, usa i modelli di JumpStart base a livello di codice con l' SageMaker PythonSDK o scopri i modelli di JumpStart base direttamente tramite la console AI. SageMaker 

**Topics**
+ [Utilizzo dei modelli di fondazione in Studio](jumpstart-foundation-models-use-studio-updated.md)
+ [Usa i modelli di base in Amazon SageMaker Studio Classic](jumpstart-foundation-models-use-studio.md)
+ [Usa i modelli di base con l'SDK SageMaker Python](jumpstart-foundation-models-use-python-sdk.md)
+ [Scopri i modelli di base nella console SageMaker AI](jumpstart-foundation-models-use-console.md)

# Utilizzo dei modelli di fondazione in Studio
<a name="jumpstart-foundation-models-use-studio-updated"></a>

Amazon SageMaker Studio ti consente di perfezionare, distribuire e valutare modelli di JumpStart base disponibili pubblicamente e proprietari direttamente tramite l'interfaccia utente di Studio.

**Importante**  
A partire dal 30 novembre 2023, la precedente esperienza Amazon SageMaker Studio è ora denominata Amazon SageMaker Studio Classic. La sezione seguente è specifica per l’utilizzo dell’esperienza Studio aggiornata. Per informazioni sull’utilizzo dell’applicazione Studio Classic, consulta [Amazon SageMaker Studio Classic](studio.md).

Per iniziare, accedi alla pagina di JumpStart destinazione di Amazon SageMaker Studio. Puoi accedervi dalla **Home page** o dal menu del riquadro a sinistra. Nella pagina di **JumpStart**destinazione, puoi esplorare gli hub di modelli forniti da fornitori di modelli proprietari e disponibili al pubblico e cercare modelli.

All’interno di ogni hub di modelli, puoi ordinare i modelli in base a **Più Mi piace**, **Più download** o **Aggiornati di recente** oppure filtrarli per attività. Scegli un modello per visualizzarne la scheda dei dettagli. A seconda dell’opzione disponibile, nella scheda dei dettagli del modello è possibile scegliere **Ottimizza**, **Implementa** o **Valuta** per il modello. Tieni presente che non tutti i modelli sono disponibili per il fine-tuning o la valutazione. 

Per ulteriori informazioni su come iniziare a usare Amazon SageMaker Studio, consulta[Amazon SageMaker Studio](studio-updated.md).

**Topics**
+ [Fine-tuning di un modello in Studio](jumpstart-foundation-models-use-studio-updated-fine-tune.md)
+ [Implementazione di un modello in Studio](jumpstart-foundation-models-use-studio-updated-deploy.md)
+ [Valutazione di un modello in Studio](jumpstart-foundation-models-use-studio-updated-evaluate.md)
+ [Usa i tuoi SageMaker JumpStart modelli in Amazon Bedrock](jumpstart-foundation-models-use-studio-updated-register-bedrock.md)

# Fine-tuning di un modello in Studio
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune"></a>

Il fine-tuning consente di addestrare un modello preaddestrato su un nuovo set di dati senza eseguire l’addestramento da zero. Questo processo, noto anche come trasferimento dell'apprendimento, può produrre modelli accurati con set di dati più piccoli e tempi di addestramento ridotti. Per perfezionare i modelli di JumpStart base, accedi a una scheda con i dettagli del modello nell'interfaccia utente di Studio. Per ulteriori informazioni su come aprire JumpStart in Studio, consulta. [Apri in Studio JumpStart](studio-jumpstart.md#jumpstart-open-studio) Dopo aver esplorato la scheda dei dettagli del modello che preferisci, scegli **Addestramento** nell’angolo in alto a destra. Tieni presente che il fine-tuning non è disponibile per tutti i modelli.

**Importante**  
Alcuni modelli di fondazione richiedono l’accettazione esplicita di un contratto di licenza con l’utente finale (End User License Agreement, EULA) prima del fine-tuning. Per ulteriori informazioni, consulta [Accettazione dell'EULA in Amazon Studio SageMaker](jumpstart-foundation-models-choose.md#jumpstart-foundation-models-choose-eula-studio).

## Impostazioni del modello
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune-model"></a>

Quando si utilizza un modello JumpStart base pre-addestrato in Amazon SageMaker Studio, la **posizione dell'artefatto del modello (URI Amazon S3)** viene popolata per impostazione predefinita. Per modificare l’URI predefinito di Amazon S3, scegli **Inserisci posizione dell’artefatto del modello**. Non tutti i modelli supportano la modifica della posizione degli artefatti del modello.

## Impostazioni dei dati
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune-data"></a>

Nel campo **Dati**, indica un punto dell’URI Amazon S3 per la posizione del set di dati di addestramento. I punti dell’URI predefinito di Amazon S3 rimandano a un set di dati di addestramento di esempio. Per modificare l’URI predefinito di Amazon S3, scegli **Inserisci set di dati di addestramento** e modifica l’URI. Assicurati di consultare la scheda dettagliata del modello in Amazon SageMaker Studio per informazioni sulla formattazione dei dati di addestramento.

## Iperparametri
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune-hyperparameters"></a>

È possibile personalizzare gli iperparametri del processo di addestramento utilizzati per ottimizzare il modello. Gli iperparametri disponibili per ogni modello ottimizzabile variano a seconda del modello. 

I seguenti iperparametri sono comuni tra i modelli: 
+ **Epoche**: un'epoca è un ciclo dell'intero set di dati. Intervalli multipli completano un batch e alla fine più batch completano un'epoca. Vengono eseguite più epoche finché la precisione del modello non raggiunge un livello accettabile o quando il tasso di errore scende al di sotto di un livello accettabile. 
+ **Tasso di apprendimento**: la quantità di valori da modificare tra le epoche. Man mano che il modello viene perfezionato, i pesi interni vengono modificati e i tassi di errore vengono controllati per vedere se il modello migliora. Un tasso di apprendimento tipico è di 0,1 o 0,01, dove 0,01 rappresenta un aggiustamento molto inferiore e potrebbe far sì che l'addestramento richieda molto tempo per convergere, mentre 0,1 è molto più elevato e può causare un superamento dell’addestramento. È uno degli iperparametri principali che si possono modificare per addestrare il modello. Notare che, per i modelli testuali, un tasso di apprendimento molto più basso (5e-5 per BERT) può portare a un modello più accurato. 
+ **Dimensione del batch**: il numero di record del set di dati da selezionare per ogni intervallo da inviare al gruppo GPUs per l'addestramento. 

Consulta i suggerimenti e le informazioni aggiuntive nella scheda con i dettagli del modello nell’interfaccia utente di Studio per ulteriori informazioni sugli iperparametri specifici del modello che hai scelto. 

Per ulteriori informazioni sugli iperparametri disponibili, consulta [iperparametri comunemente supportati per il fine-tuning](jumpstart-foundation-models-fine-tuning.md#jumpstart-foundation-models-fine-tuning-hyperparameters).

## Implementazione
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune-instance"></a>

Specifica il tipo di istanza di addestramento e la posizione dell’artefatto di output per il tuo job di addestramento. Puoi scegliere solo tra istanze compatibili con il modello che preferisci nell’ambito del fine-tuning dell’interfaccia utente di Studio. La posizione predefinita degli artefatti di output è il SageMaker bucket AI predefinito. Per modificare la posizione degli artefatti di output, scegli **Inserisci posizione dell’artefatto di output** e modifica l’URI di Amazon S3.

## Sicurezza
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune-security"></a>

Specificate le impostazioni di sicurezza da utilizzare per il vostro lavoro di formazione, incluso il ruolo IAM utilizzato dall' SageMaker IA per addestrare il vostro modello, se il processo di formazione deve connettersi a un cloud privato virtuale (VPC) ed eventuali chiavi di crittografia per proteggere i dati.

## Informazioni aggiuntive
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune-additional-info"></a>

Nel campo **Informazioni aggiuntive** è possibile modificare il nome del job di addestramento. Inoltre, puoi aggiungere e rimuovere tag sotto forma di coppie chiave-valore per organizzare e classificare i job di addestramento per il fine-tuning. 

Dopo aver fornito le informazioni per la configurazione del fine-tuning, seleziona **Invia**. Se il modello di fondazione preaddestrato di cui desideri eseguire il fine-tuning richiede l’accettazione esplicita di un contratto di licenza con l’utente finale (EULA) prima dell’addestramento, l’EULA viene fornito in una finestra pop-up. Per accettare i termini dell’EULA, scegli **Accetta**. Sei responsabile della revisione e del rispetto di tutte le condizioni di licenza applicabili e di verificare che siano accettabili per il tuo caso d'uso, prima di scaricare o utilizzare un modello.

# Implementazione di un modello in Studio
<a name="jumpstart-foundation-models-use-studio-updated-deploy"></a>

Per distribuire i modelli di JumpStart base, accedi a una scheda dettagliata del modello nell'interfaccia utente di Studio. Per ulteriori informazioni su come aprire JumpStart in Studio, consulta[Apri in Studio JumpStart](studio-jumpstart.md#jumpstart-open-studio). Dopo aver esplorato la scheda dei dettagli del modello che preferisci, scegli **Implementa** nell’angolo in alto a destra. Quindi, segui i passaggi descritti in [Distribuisci modelli con SageMaker Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/realtime-endpoints-deploy-models.html#deploy-models-studio).

**Importante**  
Alcuni modelli di fondazione richiedono l’accettazione esplicita di un contratto di licenza con l’utente finale (End User License Agreement, EULA) prima dell’implementazione. Per ulteriori informazioni, consulta [Accettazione dell'EULA in Amazon Studio SageMaker](jumpstart-foundation-models-choose.md#jumpstart-foundation-models-choose-eula-studio).

# Valutazione di un modello in Studio
<a name="jumpstart-foundation-models-use-studio-updated-evaluate"></a>

Amazon SageMaker JumpStart dispone di integrazioni con SageMaker Clarify Foundation Model Evaluations (FME) in Studio. Se un JumpStart modello dispone di funzionalità di valutazione integrate, puoi scegliere **Evaluate** nell'angolo in alto a destra della pagina di dettaglio del modello nell' JumpStart interfaccia utente di Studio. Per ulteriori informazioni, consulta [Valutazione di un modello di fondazione](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-evaluate.html).

# Usa i tuoi SageMaker JumpStart modelli in Amazon Bedrock
<a name="jumpstart-foundation-models-use-studio-updated-register-bedrock"></a>

Puoi registrare i modelli che hai distribuito da Amazon SageMaker JumpStart ad Amazon Bedrock. Amazon Bedrock consente di ospitare il modello dietro più endpoint. Inoltre, puoi utilizzare le funzionalità di Amazon Bedrock, come agenti e knowledge base. Per ulteriori informazioni sull’utilizzo dei modelli di Amazon Bedrock, consulta [https://docs.aws.amazon.com/bedrock/latest/userguide/amazon-bedrock-marketplace.html](https://docs.aws.amazon.com/bedrock/latest/userguide/amazon-bedrock-marketplace.html).

**Importante**  
Per migrare i tuoi modelli su Amazon Bedrock, ti consigliamo di allegare una [AmazonBedrockFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonBedrockFullAccess.html)policy al tuo ruolo IAM. Se non è possibile collegare la policy gestita, assicurati che il tuo ruolo IAM disponga delle seguenti autorizzazioni:  

****  

```
{
    	"Version":"2012-10-17",		 	 	 
    	"Statement": [
    		{
    			"Sid": "BedrockAll",
    			"Effect": "Allow",
    			"Action": [
    				"bedrock:*"
    			],
    			"Resource": "*"
    		},
    		{
    			"Sid": "DescribeKey",
    			"Effect": "Allow",
    			"Action": [
    				"kms:DescribeKey"
    			],
    			"Resource": "arn:*:kms:*:::*"
    		},
    		{
    			"Sid": "APIsWithAllResourceAccess",
    			"Effect": "Allow",
    			"Action": [
    				"iam:ListRoles",
    				"ec2:DescribeVpcs",
    				"ec2:DescribeSubnets",
    				"ec2:DescribeSecurityGroups"
    			],
    			"Resource": "*"
    		},
    		{
    			"Sid": "MarketplaceModelEndpointMutatingAPIs",
    			"Effect": "Allow",
    			"Action": [
    				"sagemaker:CreateEndpoint",
    				"sagemaker:CreateEndpointConfig",
    				"sagemaker:CreateModel",
    				"sagemaker:CreateInferenceComponent",
    				"sagemaker:DeleteInferenceComponent",
    				"sagemaker:DeleteEndpoint",
    				"sagemaker:UpdateEndpoint"
    			],
    			"Resource": [
    				"arn:aws:sagemaker:*:*:endpoint/*",
    				"arn:aws:sagemaker:*:*:endpoint-config/*",
    				"arn:aws:sagemaker:*:*:model/*"
    			],
    			"Condition": {
    				"StringEquals": {
    					"aws:CalledViaLast": "bedrock.amazonaws.com"
    				}
    			}
    		},
    		{
    			"Sid": "BedrockEndpointTaggingOperations",
    			"Effect": "Allow",
    			"Action": [
    				"sagemaker:AddTags",
    				"sagemaker:DeleteTags"
    			],
    			"Resource": [
    				"arn:aws:sagemaker:*:*:endpoint/*",
    				"arn:aws:sagemaker:*:*:endpoint-config/*",
    				"arn:aws:sagemaker:*:*:model/*"
    			]
    		},
    		{
    			"Sid": "MarketplaceModelEndpointNonMutatingAPIs",
    			"Effect": "Allow",
    			"Action": [
    				"sagemaker:DescribeEndpoint",
    				"sagemaker:DescribeEndpointConfig",
    				"sagemaker:DescribeModel",
    				"sagemaker:DescribeInferenceComponent",
    				"sagemaker:ListEndpoints",
    				"sagemaker:ListTags"
    			],
    			"Resource": [
    				"arn:aws:sagemaker:*:*:endpoint/*",
    				"arn:aws:sagemaker:*:*:endpoint-config/*",
    				"arn:aws:sagemaker:*:*:model/*"
    			],
    			"Condition": {
    				"StringEquals": {
    					"aws:CalledViaLast": "bedrock.amazonaws.com"
    				}
    			}
    		},
    		{
    			"Sid": "BedrockEndpointInvokingOperations",
    			"Effect": "Allow",
    			"Action": [
    				"sagemaker:InvokeEndpoint",
    				"sagemaker:InvokeEndpointWithResponseStream"
    			],
    			"Resource": [
    				"arn:aws:sagemaker:*:*:endpoint/*"
    			],
    			"Condition": {
    				"StringEquals": {
    					"aws:CalledViaLast": "bedrock.amazonaws.com"
    				}
    			}
    		},
    		{
    			"Sid": "DiscoveringMarketplaceModel",
    			"Effect": "Allow",
    			"Action": [
    				"sagemaker:DescribeHubContent"
    			],
    			"Resource": [
    				"arn:aws:sagemaker:*:aws:hub-content/SageMakerPublicHub/Model/*",
    				"arn:aws:sagemaker:*:aws:hub/SageMakerPublicHub"
    			]
    		},
    		{
    			"Sid": "AllowMarketplaceModelsListing",
    			"Effect": "Allow",
    			"Action": [
    				"sagemaker:ListHubContents"
    			],
    			"Resource": "arn:aws:sagemaker:*:aws:hub/SageMakerPublicHub"
    		},
    		{
    			"Sid": "RetrieveSubscribedMarketplaceLicenses",
    			"Effect": "Allow",
    			"Action": [
    				"license-manager:ListReceivedLicenses"
    			],
    			"Resource": [
    				"*"
    			]
    		},
    		{
    			"Sid": "PassRoleToSageMaker",
    			"Effect": "Allow",
    			"Action": [
    				"iam:PassRole"
    			],
    			"Resource": [
    				"arn:aws:iam::*:role/*Sagemaker*ForBedrock*"
    			],
    			"Condition": {
    				"StringEquals": {
    					"iam:PassedToService": [
    						"sagemaker.amazonaws.com",
    						"bedrock.amazonaws.com"
    					]
    				}
    			}
    		},
    		{
    			"Sid": "PassRoleToBedrock",
    			"Effect": "Allow",
    			"Action": [
    				"iam:PassRole"
    			],
    			"Resource": "arn:aws:iam::*:role/*AmazonBedrock*",
    			"Condition": {
    				"StringEquals": {
    					"iam:PassedToService": [
    						"bedrock.amazonaws.com"
    					]
    				}
    			}
    		}
    	]
    }
```
La policy di accesso completo di Amazon Bedrock fornisce solo le autorizzazioni per l’API Amazon Bedrock. Per utilizzare Amazon Bedrock in Console di gestione AWS, il tuo ruolo IAM deve disporre anche delle seguenti autorizzazioni:  

```
{
        "Sid": "AllowConsoleS3AccessForBedrockMarketplace",
        "Effect": "Allow",
        "Action": [
          "s3:GetObject",
          "s3:GetBucketCORS",
          "s3:ListBucket",
          "s3:ListBucketVersions",
          "s3:GetBucketLocation"
        ],
        "Resource": "*"
    }
```
Se crei una policy personale, è necessario includere le istruzioni di policy che consentono l’azione di Marketplace Amazon Bedrock per la risorsa. Ad esempio, la seguente policy consente ad Amazon Bedrock di utilizzare l’operazione `InvokeModel` per un modello che hai implementato su un endpoint.  

****  

```
{
    
        "Version":"2012-10-17",		 	 	 
        "Statement": [
            {
                "Sid": "BedrockAll",
                "Effect": "Allow",
                "Action": [
                    "bedrock:InvokeModel"
                ],
                "Resource": [
                "arn:aws:bedrock:us-east-1:111122223333:marketplace/model-endpoint/all-access"
                ]
            },
            {
                "Sid": "VisualEditor1",
                "Effect": "Allow",
                "Action": ["sagemaker:InvokeEndpoint"],
                "Resource": "arn:aws:sagemaker:us-east-1:111122223333:endpoint/*",
                "Condition": {
                    "StringEquals": {
                        "aws:ResourceTag/project": "example-project-id",
                        "aws:CalledViaLast": "bedrock.amazonaws.com"
                    }
                }
            }
        ]
    
}
```

Se implementi un modello, dovresti riuscire a utilizzarlo in Amazon Bedrock. Per verificare se è possibile utilizzarlo in Amazon Bedrock, accedi alla scheda dei dettagli del modello nell’interfaccia utente di Studio. Se la scheda del modello indica che questo è **Pronto per Bedrock**, puoi registrare il modello con Amazon Bedrock.

**Importante**  
Per impostazione predefinita, Amazon SageMaker JumpStart disabilita l'accesso alla rete per i modelli che distribuisci. Se hai abilitato l’accesso alla rete, non potrai utilizzare il modello con Amazon Bedrock. Se desideri utilizzare il modello con Amazon Bedrock, devi implementarlo nuovamente con l’accesso alla rete disabilitato.

Per utilizzarlo con Amazon Bedrock, accedi alla pagina **Dettagli dell’endpoint** e scegli **Usa con Bedrock** nell’angolo in alto a destra dell’interfaccia utente di Studio. Dopo aver visualizzato la finestra pop-up, scegli **Registrati a Bedrock**.

# Usa i modelli di base in Amazon SageMaker Studio Classic
<a name="jumpstart-foundation-models-use-studio"></a>

Puoi ottimizzare e distribuire modelli di JumpStart base sia disponibili pubblicamente che proprietari tramite l'interfaccia utente di Studio Classic.

**Importante**  
A partire dal 30 novembre 2023, la precedente esperienza Amazon SageMaker Studio è ora denominata Amazon SageMaker Studio Classic. La sezione seguente è specifica per l’utilizzo dell’applicazione Studio Classic. Per informazioni sull’utilizzo dell’esperienza Studio aggiornata, consulta [Amazon SageMaker Studio](studio-updated.md).  
Studio Classic viene ancora mantenuto per i carichi di lavoro esistenti, ma non è più disponibile per l'onboarding. È possibile solo interrompere o eliminare le applicazioni Studio Classic esistenti e non è possibile crearne di nuove. Ti consigliamo di [migrare il tuo carico di lavoro alla nuova esperienza Studio](studio-updated-migrate.md).

Per iniziare a utilizzare Studio Classic, consulta [Avvia Amazon SageMaker Studio Classic](studio-launch.md).

 ![\[JumpStart foundation models available in Amazon SageMaker Studio Classic.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/jumpstart/jumpstart-fm-studio.png) 

Dopo aver aperto Amazon SageMaker Studio Classic, scegli **Modelli, notebook, soluzioni** nella SageMaker JumpStart sezione del pannello di navigazione. Dopodiché, scorri verso il basso per trovare la sezione **Modelli di fondazione: Generazione di testo** o **Modelli di fondazione: Generazione di immagini**, a seconda del tuo caso d'uso. 

Puoi scegliere **Visualizza modello** su una scheda modello di fondazione suggerita oppure scegliere **Esplora tutti i modelli** per vedere tutti i modelli di fondazione disponibili per la generazione di testo o di immagini. Se scegli di visualizzare tutti i modelli disponibili, puoi filtrare ulteriormente i modelli disponibili per attività, tipo di dati, tipo di contenuto o framework. Inoltre, puoi ricercare il nome di un modello direttamente nella barra **Cerca**. Se hai bisogno di assistenza sulla selezione di un modello, consulta [Modelli di fondazione disponibili](jumpstart-foundation-models-latest.md).

**Importante**  
Alcuni modelli di fondazione richiedono l'accettazione esplicita di un contratto di licenza con l’utente finale (End User License Agreement, EULA). Per ulteriori informazioni, consulta [Accettazione dell'EULA in Amazon Studio SageMaker](jumpstart-foundation-models-choose.md#jumpstart-foundation-models-choose-eula-studio).

Dopo aver scelto **Visualizza modello** per il modello di fondazione di tua scelta in Studio Classic, puoi implementare il modello. Per ulteriori informazioni, consulta [Implementare un modello](jumpstart-deploy.md).

Inoltre, puoi scegliere **Apri notebook** nella sezione **Esegui in notebook** per eseguire un notebook di esempio per il modello di fondazione direttamente in Studio Classic.

**Nota**  
Per implementare un modello di fondazione proprietario in Studio Classic, devi prima abbonarti al modello in Marketplace AWS. Il Marketplace AWS collegamento è fornito nel taccuino di esempio associato all'interno di Studio Classic.

Se il modello è ottimizzabile, puoi anche ottimizzarlo. Per ulteriori informazioni, consulta [Ottimizzare un modello](jumpstart-fine-tune.md). Per un elenco di quali modelli di JumpStart base sono ottimizzabili, consulta. [Modelli di fondazione e iperparametri per il fine-tuning](jumpstart-foundation-models-fine-tuning.md)

# Usa i modelli di base con l'SDK SageMaker Python
<a name="jumpstart-foundation-models-use-python-sdk"></a>

Tutti i modelli di JumpStart base sono disponibili per l'implementazione programmatica tramite l' SageMaker PythonSDK.

Per implementare modelli di fondazione disponibili al pubblico, puoi utilizzare il relativo ID del modello. Puoi trovare il modello IDs per tutti i modelli di base disponibili al pubblico nella tabella [degli algoritmi integrati con modelli preaddestrati](https://sagemaker.readthedocs.io/en/stable/doc_utils/pretrainedmodels.html). Cerca il nome di un modello di fondazione nella barra di **ricerca**. Utilizza il menu a discesa **Mostra voci** o i controlli di paginazione per spostarti tra i modelli disponibili.

I modelli proprietari devono essere distribuiti utilizzando le informazioni del pacchetto del modello dopo la sottoscrizione al modello in Marketplace AWS. 

È possibile trovare l'elenco dei modelli JumpStart disponibili in. [Modelli di fondazione disponibili](jumpstart-foundation-models-latest.md)

**Importante**  
Alcuni modelli di fondazione richiedono l'accettazione esplicita di un contratto di licenza con l’utente finale (End User License Agreement, EULA). Per ulteriori informazioni, consulta [Accettazione dell'EULA con l'SDK SageMaker Python](jumpstart-foundation-models-choose.md#jumpstart-foundation-models-choose-eula-python-sdk).

Le sezioni seguenti mostrano come eseguire il fine-tuning dei modelli di fondazione disponibili al pubblico utilizzando la classe `JumpStartEstimator`, implementare i modelli di fondazione disponibili al pubblico utilizzando la classe `JumpStartModel` e implementare i modelli di fondazione proprietari utilizzando la classe `ModelPackage`.

**Topics**
+ [Fine-tuning dei modelli di fondazione disponibili al pubblico con la classe `JumpStartEstimator`](jumpstart-foundation-models-use-python-sdk-estimator-class.md)
+ [Implementazione dei modelli di fondazione disponibili al pubblico con la classe `JumpStartModel`](jumpstart-foundation-models-use-python-sdk-model-class.md)
+ [Implementazione di modelli di fondazione proprietari con la classe `ModelPackage`](jumpstart-foundation-models-use-python-sdk-proprietary.md)

# Fine-tuning dei modelli di fondazione disponibili al pubblico con la classe `JumpStartEstimator`
<a name="jumpstart-foundation-models-use-python-sdk-estimator-class"></a>

**Nota**  
Per istruzioni su come eseguire il fine-tuning dei modelli di fondazione in un hub privato selezionato, consulta [Fine-tuning dei modelli di hub selezionati](jumpstart-curated-hubs-fine-tune.md).

Puoi perfezionare un algoritmo integrato o un modello pre-addestrato in poche righe di codice utilizzando l'SDK. SageMaker Python

1. Innanzitutto, trova l’ID del modello relativo al modello di tua scelta nella [tabella degli algoritmi integrati con modelli preaddestrati](https://sagemaker.readthedocs.io/en/stable/doc_utils/pretrainedmodels.html). 

1. Utilizzando l'ID del modello, definisci il tuo lavoro di formazione come estimatore. JumpStart

   ```
   from sagemaker.jumpstart.estimator import JumpStartEstimator
   
   model_id = "huggingface-textgeneration1-gpt-j-6b"
   estimator = JumpStartEstimator(model_id=model_id)
   ```

1. Esegui `estimator.fit()` sul tuo modello, indicando i dati di addestramento da utilizzare per il fine-tuning.

   ```
   estimator.fit(
       {"train": training_dataset_s3_path, "validation": validation_dataset_s3_path}
   )
   ```

1. Quindi, utilizza il metodo `deploy` per implementare automaticamente il modello per l’inferenza. In questo esempio, utilizziamo il modello GPT-J 6B di Hugging Face.

   ```
   predictor = estimator.deploy()
   ```

1. È quindi possibile eseguire l’inferenza con il modello implementato utilizzando il metodo `predict`.

   ```
   question = "What is Southern California often abbreviated as?"
   response = predictor.predict(question)
   print(response)
   ```

**Nota**  
Questo esempio utilizza il modello di fondazione GPT-J 6B, adatto a un’ampia gamma di casi d’uso per la generazione di testo, tra cui la risposta a domande, il riconoscimento di entità denominate, il riepilogo e altro ancora. Per ulteriori informazioni sui casi d’uso dei modelli, consulta [Modelli di fondazione disponibili](jumpstart-foundation-models-latest.md).

Facoltativamente, puoi specificare le versioni del modello o i tipi di istanza durante la creazione del tuo `JumpStartEstimator`. Per ulteriori informazioni sulla `JumpStartEstimator ` classe e i relativi parametri, consultate [JumpStartEstimator](https://sagemaker.readthedocs.io/en/stable/api/inference/model.html#sagemaker.jumpstart.estimator.JumpStartEstimator).

## Controllo dei tipi di istanza predefiniti
<a name="jumpstart-foundation-models-use-python-sdk-estimator-class-instance-types"></a>

Se lo desideri, durante il fine-tuning di un modello preaddestrato puoi includere versioni di modello o tipi di istanza specifici utilizzando la classe `JumpStartEstimator`. Tutti i JumpStart modelli hanno un tipo di istanza predefinito. Recupera il tipo di istanza di implementazione predefinita utilizzando il seguente codice:

```
from sagemaker import instance_types

instance_type = instance_types.retrieve_default(
    model_id=model_id,
    model_version=model_version,
    scope="training")
print(instance_type)
```

È possibile visualizzare tutti i tipi di istanza supportati per un determinato JumpStart modello con il `instance_types.retrieve()` metodo.

## Controllo degli iperparametri predefiniti
<a name="jumpstart-foundation-models-use-python-sdk-estimator-class-hyperparameters"></a>

Per controllare gli iperparametri predefiniti utilizzati per l’addestramento, puoi applicare il metodo `retrieve_default()` della classe `hyperparameters`.

```
from sagemaker import hyperparameters

my_hyperparameters = hyperparameters.retrieve_default(model_id=model_id, model_version=model_version)
print(my_hyperparameters)

# Optionally override default hyperparameters for fine-tuning
my_hyperparameters["epoch"] = "3"
my_hyperparameters["per_device_train_batch_size"] = "4"

# Optionally validate hyperparameters for the model
hyperparameters.validate(model_id=model_id, model_version=model_version, hyperparameters=my_hyperparameters)
```

Per ulteriori informazioni sugli iperparametri disponibili, consulta [iperparametri comunemente supportati per il fine-tuning](jumpstart-foundation-models-fine-tuning.md#jumpstart-foundation-models-fine-tuning-hyperparameters).

## Controllo delle definizioni delle metriche predefinite
<a name="jumpstart-foundation-models-use-python-sdk-estimator-class-metric-definitions"></a>

Puoi anche controllare le definizioni delle metriche predefinite:

```
print(metric_definitions.retrieve_default(model_id=model_id, model_version=model_version))
```

# Implementazione dei modelli di fondazione disponibili al pubblico con la classe `JumpStartModel`
<a name="jumpstart-foundation-models-use-python-sdk-model-class"></a>

Puoi implementare un algoritmo integrato o un modello pre-addestrato su un endpoint di SageMaker intelligenza artificiale in poche righe di codice utilizzando l'SDK. SageMaker Python

1. Innanzitutto, trova l’ID del modello relativo al modello di tua scelta nella [tabella degli algoritmi integrati con modelli preaddestrati](https://sagemaker.readthedocs.io/en/stable/doc_utils/pretrainedmodels.html).

1. Utilizzando l'ID del modello, definisci il tuo modello come modello. JumpStart 

   ```
   from sagemaker.jumpstart.model import JumpStartModel
   
   model_id = "huggingface-text2text-flan-t5-xl"
   my_model = JumpStartModel(model_id=model_id)
   ```

1. Utilizza il metodo `deploy` per implementare automaticamente il modello per l’inferenza. In questo esempio, utilizziamo il modello FLAN-T5 XL di Hugging Face.

   ```
   predictor = my_model.deploy()
   ```

1. È quindi possibile eseguire l’inferenza con il modello implementato utilizzando il metodo `predict`.

   ```
   question = "What is Southern California often abbreviated as?"
   response = predictor.predict(question)
   print(response)
   ```

**Nota**  
Questo esempio utilizza il modello di fondazione FLAN-T5 XL, adatto a un’ampia gamma di casi d’uso relativi alla generazione di testo, tra cui risposta a domande, riepilogo, creazione di chatbot e altro ancora. Per ulteriori informazioni sui casi d’uso dei modelli, consulta [Modelli di fondazione disponibili](jumpstart-foundation-models-latest.md).

Per ulteriori informazioni sulla `JumpStartModel ` classe e i relativi parametri, consultate [JumpStartModel](https://sagemaker.readthedocs.io/en/stable/api/inference/model.html#sagemaker.jumpstart.model.JumpStartModel).

## Controllo dei tipi di istanza predefiniti
<a name="jumpstart-foundation-models-use-python-sdk-model-class-instance-types"></a>

Se lo desideri, durante l’implementazione di un modello preaddestrato puoi includere versioni di modello o tipi di istanza specifici utilizzando la classe `JumpStartModel`. Tutti i JumpStart modelli hanno un tipo di istanza predefinito. Recupera il tipo di istanza di implementazione predefinita utilizzando il seguente codice:

```
from sagemaker import instance_types

instance_type = instance_types.retrieve_default(
    model_id=model_id,
    model_version=model_version,
    scope="inference")
print(instance_type)
```

Visualizza tutti i tipi di istanza supportati per un determinato JumpStart modello con il `instance_types.retrieve()` metodo.

## Utilizzo dei componenti di inferenza per implementare più modelli su un endpoint condiviso
<a name="jumpstart-foundation-models-use-python-sdk-model-class-endpoint-types"></a>

Un componente di inferenza è un oggetto di hosting SageMaker AI che puoi utilizzare per distribuire uno o più modelli su un endpoint per aumentare la flessibilità e la scalabilità. È necessario modificare il `endpoint_type` JumpStart modello in modo che diventi l'endpoint predefinito inference-component-based basato sul modello. 

```
predictor = my_model.deploy(
    endpoint_name = 'jumpstart-model-id-123456789012', 
    endpoint_type = EndpointType.INFERENCE_COMPONENT_BASED
)
```

Per ulteriori informazioni sulla creazione di endpoint con componenti di inferenza e sulla distribuzione SageMaker di modelli di intelligenza artificiale, consulta. [Utilizzo condiviso delle risorse con più modelli](realtime-endpoints-deploy-models.md#deployed-shared-utilization)

## Verifica dei formati di inferenza di input e output validi
<a name="jumpstart-foundation-models-use-python-sdk-model-class-input-output"></a>

Per verificare i formati di input e output dei dati validi per l’inferenza, puoi utilizzare il metodo `retrieve_options()` delle classi `Serializers` e `Deserializers`.

```
print(sagemaker.serializers.retrieve_options(model_id=model_id, model_version=model_version))
print(sagemaker.deserializers.retrieve_options(model_id=model_id, model_version=model_version))
```

## Verifica dei contenuti supportati e dei tipi di accettazione
<a name="jumpstart-foundation-models-use-python-sdk-model-class-content-types"></a>

Allo stesso modo, è possibile utilizzare il metodo `retrieve_options()` per verificare i contenuti supportati e i tipi di accettazione per un modello.

```
print(sagemaker.content_types.retrieve_options(model_id=model_id, model_version=model_version))
print(sagemaker.accept_types.retrieve_options(model_id=model_id, model_version=model_version))
```

[Per ulteriori informazioni sulle utilità, vedere Utility. APIs](https://sagemaker.readthedocs.io/en/stable/api/utility/index.html)

# Implementazione di modelli di fondazione proprietari con la classe `ModelPackage`
<a name="jumpstart-foundation-models-use-python-sdk-proprietary"></a>

I modelli proprietari devono essere distribuiti utilizzando le informazioni del pacchetto del modello dopo la sottoscrizione al modello in Marketplace AWS. Per ulteriori informazioni sull' SageMaker intelligenza artificiale e Marketplace AWS, consulta [Compra e vendi algoritmi e modelli di SageMaker intelligenza artificiale di Amazon in Marketplace AWS](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-marketplace.html). Per trovare Marketplace AWS i link ai modelli proprietari più recenti, consulta la pagina [Guida introduttiva ad Amazon SageMaker JumpStart](https://aws.amazon.com/sagemaker/jumpstart/getting-started/?sagemaker-jumpstart-cards.sort-by=item.additionalFields.priority&sagemaker-jumpstart-cards.sort-order=asc&awsf.sagemaker-jumpstart-filter-product-type=product-type%23foundation-model&awsf.sagemaker-jumpstart-filter-text=*all&awsf.sagemaker-jumpstart-filter-vision=*all&awsf.sagemaker-jumpstart-filter-tabular=*all&awsf.sagemaker-jumpstart-filter-audio-tasks=*all&awsf.sagemaker-jumpstart-filter-multimodal=*all&awsf.sagemaker-jumpstart-filter-RL=*all&sagemaker-jumpstart-cards.q=proprietary&sagemaker-jumpstart-cards.q_operator=AND).

Dopo esserti abbonato al modello che preferisci Marketplace AWS, puoi implementare il modello base utilizzando l' SageMaker PythonSDK e l'SDK associati al fornitore del modello. Ad esempio, AI21 Labs, Cohere e LightOn utilizzate rispettivamente i pacchetti`"ai21[SM]"`, `cohere-sagemaker` e. `lightonsage`

Ad esempio, per definire un JumpStart modello utilizzando Jurassic-2 Jumbo Instruct di AI21 Labs, usa il codice seguente: 

```
import sagemaker
import ai21

role = get_execution_role()
sagemaker_session = sagemaker.Session()
model_package_arn = "arn:aws:sagemaker:us-east-1:865070037744:model-package/j2-jumbo-instruct-v1-1-43-4e47c49e61743066b9d95efed6882f35"

my_model = ModelPackage(
    role=role, model_package_arn=model_package_arn, sagemaker_session=sagemaker_session
)
```

Ad step-by-step esempio, trovate ed eseguite il notebook associato al modello di base proprietario di vostra scelta in Studio Classic. SageMaker Per ulteriori informazioni, consulta [Usa i modelli di base in Amazon SageMaker Studio Classic](jumpstart-foundation-models-use-studio.md). Per ulteriori informazioni sull' SageMaker PythonSDK, consulta. [https://sagemaker.readthedocs.io/en/stable/api/inference/model.html#sagemaker.model.ModelPackage](https://sagemaker.readthedocs.io/en/stable/api/inference/model.html#sagemaker.model.ModelPackage)

# Scopri i modelli di base nella console SageMaker AI
<a name="jumpstart-foundation-models-use-console"></a>

Puoi esplorare i modelli di JumpStart base direttamente tramite la console Amazon SageMaker AI.

1. Apri la console Amazon SageMaker AI all'indirizzo [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/).

1. Cerca **JumpStart**nel pannello di navigazione a sinistra e scegli i **modelli Foundation**.

1. Naviga tra i modelli o cerca un modello specifico. Se hai bisogno di indicazioni per la selezione del modello, consulta [Modelli di fondazione disponibili](jumpstart-foundation-models-latest.md). Scegli **Visualizza modello** per visualizzare la pagina dei dettagli del modello di fondazione a tua scelta.

1. Se il modello è proprietario, sottoscrivi un abbonamento scegliendo **Abbonati** nell’angolo in alto a destra della pagina dei dettagli del modello in Marketplace AWS. Dovresti ricevere un'email di conferma dell'iscrizione al modello che hai scelto. Per ulteriori informazioni sull' SageMaker intelligenza artificiale e Marketplace AWS, consulta [Compra e vendi algoritmi e modelli di SageMaker intelligenza artificiale di Amazon in Marketplace AWS](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-marketplace.html). I modelli di fondazione disponibili pubblicamente non richiedono un’iscrizione.

1. Per visualizzare un esempio di notebook in GitHub, scegli **Visualizza codice** nell'angolo in alto a destra della pagina di dettaglio del modello.

1. Per visualizzare ed eseguire un notebook di esempio direttamente in Amazon SageMaker Studio Classic, scegli **Apri notebook in Studio** nell'angolo in alto a destra della pagina di dettaglio del modello.