

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Impostazione dell’inferenza per un modello personalizzato
<a name="model-customization-use"></a>

Dopo aver creato un modello personalizzato, puoi configurare l’inferenza utilizzando una delle opzioni seguenti:
+ **Acquisto di throughput assegnato**: acquista throughput assegnato per il tuo modello al fine di configurare una capacità di elaborazione dedicata con throughput garantito per prestazioni costanti e una latenza inferiore. 

  Per ulteriori informazioni sull’acquisto di throughput assegnato, consulta [Aumenta la capacità di invocazione del modello con Provisioned Throughput in Amazon Bedrock](prov-throughput.md). Per ulteriori informazioni sull’utilizzo di modelli personalizzati con throughput assegnato, consulta. [Acquisto di throughput allocato per un modello personalizzato](custom-model-use-pt.md)
+ **Implementazione di un modello personalizzato per l’inferenza on demand**: per configurare l’inferenza on demand, è necessario distribuire il modello attraverso un’implementazione personalizzata. Dopo aver implementato il modello, è possibile invocarlo utilizzando l’ARN per l’implementazione del modello personalizzato. Con l’inferenza on demand, paghi solo per ciò che usi e non devi configurare risorse di calcolo allocate.

  Per ulteriori informazioni sull’implementazione di modelli personalizzati per l’inferenza on demand, consulta [Implementazione di un modello personalizzato per l’inferenza on demand](deploy-custom-model-on-demand.md).

**Topics**
+ [Acquisto di throughput allocato per un modello personalizzato](custom-model-use-pt.md)
+ [Implementazione di un modello personalizzato per l’inferenza on demand](deploy-custom-model-on-demand.md)

# Acquisto di throughput allocato per un modello personalizzato
<a name="custom-model-use-pt"></a>

Per utilizzare un modello personalizzato con capacità di elaborazione dedicata e throughput garantito, è possibile acquistare throughput assegnato. È quindi possibile utilizzare il modello fornito risultante per l’inferenza. Per ulteriori informazioni sull’acquisto di throughput assegnato, consulta [Aumenta la capacità di invocazione del modello con Provisioned Throughput in Amazon Bedrock](prov-throughput.md).

------
#### [ Console ]

**Come acquistare throughput assegnato per un modello personalizzato**

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Modelli personalizzati** in **Ottimizza**.

1. Nella scheda **Modelli**, scegli il pulsante di opzione accanto al modello per il quale vuoi acquistare throughput assegnato o seleziona il nome del modello per accedere alla pagina dei dettagli.

1. Poi seleziona **Acquista throughput assegnato**.

1. Per ulteriori dettagli, segui la procedura indicata nella documentazione relativa al throughput assegnato.

1. Dopo aver acquistato throughput assegnato per il tuo modello personalizzato, segui la procedura indicata nella documentazione sull’utilizzo del throughput assegnato.

Quando esegui un’operazione che supporta l’utilizzo di modelli personalizzati, vedrai il modello personalizzato come opzione nel menu di selezione del modello.

------
#### [ API ]

Per acquistare Provisioned Throughput per un modello personalizzato, segui i passaggi indicati nella documentazione sul throughput fornito per inviare una richiesta [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)(consulta il link per i formati di richiesta e risposta e i dettagli sul campo) con un endpoint del piano di controllo [Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp). Usa il nome o l’ARN del tuo modello personalizzato come `modelId`. La risposta restituisce un `provisionedModelArn` messaggio che puoi usare come richiesta or. `modelId` [InvokeModel[InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)

[Vedi esempi di codice](model-customization-code-samples.md)

------

# Implementazione di un modello personalizzato per l’inferenza on demand
<a name="deploy-custom-model-on-demand"></a>

 Dopo aver creato un modello personalizzato con un processo di personalizzazione del modello o importato un Amazon Nova modello personalizzato SageMaker addestrato all'intelligenza artificiale, puoi impostare l'inferenza su richiesta per il modello. Con l’inferenza on demand, paghi solo per ciò che usi e non devi configurare risorse di calcolo allocate. 

Per configurare l’inferenza on demand per un modello personalizzato, devi innanzitutto implementare il modello. Una volta completata questa operazione, puoi utilizzare il nome della risorsa Amazon (ARN) dell’implementazione come parametro `modelId` durante l’invio di prompt e la generazione di risposte con inferenza del modello.

 Per ulteriori informazioni, consulta la pagina [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Puoi implementare un modello personalizzato per un’inferenza on demand nelle seguenti Regioni (per ulteriori informazioni sulle Regioni supportate da Amazon Bedrock, consulta [Endpoint e quote di Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html)): 
+ Stati Uniti orientali (Virginia settentrionale)
+ Stati Uniti occidentali (Oregon)

## Prerequisiti per l’implementazione di un modello personalizzato per l’inferenza on demand
<a name="custom-model-inference-prerequisites"></a>

Prima di implementare un modello personalizzato per l’inferenza on demand, verifica che siano soddisfatti i seguenti requisiti:
+ È necessario utilizzare la Regione Stati Uniti orientali (Virginia settentrionale) oppure Stati Uniti occidentali (Oregon).
+ È necessario personalizzare il modello a partire dal 16/07/2025. Per i modelli supportati, consulta. [Modelli base supportati](#custom-model-inference-supported-models)
+ L’account in uso deve disporre dell’autorizzazione ad accedere al modello in fase di implementazione. Per ulteriori informazioni sull’accesso e sulla sicurezza della personalizzazione del modello, consulta [Accesso e sicurezza per la personalizzazione del modello](custom-model-job-access-security.md).
+ Se il modello è crittografato con una AWS KMS chiave, è necessario disporre dell'autorizzazione per utilizzare tale chiave. Per ulteriori informazioni, consulta [Crittografia di modelli personalizzati](encryption-custom-job.md).

## Modelli base supportati
<a name="custom-model-inference-supported-models"></a>

Puoi configurare l’inferenza on demand per i seguenti modelli base:
+ Amazon Nova Lite
+ Amazon Nova Micro
+ Amazon Nova Pro
+ Meta Llama 3.3 70B Instruct

## Implementazione di un modello personalizzato
<a name="deploy-custom-model"></a>

Puoi implementare un modello personalizzato con la console Amazon Bedrock AWS Command Line Interface, oppure. AWS SDKs Per informazioni sull’utilizzo dell’implementazione per l’inferenza, consulta [Utilizzo di un’implementazione per l’inferenza on demand](#use-custom-model-on-demand).

------
#### [ Console ]

Puoi implementare un modello personalizzato dalla pagina **Modelli personalizzati** come segue. Puoi anche implementare un modello dalla pagina **Modello personalizzato su richiesta** con gli stessi campi. Per trovare questa pagina, da **Infer** nel riquadro di navigazione, scegli **Modello personalizzato su richiesta**.

**Come implementare un modello personalizzato**

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Modelli personalizzati** in **Ottimizza**.

1. Nella scheda **Modelli**, seleziona il pulsante di opzione relativo al modello che vuoi implementare.

1. Seleziona **Imposta inferenza** e scegli **Implementa per on demand**.

1. In **Dettagli implementazione**, fornisci le seguenti informazioni:
   + **Nome implementazione** (obbligatorio): immetti un nome univoco per l’implementazione.
   + **Descrizione** (facoltativo): inserisci una descrizione per la tua implementazione.
   + **Tag** (facoltativo): aggiungi tag per l’allocazione dei costi e la gestione delle risorse.

1. Seleziona **Crea**. Quando lo stato dell’implementazione è `Active`, il modello personalizzato è pronto per l’inferenza on demand. Per ulteriori informazioni sui tipi di modello personalizzato, consulta [Utilizzo di un’implementazione per l’inferenza on demand](#use-custom-model-on-demand).

------
#### [ CLI ]

Per distribuire un modello personalizzato per l'inferenza su richiesta utilizzando il AWS Command Line Interface, usa il `create-custom-model-deployment` comando con Amazon Resource Name (ARN) del tuo modello personalizzato. Questo comando utilizza l'operazione API. [CreateCustomModelDeployment](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateCustomModelDeployment.html) La risposta include ARN dell’implementazione. Quando l’implementazione è attiva, utilizzi questo ARN come `modelId` per effettuare richieste di inferenza. Per informazioni sull’utilizzo dell’implementazione per l’inferenza, consulta [Utilizzo di un’implementazione per l’inferenza on demand](#use-custom-model-on-demand).

```
aws bedrock create-custom-model-deployment \
--model-deployment-name "Unique name" \
--model-arn "Custom Model ARN" \
--description "Deployment description" \
--tags '[
    {
        "key": "Environment",
        "value": "Production"
    },
    {
        "key": "Team",
        "value": "ML-Engineering"
    },
    {
        "key": "Project",
        "value": "CustomerSupport"
    }
]' \
--client-request-token "unique-deployment-token" \
--region region
```

------
#### [ API ]

Per implementare un modello personalizzato per l'inferenza su richiesta, utilizza l'operazione [CreateCustomModelDeployment](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateCustomModelDeployment.html)API con Amazon Resource Name (ARN) del tuo modello personalizzato. La risposta include ARN dell’implementazione. Quando l’implementazione è attiva, utilizzi questo ARN come `modelId` per effettuare richieste di inferenza. Per informazioni sull’utilizzo dell’implementazione per l’inferenza, consulta [Utilizzo di un’implementazione per l’inferenza on demand](#use-custom-model-on-demand).

Il seguente codice mostra come usare SDK per Python (Boto3) per implementare un modello personalizzato.

```
def create_custom_model_deployment(bedrock_client):
    """Create a custom model deployment
    Args:
        bedrock_client: A boto3 Amazon Bedrock client for making API calls

    Returns:
        str: The ARN of the new custom model deployment

    Raises:
        Exception: If there is an error creating the deployment
    """

    try:
        response = bedrock_client.create_custom_model_deployment(
            modelDeploymentName="Unique deployment name",
            modelArn="Custom Model ARN",
            description="Deployment description",
            tags=[
                {'key': 'Environment', 'value': 'Production'},
                {'key': 'Team', 'value': 'ML-Engineering'},
                {'key': 'Project', 'value': 'CustomerSupport'}
            ],
            clientRequestToken=f"deployment-{uuid.uuid4()}"
        )

        deployment_arn = response['customModelDeploymentArn']
        print(f"Deployment created: {deployment_arn}")
        return deployment_arn

    except Exception as e:
        print(f"Error creating deployment: {str(e)}")
        raise
```

------

## Utilizzo di un’implementazione per l’inferenza on demand
<a name="use-custom-model-on-demand"></a>

Dopo aver distribuito il modello personalizzato, utilizza il nome della risorsa Amazon (ARN) dell’implementazione come parametro `modelId` durante l’invio di prompt e la generazione con inferenza del modello.

Per ulteriori informazioni sull’esecuzione di richieste di inferenza, consulta i seguenti argomenti:
+ [Invio di prompt e generazione di risposte con l’inferenza del modello](inference.md)
+ [Prerequisiti per l’esecuzione dell’inferenza del modello](inference-prereq.md)
+ [Inviare prompt e generare risposte utilizzando l’API](inference-api.md)

## Eliminazione dell’implementazione di un modello personalizzato
<a name="delete-custom-model-deployment"></a>

Dopo aver terminato di utilizzare il modello per l’inferenza on demand, puoi eliminarne l’implementazione. Una volta eliminata, l’implementazione non può più essere utilizzata per l’inferenza on demand, ma il modello personalizzato sottostante non viene eliminato.

Puoi eliminare una distribuzione di modelli personalizzati con la console Amazon Bedrock AWS Command Line Interface, oppure AWS SDKs.

**Importante**  
L’eliminazione di un’implementazione di un modello personalizzato è irreversibile. Assicurati di non avere più bisogno dell’implementazione prima di procedere con l’eliminazione. Se devi utilizzare nuovamente il modello personalizzato per l’inferenza on demand, dovrai creare una nuova implementazione.

------
#### [ Console ]

**Come eliminare l’implementazione di un modello personalizzato**

1. Nel riquadro di navigazione, in **Deduci**, seleziona **Modello personalizzato on demand**.

1. Scegli l’implementazione del modello personalizzato da eliminare.

1. Scegli **Elimina**.

1. Nella finestra di dialogo di conferma inserisci il nome dell’implementazione per confermare l’eliminazione.

1. Scegli **Elimina** per confermare l’eliminazione.

------
#### [ CLI ]

Per eliminare una distribuzione di un modello personalizzato utilizzando il AWS Command Line Interface, utilizza il `delete-custom-model-deployment` comando con il tuo identificatore di distribuzione. Questo comando utilizza l'operazione [DeleteCustomModelDeployment](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_DeleteCustomModelDeployment.html)API. 

```
aws bedrock delete-custom-model-deployment \
--custom-model-deployment-identifier "deployment-arn-or-name" \
--region region
```

------
#### [ API ]

Per eliminare un modello di distribuzione personalizzato a livello di codice, utilizza l'operazione [DeleteCustomModelDeployment](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_DeleteCustomModelDeployment.html)API con l'Amazon Resource Name (ARN) o il nome della distribuzione. Il seguente codice mostra come utilizzare l’SDK per Python (Boto3) per eliminare l’implementazione di un modello personalizzato.

```
def delete_custom_model_deployment(bedrock_client):
    """Delete a custom model deployment

    Args:
        bedrock_client: A boto3 Amazon Bedrock client for making API calls

    Returns:
        dict: The response from the delete operation

    Raises:
        Exception: If there is an error deleting the deployment
    """

    try:
        response = bedrock_client.delete_custom_model_deployment(
            customModelDeploymentIdentifier="Deployment identifier"
        )

        print("Deleting deployment...")
        return response

    except Exception as e:
        print(f"Error deleting deployment: {str(e)}")
        raise
```

------