

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Prodotti per l'apprendimento automatico in Marketplace AWS
<a name="machine-learning-products"></a>

In qualità di Marketplace AWS venditore, puoi creare algoritmi e modelli di machine learning (ML) utilizzabili dai tuoi acquirenti. AWS Questo argomento fornisce informazioni sui tipi di prodotto Amazon SageMaker AI elencati in Marketplace AWS.

Esistono due tipi di prodotti di SageMaker intelligenza artificiale elencati in Marketplace AWS: 

**Pacchetto modello**  
 Un modello pre-addestrato per fare previsioni che non richiede ulteriore formazione da parte dell'acquirente. 

**Algoritmo**  
 Un modello che richiede all'acquirente di fornire dati di formazione prima di formulare previsioni. L'algoritmo di addestramento è incluso. 

Questi prodotti sono disponibili per gli acquirenti tramite la console Amazon SageMaker AI o Marketplace AWS. Gli acquirenti possono consultare le descrizioni dei prodotti, la documentazione, le recensioni dei clienti, i prezzi e le informazioni di assistenza. Quando sottoscrivono un abbonamento a un prodotto con pacchetto modello o a un prodotto basato su algoritmi, il prodotto viene aggiunto all'elenco dei prodotti sulla console SageMaker AI. Gli acquirenti possono anche utilizzare AWS SDKs, the AWS Command Line Interface (AWS CLI) o la console SageMaker AI per creare un endpoint di inferenza REST completamente gestito o eseguire inferenze su batch di dati. 

 Per ricevere assistenza nella creazione di prodotti di machine learning con Amazon SageMaker AI, contatta il team [operativo del Marketplace AWS venditore](https://aws.amazon.com/marketplace/management/contact-us/). 

# Comprendere i prodotti di machine learning
<a name="ml-overview"></a>

 Marketplace AWS supporta due tipi di prodotti di machine learning, utilizzando Amazon SageMaker AI. Entrambi i tipi, i prodotti del pacchetto modello e i prodotti algoritmici, producono un modello di inferenza implementabile per fare previsioni.

## SageMaker Pacchetto di modelli AI
<a name="ml-amazon-sagemaker-model-package"></a>

 Un [pacchetto di modelli Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-marketplace.html#sagemaker-mkt-model-package) contiene un modello pre-addestrato. I modelli preaddestrati possono essere implementati nell' SageMaker intelligenza artificiale per fare inferenze o previsioni in tempo reale o in batch. Questo prodotto contiene un componente di inferenza addestrato con eventuali artefatti del modello. In qualità di venditore, puoi addestrare un modello utilizzando l' SageMaker intelligenza artificiale o portare il tuo modello. 

## SageMaker Algoritmo AI
<a name="ml-amazon-sagemaker-algorithm"></a>

 Gli acquirenti possono utilizzare un prodotto basato sull'[algoritmo di SageMaker intelligenza artificiale](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-marketplace.html#sagemaker-mkt-algorithm) per eseguire carichi di lavoro completi di machine learning. Un prodotto algoritmico ha due componenti logici: addestramento e inferenza. Nell' SageMaker intelligenza artificiale, gli acquirenti utilizzano i propri set di dati per creare un lavoro di formazione con la componente di formazione. Quando l'algoritmo del componente di addestramento viene completato, genera gli artefatti del modello di apprendimento automatico. SageMaker L'intelligenza artificiale salva gli artefatti del modello nel bucket Amazon Simple Storage Service (Amazon S3) degli acquirenti. Nell' SageMaker intelligenza artificiale, gli acquirenti possono quindi implementare il componente di inferenza insieme agli artefatti del modello generati per eseguire inferenze (o previsioni) in tempo reale o in batch. 

## Implementazione di un modello di inferenza
<a name="ml-deploying-an-inference-model"></a>

 Indipendentemente dal fatto che il modello di inferenza venga creato da un pacchetto di modelli o da un algoritmo, esistono due metodi per implementarlo: 
+  **Endpoint**: questo metodo utilizza l' SageMaker intelligenza artificiale per distribuire il modello e creare un endpoint API. L'acquirente può utilizzare questo endpoint come parte del proprio servizio di backend per potenziare le proprie applicazioni. Quando i dati vengono inviati all'endpoint, l' SageMaker IA li trasmette al contenitore del modello e restituisce i risultati in una risposta API. L'endpoint e il contenitore continuano a funzionare finché non vengono fermati dall'acquirente.
**Nota**  
 *Nel Marketplace AWS, il metodo degli endpoint viene definito *inferenza in tempo reale* e nella documentazione di SageMaker intelligenza artificiale viene definito servizi di hosting.* Per ulteriori informazioni, consulta [Implementare un modello in Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/how-it-works-deployment.html). 
+  Processo di **trasformazione in batch**: con questo metodo, un acquirente archivia i set di dati per l'inferenza in Amazon S3. All'avvio del processo di trasformazione in batch, l' SageMaker intelligenza artificiale distribuisce il modello, passa i dati da un bucket S3 al contenitore del modello e quindi restituisce i risultati a un bucket Amazon S3. Una volta completato il lavoro, l'IA lo interrompe. SageMaker Per ulteriori informazioni, consulta [Use Batch Transform](https://docs.aws.amazon.com/sagemaker/latest/dg/batch-transform.html).
**Nota**  
 Entrambi i metodi sono trasparenti per il modello perché l' SageMaker IA trasmette i dati al modello e restituisce i risultati all'acquirente. 

# Ciclo di vita del prodotto di machine learning
<a name="ml-product-lifecycle"></a>

Un prodotto di machine learning Marketplace AWS è costituito da una o più versioni del software e dai metadati associati. La configurazione del prodotto include proprietà essenziali come nome, descrizione, istruzioni per l'uso, prezzi, categorizzazione e parole chiave di ricerca. 

## Processo di creazione di prodotti con apprendimento automatico
<a name="ml-publication-process"></a>

 Per inserire un prodotto di machine learning in Marketplace AWS, devi completare quanto segue: 

1. [Preparazione del prodotto in SageMaker AI](ml-prepare-your-product-in-sagemaker.md)

1. [Inserire il prodotto in Marketplace AWS](ml-publishing-your-product-in-aws-marketplace.md)

 Dopo aver creato il prodotto di machine learning, puoi modificarlo e gestirlo. Per ulteriori informazioni, consulta [Gestione dei prodotti di machine learning](ml-product-management.md). 

## Stato del prodotto di machine learning
<a name="ml-product-status"></a>

 I nuovi prodotti inizialmente hanno una visibilità limitata, accessibile solo agli account consentiti e al creatore del prodotto. Dopo il test e la convalida, puoi pubblicare il prodotto per renderlo disponibile nel Marketplace AWS catalogo per tutti gli acquirenti. I prodotti inseriti Marketplace AWS possono avere i seguenti valori di stato: 


| Status | Definizione | 
| --- |--- |
| Gestione temporanea |  Questo stato indica un prodotto incompleto per il quale stai ancora aggiungendo informazioni. Dopo aver salvato e chiuso l'esperienza self-service per la prima volta, Marketplace AWS crea un prodotto inedito contenente le informazioni relative ai passaggi completati. Da questo stato, puoi continuare ad aggiungere informazioni o modificare i dettagli inviati.   | 
| Limitato | Un prodotto raggiunge questo stato dopo essere stato inviato Marketplace AWS e superato tutti i controlli di convalida. A questo punto, il prodotto ha una pagina prodotto accessibile solo al tuo account e alle entità consentite. Puoi eseguire test sul prodotto tramite questa pagina prodotto. | 
| Pubblica | Quando sei pronto a rendere il prodotto visibile agli acquirenti tramite abbonamento, aggiorna la visibilità del prodotto nella console. Una volta elaborato, il prodotto passa dallo stato Limitato a quello Pubblico. Per informazioni sulle AWS linee guida, consulta[Requisiti e best practice per la creazione di prodotti di machine learning](ml-listing-requirements-and-best-practices.md).  | 
| Limitato |  Per impedire ai nuovi utenti di abbonarsi al tuo prodotto, puoi limitarlo aggiornando le impostazioni di visibilità. Lo stato con restrizioni consente agli utenti esistenti nella lista consentita di continuare a utilizzare il prodotto, ma il prodotto non sarà più visibile al pubblico o disponibile per i nuovi utenti.  | 

 Per ulteriori informazioni o assistenza, contatta il [team Operativo Marketplace AWS del venditore](https://aws.amazon.com/marketplace/management/contact-us/). 

# Prezzi dei prodotti di machine learning per Marketplace AWS
<a name="machine-learning-pricing"></a>

Puoi scegliere tra diversi modelli di prezzo disponibili per i tuoi prodotti Amazon SageMaker AI in Marketplace AWS. Gli acquirenti che si abbonano al tuo prodotto lo gestiscono utilizzando l' SageMaker intelligenza artificiale all'interno del proprio sistema Account AWS. Il prezzo per i tuoi acquirenti è una combinazione dei costi di infrastruttura per le risorse utilizzate Account AWS e del prezzo del prodotto che hai impostato. Le seguenti sezioni forniscono informazioni sui modelli di prezzo per i prodotti di SageMaker intelligenza artificiale in Marketplace AWS

**Topics**
+ [Prezzi dell'infrastruttura](#ml-infrastructure-pricing)
+ [Prezzi del software](#ml-software-pricing)

## Prezzi dell'infrastruttura
<a name="ml-infrastructure-pricing"></a>

Gli acquirenti sono responsabili di tutti i costi di infrastruttura dell' SageMaker intelligenza artificiale durante l'utilizzo del prodotto. Questi costi sono stabiliti AWS e sono disponibili nella pagina [dei prezzi di Amazon SageMaker AI](https://aws.amazon.com/sagemaker/pricing/).

## Prezzi del software
<a name="ml-software-pricing"></a>

Sei tu a determinare i prezzi del software Marketplace AWS addebitati all'acquirente per l'utilizzo del prodotto. I prezzi e le condizioni vengono impostati quando si aggiunge il prodotto di machine learning a Marketplace AWS.

Tutti i prezzi dell'infrastruttura e del software per tipo di istanza vengono presentati all'acquirente nelle pagine di elenco dei prodotti Marketplace AWS prima che l'acquirente sottoscriva l'abbonamento.

**Topics**
+ [Prezzi gratuiti](#ml-pricing-free)
+ [Tariffe orarie](#ml-pricing-hourly)
+ [Prezzi di inferenza](#ml-pricing-inference)
+ [Versione di prova gratuita](#ml-pricing-free-trial)

### Prezzi gratuiti
<a name="ml-pricing-free"></a>

Puoi scegliere di offrire il tuo prodotto gratuitamente. In questo caso, l'acquirente paga solo i costi dell'infrastruttura.

### Tariffe orarie
<a name="ml-pricing-hourly"></a>

Puoi offrire il tuo prodotto con un prezzo all'ora per istanza del tuo software in esecuzione nell' SageMaker intelligenza artificiale. Puoi addebitare un prezzo orario diverso per ogni tipo di istanza su cui viene eseguito il software. Mentre un acquirente utilizza il software, Marketplace AWS tiene traccia dell'utilizzo e quindi fattura all'acquirente di conseguenza. L'utilizzo viene ripartito proporzionalmente al minuto.

Per i prodotti con *pacchetto modello*, l'acquirente può utilizzare il software in due modi diversi. Possono ospitare un endpoint in modo continuo per eseguire inferenze in tempo reale o eseguire un processo di trasformazione in batch su un set di dati. Puoi impostare prezzi diversi per entrambi i modi in cui un acquirente può utilizzare il tuo software.

Per i prodotti basati su *algoritmi*, oltre a determinare i prezzi per l'esecuzione dell'inferenza, come accennato in precedenza, si determina anche un prezzo orario per i lavori di formazione. È possibile addebitare un prezzo orario diverso per ogni tipo di istanza supportato dall'immagine di formazione.

### Prezzi di inferenza
<a name="ml-pricing-inference"></a>

Quando l'acquirente utilizza il tuo software ospitando un endpoint per eseguire continuamente inferenze in tempo reale, puoi scegliere di impostare un prezzo per inferenza.

**Nota**  
I seguenti tipi di prodotti ML utilizzano sempre la tariffa oraria:  
Lavori di trasformazione in Batch
Endpoint di inferenza asincroni
Lavori di formazione per prodotti algoritmici
Il prezzo per ogni tipo viene impostato indipendentemente dal prezzo di inferenza e l'uno dall'altro.

Per impostazione predefinita, con i prezzi inferenziali, Marketplace AWS addebita all'acquirente ogni richiamo dell'endpoint. *Tuttavia, in alcuni casi, il software elabora un batch di inferenze in un'unica invocazione (nota anche come mini-batch).* Per l'implementazione di un endpoint, puoi indicare un numero personalizzato di inferenze da Marketplace AWS addebitare all'acquirente per quella singola chiamata. A tale scopo, includi un'intestazione di misurazione personalizzata nelle intestazioni di risposta HTTP della chiamata, come nell'esempio seguente. Questo esempio mostra una chiamata che addebita all'acquirente tre inferenze.

```
X-Amzn-Inference-Metering: {"Dimension": "inference.count", "ConsumedUnits": 3}
```

**Nota**  
Per quanto riguarda i prezzi inferenziali, addebita all'acquirente Marketplace AWS solo le richieste in cui è presente il codice di risposta HTTP. `2XX`

### Versione di prova gratuita
<a name="ml-pricing-free-trial"></a>

Facoltativamente, puoi creare una prova gratuita per il tuo prodotto e definire il numero di giorni della prova gratuita. Le prove gratuite possono durare da 5 a 31 giorni. Durante la prova gratuita, gli acquirenti possono utilizzare il software per tutto il tempo che desiderano, senza costi aggiuntivi per l'utilizzo del software. Agli acquirenti vengono addebitati i costi dell'infrastruttura durante la prova gratuita. Al termine del periodo di prova, viene loro addebitato il normale prezzo del software, oltre ai costi dell'infrastruttura.

Quando gli acquirenti si abbonano a un prodotto con una prova gratuita, ricevono un messaggio e-mail di benvenuto. Il messaggio include la durata della prova gratuita, una data di scadenza calcolata e dettagli sull'annullamento dell'iscrizione. Un messaggio e-mail di promemoria viene inviato tre giorni prima della data di scadenza.

Se offri una prova gratuita per il tuo prodotto in Marketplace AWS, accetti la [politica di rimborso](https://docs.aws.amazon.com/marketplace/latest/userguide/refunds.html#refund-policy) specifica per le prove gratuite. 

**Nota**  
Per informazioni sulle offerte private per l'apprendimento automatico, consulta [Offerte private](https://docs.aws.amazon.com/marketplace/latest/userguide/private-offers-overview.html).

# Restrizioni e quote di servizio per i prodotti di machine learning in Marketplace AWS
<a name="ml-service-restrictions-and-limits"></a>

Questa sezione descrive le restrizioni e le quote sui tuoi prodotti di machine learning (ML) in. Marketplace AWS

**Topics**
+ [Isolamento della rete](#ml-network-isolation)
+ [Dimensione dell’immagine](#ml-image-size)
+ [Dimensioni dell’archiviazione](#ml-storage-size)
+ [Dimensioni istanza](#ml-instance-size)
+ [Dimensione del payload per l'inferenza](#ml-payload-size-for-inference)
+ [Tempo di elaborazione per l'inferenza](#ml-processing-time-for-inference)
+ [Service Quotas](#ml-service-quotas)
+ [Inferenza serverless](#severless-inference)
+ [Addestramento spot gestito](#ml-managed-spot-training)
+ [Immagini Docker e Account AWS](#ml-docker-images-and-aws-accounts)
+ [Pubblicazione di pacchetti di modelli da algoritmi integrati o Marketplace AWS](#ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace)
+ [Supportato per la pubblicazione Regioni AWS](#ml-supported-aws-regions-for-publishing)

## Isolamento della rete
<a name="ml-network-isolation"></a>

Per motivi di sicurezza, quando un acquirente sottoscrive un abbonamento al tuo prodotto containerizzato, i contenitori Docker vengono eseguiti in un ambiente isolato senza accesso alla rete. Quando crei i contenitori, non fare affidamento sulle chiamate in uscita su Internet perché falliranno. Anche le chiamate a Servizi AWS avranno esito negativo. 

## Dimensione dell’immagine
<a name="ml-image-size"></a>

[La dimensione dell'immagine Docker è regolata dalle quote del servizio Amazon Elastic Container Registry (Amazon ECR).](https://docs.aws.amazon.com/AmazonECR/latest/userguide/service_limits.html) La dimensione dell'immagine Docker influisce sul tempo di avvio durante i processi di formazione, i lavori di trasformazione in batch e la creazione degli endpoint. Per prestazioni migliori, mantieni una dimensione ottimale dell'immagine Docker. 

## Dimensioni dell’archiviazione
<a name="ml-storage-size"></a>

Quando crei un endpoint, Amazon SageMaker AI collega un volume di storage Amazon Elastic Block Store (Amazon EBS) a ogni istanza di calcolo ML che ospita l'endpoint. (Un endpoint è anche noto come *inferenza in tempo reale* o *servizio di hosting Amazon SageMaker AI*.) Le dimensioni del volume di storage dipendono dal tipo di istanza. Per ulteriori informazioni, consulta [Host Instance Storage Volumes](https://docs.aws.amazon.com/sagemaker/latest/dg/host-instance-storage.html) nella *Amazon SageMaker AI Developer Guide*. 

Per la trasformazione in batch, consulta [Storage in Batch Transform](https://docs.aws.amazon.com/sagemaker/latest/dg/batch-transform-storage.html) nella *Amazon SageMaker AI Developer Guide*. 

## Dimensioni istanza
<a name="ml-instance-size"></a>

SageMaker L'intelligenza artificiale offre una selezione di tipi di istanze ottimizzati per adattarsi a diversi casi d'uso del machine learning. I tipi di istanze sono costituiti da diverse combinazioni di CPU, GPU, memoria e capacità di rete. I tipi di istanze offrono la flessibilità necessaria per scegliere la combinazione appropriata di risorse per la creazione, la formazione e l'implementazione dei modelli di machine learning. Per ulteriori informazioni, consulta [Amazon SageMaker AI ML Instance Types](https://aws.amazon.com/sagemaker/pricing/instance-types/). 

## Dimensione del payload per l'inferenza
<a name="ml-payload-size-for-inference"></a>

 Per un endpoint, limita la dimensione massima dei dati di input per chiamata a 25 MB. Questo valore non può essere modificato.

Per la trasformazione in batch, la dimensione massima dei dati di input per chiamata è 100 MB. Questo valore non può essere modificato.

## Tempo di elaborazione per l'inferenza
<a name="ml-processing-time-for-inference"></a>

Per un endpoint, il tempo massimo di elaborazione per chiamata è di 60 secondi per le risposte regolari e di 8 minuti per le risposte in streaming. Questo valore non può essere modificato.

Per la trasformazione in batch, il tempo massimo di elaborazione per chiamata è di 60 minuti. Questo valore non può essere modificato.

## Service Quotas
<a name="ml-service-quotas"></a>

Per ulteriori informazioni sulle quote relative alla formazione e all'inferenza, consulta [Amazon SageMaker AI Service Quotas](https://docs.aws.amazon.com/general/latest/gr/sagemaker.html#limits_sagemaker). 

## Inferenza serverless
<a name="severless-inference"></a>

I pacchetti di modelli e gli algoritmi pubblicati in non Marketplace AWS possono essere distribuiti su endpoint configurati per [Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/serverless-endpoints.html) Serverless Inference. Gli endpoint configurati per l'inferenza senza server richiedono che i modelli dispongano di connettività di rete. Tutti i Marketplace AWS modelli funzionano in isolamento di rete. Per ulteriori informazioni, vedere [Nessun accesso alla rete](https://docs.aws.amazon.com/marketplace/latest/userguide/ml-security-and-intellectual-property.html#ml-no-network-access).

## Addestramento spot gestito
<a name="ml-managed-spot-training"></a>

Per tutti gli algoritmi di Marketplace AWS, il valore di `MaxWaitTimeInSeconds` è impostato su 3.600 secondi (60 minuti), anche se è implementato il checkpoint per l'addestramento in [loco gestito](https://docs.aws.amazon.com/sagemaker/latest/dg/model-managed-spot-training.html). Questo valore non può essere modificato. 

## Immagini Docker e Account AWS
<a name="ml-docker-images-and-aws-accounts"></a>

Per la pubblicazione, le immagini devono essere archiviate negli archivi Amazon ECR di proprietà Account AWS del venditore. Non è possibile pubblicare immagini archiviate in un repository di proprietà di un altro. Account AWS

## Pubblicazione di pacchetti di modelli da algoritmi integrati o Marketplace AWS
<a name="ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace"></a>

I pacchetti modello creati da lavori di formazione utilizzando un [algoritmo integrato di Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/algos.html) o un algoritmo da un Marketplace AWS abbonamento non possono essere pubblicati. 

Puoi comunque utilizzare gli artefatti del modello derivanti dal processo di formazione, ma per la pubblicazione dei pacchetti di modelli è necessaria la tua immagine di inferenza. 

## Supportato per la pubblicazione Regioni AWS
<a name="ml-supported-aws-regions-for-publishing"></a>

Marketplace AWS supporta il pacchetto del modello di pubblicazione e le risorse dell'algoritmo, Regioni AWS in base alle quali sono entrambi validi quanto segue: 
+ Una regione [supportata da Amazon SageMaker AI](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) 
+ Una [regione disponibile](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) che viene attivata per impostazione predefinita (ad esempio, restituisce [describe-regions](https://docs.aws.amazon.com/general/latest/gr/rande-manage.html#ec2-describe-regions)) `"OptInStatus": "opt-in-not-required"` 

Tutte le risorse necessarie per la pubblicazione di un pacchetto modello o di un prodotto algoritmico devono essere archiviate nella stessa regione da cui scegliete di pubblicare. Questo include gli output seguenti: 
+ Pacchetti di modelli e risorse di algoritmi creati in Amazon SageMaker AI 
+ Immagini di inferenza e addestramento caricate negli archivi Amazon ECR 
+ Elementi del modello (se presenti) archiviati in Amazon Simple Storage Service e caricati dinamicamente durante la distribuzione del modello per le risorse del pacchetto modello 
+ Dati di test per la convalida dell'inferenza e dell'addestramento archiviati in Amazon S3 

Puoi sviluppare e addestrare il tuo prodotto in qualsiasi regione supportata dall'intelligenza artificiale. SageMaker Tuttavia, prima di poter pubblicare, è necessario copiare tutte le risorse e ricreare le risorse in una regione da cui è Marketplace AWS supportata la pubblicazione. 

# Sicurezza e proprietà intellettuale con Amazon SageMaker AI
<a name="ml-security-and-intellectual-property"></a>

Amazon SageMaker AI protegge sia la tua proprietà intellettuale che i dati degli acquirenti per modelli e algoritmi ottenuti da Marketplace AWS. Le seguenti sezioni forniscono ulteriori informazioni sui modi in cui l' SageMaker intelligenza artificiale protegge la proprietà intellettuale e la sicurezza dei dati dei clienti.

**Topics**
+ [Protezione della proprietà intellettuale](#ml-protecting-intellectual-property)
+ [Nessun accesso alla rete](#ml-no-network-access)
+ [Sicurezza dei dati dei clienti](#ml-security-of-customer-data)

## Protezione della proprietà intellettuale
<a name="ml-protecting-intellectual-property"></a>

 Quando crei un prodotto, il codice viene impacchettato in immagini del contenitore Docker. Per ulteriori informazioni[Preparazione del prodotto in SageMaker AI](ml-prepare-your-product-in-sagemaker.md), consulta più avanti in questa guida. Quando carichi un'immagine del contenitore, l'immagine e gli artefatti vengono crittografati in transito e a riposo. Le immagini vengono inoltre scansionate per individuare eventuali vulnerabilità prima di essere pubblicate. 

 Per aiutarti a salvaguardare la tua proprietà intellettuale, l' SageMaker intelligenza artificiale consente solo agli acquirenti di accedere al tuo prodotto tramite endpoint. Servizio AWS Gli acquirenti non possono accedere direttamente alle immagini dei container o agli artefatti dei modelli o accedere direttamente alle immagini dei container, né possono accedere all'infrastruttura sottostante. 

## Nessun accesso alla rete
<a name="ml-no-network-access"></a>

 A differenza dei modelli e degli algoritmi di SageMaker intelligenza artificiale creati dagli acquirenti, quando gli acquirenti lanciano il prodotto Marketplace AWS, i modelli e gli algoritmi vengono implementati senza accesso alla rete. SageMaker L'intelligenza artificiale distribuisce le immagini in un ambiente senza accesso alla rete o agli endpoint. Servizio AWS Ad esempio, un'immagine del contenitore non può effettuare chiamate API in uscita a servizi su Internet, endpoint [VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) o qualsiasi altro. Servizi AWS

## Sicurezza dei dati dei clienti
<a name="ml-security-of-customer-data"></a>

 Il tuo prodotto funziona in SageMaker intelligenza artificiale all'interno dell'acquirente Account AWS. Pertanto, quando un acquirente utilizza il tuo prodotto per eseguire l'inferenza dei dati, tu come venditore non puoi accedere ai suoi dati. 

 Per i prodotti algoritmici, gli artefatti del modello vengono generati dall'immagine di addestramento dopo ogni processo di formazione. Gli artefatti del modello vengono archiviati nell'account dell'acquirente. Gli artefatti del modello derivanti dal processo di formazione vengono utilizzati quando l'acquirente implementa il modello con la tua immagine di inferenza. Per proteggere qualsiasi proprietà intellettuale che potrebbe essere contenuta nell'artefatto del modello, crittografateli prima di emetterli. 

**Importante**  
 Questo modello di sicurezza impedisce al codice di accedere a Internet durante il runtime. Pertanto, il tuo codice non può utilizzare risorse o librerie da Internet, quindi impacchetta le tue dipendenze nell'immagine del contenitore Docker. Ciò è particolarmente importante se si sceglie di crittografare gli artefatti generati durante il processo di formazione. Non è possibile accedere alle chiavi per crittografare e decrittografare gli artefatti tramite Internet in fase di esecuzione. Devono essere impacchettate con la tua immagine. 

 Per ulteriori informazioni, consulta [la sezione Sicurezza in Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/security.html). 

# Rapporti sull'apprendimento automatico in Marketplace AWS
<a name="ml-reporting"></a>

Marketplace AWS produce report per i tuoi prodotti Amazon SageMaker AI che includono dati su acquirenti, dati finanziari, utilizzo e tasse. Tutti i report sono disponibili nella Portale di gestione Marketplace AWS pagina [Report](https://aws.amazon.com/marketplace/management/reports). Per maggiori informazioni, consulta la sezione [Rapporti sui venditori](https://docs.aws.amazon.com/marketplace/latest/userguide/Reporting.html). Le seguenti sezioni forniscono informazioni di riepilogo sui report per i prodotti di machine learning.

**Topics**
+ [Rapporto aziendale giornaliero](#ml-daily-business-report)
+ [Rapporto mensile sulle entrate](#ml-monthly-revenue-report)
+ [Rapporto sugli esborsi](#ml-disbursement-report)
+ [Altri rapporti e analisi](#ml-other-reports)

## Rapporto aziendale giornaliero
<a name="ml-daily-business-report"></a>

 Il rapporto aziendale giornaliero fornisce il tipo di istanza, gli orari di utilizzo, i ricavi derivanti dai costi del software e altri dettagli per ogni acquirente e prodotto. Gli acquirenti possono essere identificati tramite il loro Account AWS ID. Per ulteriori informazioni, consulta [Rapporto aziendale giornaliero](https://docs.aws.amazon.com/marketplace/latest/userguide/daily-business-report.html). 

## Rapporto mensile sulle entrate
<a name="ml-monthly-revenue-report"></a>

 Il rapporto sulle entrate mensili ti fornisce le entrate mensili che sono state fatturate ai tuoi acquirenti per l'utilizzo del tuo software. Per ulteriori informazioni, consulta il report sulle [entrate fatturate mensilmente](https://docs.aws.amazon.com/marketplace/latest/userguide/monthly-billed-revenue-report.html). 

## Rapporto sugli esborsi
<a name="ml-disbursement-report"></a>

 Il rapporto mensile sui pagamenti fornisce un'analisi dettagliata di tutti i fondi raccolti per conto dell'utente durante il periodo di liquidazione degli addebiti relativi al software. L'importo totale del pagamento riportato nel rapporto deve corrispondere all'importo depositato sul tuo conto bancario. Per ulteriori informazioni, consulta il rapporto [sui pagamenti](https://docs.aws.amazon.com/marketplace/latest/userguide/monthly-disbursement-report.html). 

## Altri rapporti e analisi
<a name="ml-other-reports"></a>

 Per altri report disponibili, consulta la sezione [Rapporti sui venditori](https://docs.aws.amazon.com/marketplace/latest/userguide/dashboards.html). 

Puoi anche creare report personalizzati utilizzando il modulo disponibile [I dati di spedizione del venditore vengono inseriti in Marketplace AWS](data-feed-service.md) Marketplace AWS.

# Preparazione del prodotto in SageMaker AI
<a name="ml-prepare-your-product-in-sagemaker"></a>

Prima di poter pubblicare il prodotto in Marketplace AWS, devi prepararlo in Amazon SageMaker AI. Esistono due tipi di prodotti di SageMaker intelligenza artificiale elencati in Marketplace AWS: pacchetti modello e algoritmi. Per ulteriori informazioni, consulta [Prodotti per l'apprendimento automatico in Marketplace AWS](machine-learning-products.md). Questo argomento fornisce una panoramica dei tre passaggi necessari per preparare il prodotto:

1. [Imballaggio del codice in immagini per prodotti di apprendimento automatico in Marketplace AWS](ml-packaging-your-code-into-images.md)— Per preparare un pacchetto modello o un prodotto algoritmico, è necessario creare le immagini del contenitore Docker per il prodotto. 

1. [Caricamento delle immagini su Amazon Elastic Container Registry](ml-uploading-your-images.md)— Dopo aver impacchettato il codice in immagini del contenitore e averle testate localmente, carica le immagini e scansionale alla ricerca di vulnerabilità note. Risolvi eventuali vulnerabilità prima di continuare. 

1.  [Creare la tua risorsa Amazon SageMaker AI](ml-creating-your-amazon-sagemaker-resource.md)— Dopo aver eseguito correttamente la scansione delle immagini, è possibile utilizzarle per creare un pacchetto modello o una risorsa algoritmica in SageMaker AI.

# Imballaggio del codice in immagini per prodotti di apprendimento automatico in Marketplace AWS
<a name="ml-packaging-your-code-into-images"></a>

I prodotti di apprendimento automatico Marketplace AWS utilizzano Amazon SageMaker AI per creare ed eseguire la logica di apprendimento automatico che fornisci agli acquirenti. SageMaker L'intelligenza artificiale esegue immagini di container Docker che contengono la tua logica. SageMaker L'intelligenza artificiale gestisce questi contenitori in un'infrastruttura sicura e scalabile. Per ulteriori informazioni, consulta [Sicurezza e proprietà intellettuale con Amazon SageMaker AI](ml-security-and-intellectual-property.md). Le seguenti sezioni forniscono informazioni su come impacchettare il codice nelle immagini dei container Docker per SageMaker l'intelligenza artificiale.

**Topics**
+ [Che tipo di immagine del contenitore devo creare?](#ml-which-type-of-container-image-do-i-create)
+ [Creazione di immagini di pacchetti modello](ml-model-package-images.md)
+ [Creazione di immagini di algoritmi](ml-algorithm-images.md)

## Che tipo di immagine del contenitore devo creare?
<a name="ml-which-type-of-container-image-do-i-create"></a>

 I due tipi di immagini del contenitore sono un'immagine di inferenza e un'immagine di addestramento. 

 Per creare un pacchetto modello di prodotto, è necessaria solo un'immagine di inferenza. Per istruzioni dettagliate, vedi [Creazione di immagini di pacchetti modello](ml-model-package-images.md). 

 Per creare un prodotto algoritmico, sono necessarie sia immagini di addestramento che di inferenza. Per istruzioni dettagliate, vedi [Creazione di immagini di algoritmi](ml-algorithm-images.md). 

 Per impacchettare correttamente il codice in un'immagine del contenitore, il contenitore deve aderire alla struttura del file SageMaker AI. Il contenitore deve esporre gli endpoint corretti per garantire che il servizio possa trasferire dati da e verso il contenitore. Le seguenti sezioni spiegano i dettagli di questo processo. 

**Importante**  
 Per motivi di sicurezza, quando un acquirente sottoscrive un abbonamento al tuo prodotto containerizzato, i contenitori Docker vengono eseguiti in un ambiente isolato senza una connessione Internet. Quando crei i contenitori, non fare affidamento sulle chiamate in uscita su Internet perché falliranno. Anche le chiamate a Servizi AWS avranno esito negativo. Per ulteriori informazioni, consulta la sezione [Sicurezza e proprietà intellettuale con Amazon SageMaker AI](ml-security-and-intellectual-property.md). 

 Facoltativamente, quando crei le tue immagini di inferenza e addestramento, usa un contenitore di [Available Deep Learning Containers Images](https://aws.amazon.com/releasenotes/available-deep-learning-containers-images/) come punto di partenza. Le immagini sono già correttamente impacchettate con diversi framework di apprendimento automatico. 

# Creazione di immagini di pacchetti modello
<a name="ml-model-package-images"></a>

Un pacchetto di modelli Amazon SageMaker AI è un modello pre-addestrato che fa previsioni e non richiede ulteriore formazione da parte dell'acquirente. Puoi creare un pacchetto modello in SageMaker AI e pubblicare il tuo prodotto di machine learning su. Marketplace AWS Le seguenti sezioni spiegano come creare un pacchetto modello per Marketplace AWS. Ciò include la creazione dell'immagine del contenitore e la creazione e il test dell'immagine localmente.

**Topics**
+ [Panoramica di](#ml-model-package-images-overview)
+ [Crea un'immagine di inferenza per i pacchetti modello](#ml-creating-an-inference-image-for-model-packages)

## Panoramica di
<a name="ml-model-package-images-overview"></a>

 Un pacchetto modello include i seguenti componenti: 
+  Un'immagine di inferenza memorizzata in [Amazon Elastic Container Registry](https://aws.amazon.com/ecr/) (Amazon ECR) 
+  [(Facoltativo) Artefatti del modello, archiviati separatamente in Amazon S3](https://aws.amazon.com/s3/) 

**Nota**  
Gli artefatti del modello sono file utilizzati dal modello per fare previsioni e sono generalmente il risultato di processi di formazione personalizzati. Gli artefatti possono essere di qualsiasi tipo di file necessario al modello, ma è necessaria la compressione use.tar.gz. Per i pacchetti di modelli, possono essere raggruppati nella tua immagine di inferenza o archiviati separatamente in Amazon SageMaker AI. Gli artefatti del modello archiviati in Amazon S3 vengono caricati nel contenitore di inferenza in fase di esecuzione. Quando pubblichi il tuo pacchetto modello, questi artefatti vengono pubblicati e archiviati in bucket Amazon S3 di Marketplace AWS proprietà inaccessibili direttamente all'acquirente. 

**Suggerimento**  
Se il tuo modello di inferenza è costruito con un framework di deep learning come Gluon, Keras,,,, TensorFlow -Lite o ONNX MXNet PyTorch TensorFlow, prendi in considerazione l'utilizzo di Amazon AI Neo. SageMaker Neo può ottimizzare automaticamente i modelli di inferenza da distribuire su una famiglia specifica di tipi di istanze cloud come, e altri. `ml.c4` `ml.p2` Per ulteriori informazioni, consulta [Optimize model performance using Neo](https://docs.aws.amazon.com/sagemaker/latest/dg/neo.html) nella *Amazon SageMaker AI Developer Guide*.

Il diagramma seguente mostra il flusso di lavoro per la pubblicazione e l'utilizzo di prodotti con pacchetti modello. 

![\[Diagramma del modo in cui un venditore crea un'immagine del pacchetto modello e di come l'acquirente la utilizza.\]](http://docs.aws.amazon.com/it_it/marketplace/latest/userguide/images/ml-model-package-images.png)


Il flusso di lavoro per la creazione di un pacchetto modello di SageMaker intelligenza artificiale per Marketplace AWS include i seguenti passaggi:

1. Il venditore crea un'immagine di inferenza (nessun accesso alla rete quando viene implementata) e la inserisce nel registro Amazon ECR. 

   Gli artefatti del modello possono essere raggruppati nell'immagine di inferenza o archiviati separatamente in S3.

1. Il venditore crea quindi una risorsa per il pacchetto modello in Amazon SageMaker AI e pubblica il suo prodotto ML su Marketplace AWS.

1. L'acquirente sottoscrive il prodotto ML e implementa il modello. 
**Nota**  
 Il modello può essere implementato come endpoint per inferenze in tempo reale o come processo in batch per ottenere previsioni per un intero set di dati contemporaneamente. [Per ulteriori informazioni, consulta Deploy Models for Inference.](https://docs.aws.amazon.com/sagemaker/latest/dg/deploy-model.html) 

1. SageMaker L'intelligenza artificiale esegue l'immagine di inferenza. Tutti gli artefatti del modello forniti dal venditore non inclusi nell'immagine di inferenza vengono caricati dinamicamente in fase di esecuzione. 

1.  SageMaker L'intelligenza artificiale passa i dati di inferenza dell'acquirente al contenitore utilizzando gli endpoint HTTP del contenitore e restituisce i risultati della previsione. 

## Crea un'immagine di inferenza per i pacchetti modello
<a name="ml-creating-an-inference-image-for-model-packages"></a>

Questa sezione fornisce una procedura dettagliata per impacchettare il codice di inferenza in un'immagine di inferenza per il prodotto del pacchetto modello. Il processo prevede i seguenti passaggi:

**Topics**
+ [Passaggio 1: creare l'immagine del contenitore](#ml-step-1-creating-the-container-image)
+ [Fase 2: Creare e testare l'immagine localmente](#ml-step-2-building-and-testing-the-image-locally)

L'immagine di inferenza è un'immagine Docker contenente la logica di inferenza. Il contenitore in fase di esecuzione espone gli endpoint HTTP per consentire all' SageMaker IA di trasferire dati da e verso il contenitore. 

**Nota**  
 Quello che segue è solo un esempio di codice di imballaggio per un'immagine di inferenza. Per ulteriori informazioni, consulta [Using Docker containers with SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms.html) e gli [esempi di Marketplace AWS SageMaker intelligenza artificiale](https://github.com/aws/amazon-sagemaker-examples/tree/master/aws_marketplace) su. GitHub  
L'esempio seguente utilizza un servizio web, [Flask](https://pypi.org/project/Flask/), per semplicità e non è considerato pronto per la produzione.

### Passaggio 1: creare l'immagine del contenitore
<a name="ml-step-1-creating-the-container-image"></a>

 Affinché l'immagine di inferenza sia compatibile con l' SageMaker intelligenza artificiale, l'immagine Docker deve esporre gli endpoint HTTP. Mentre il container è in esecuzione, l'SageMaker intelligenza artificiale trasmette gli input dell'acquirente per l'inferenza all'endpoint HTTP del contenitore. I risultati dell'inferenza vengono restituiti nel corpo della risposta HTTP. 

 La procedura dettagliata seguente utilizza la CLI Docker in un ambiente di sviluppo che utilizza una distribuzione Linux Ubuntu. 
+ [Crea lo script del server web](#ml-create-the-web-server-script)
+ [Crea lo script per l'esecuzione del contenitore](#ml-create-the-script-for-the-container-run)
+ [Creazione del `Dockerfile`](#ml-create-the-dockerfile)
+ [Package o carica gli artefatti del modello](#ml-package-or-upload-the-model-artifacts)

#### Crea lo script del server web
<a name="ml-create-the-web-server-script"></a>

 Questo esempio utilizza un server Python chiamato [Flask](https://pypi.org/project/Flask/), ma puoi usare qualsiasi server web che funzioni per il tuo framework. 

**Nota**  
[Flask](https://pypi.org/project/Flask/) è usato qui per semplicità. Non è considerato un server web pronto per la produzione.

 Crea uno script del server web Flask che serva i due endpoint HTTP sulla porta TCP 8080 utilizzata da AI. SageMaker I seguenti sono i due endpoint previsti: 
+  `/ping`— SageMaker L'IA invia richieste HTTP GET a questo endpoint per verificare se il contenitore è pronto. Quando il contenitore è pronto, risponde alle richieste HTTP GET su questo endpoint con un codice di risposta HTTP 200. 
+  `/invocations`— SageMaker L'IA invia richieste HTTP POST a questo endpoint a scopo di inferenza. I dati di input per l'inferenza vengono inviati nel corpo della richiesta. Il tipo di contenuto specificato dall'utente viene passato nell'intestazione HTTP. Il corpo della risposta è l'output dell'inferenza. Per informazioni dettagliate sui timeout, vedere. [Requisiti e best practice per la creazione di prodotti di machine learning](ml-listing-requirements-and-best-practices.md) 

 **`./web_app_serve.py`** 

```
# Import modules
import json
import re
from flask import Flask
from flask import request
app = Flask(__name__)

# Create a path for health checks
@app.route("/ping")
def endpoint_ping():
  return ""
 
# Create a path for inference
@app.route("/invocations", methods=["POST"])
def endpoint_invocations():
  
  # Read the input
  input_str = request.get_data().decode("utf8")
  
  # Add your inference code between these comments.
  #
  #
  #
  #
  #
  # Add your inference code above this comment.
  
  # Return a response with a prediction
  response = {"prediction":"a","text":input_str}
  return json.dumps(response)
```

Nell'esempio precedente, non esiste una logica di inferenza effettiva. Per l'immagine di inferenza effettiva, aggiungi la logica di inferenza nell'app Web in modo che elabori l'input e restituisca la previsione effettiva.

L'immagine di inferenza deve contenere tutte le dipendenze richieste perché non avrà accesso a Internet né sarà in grado di effettuare chiamate verso nessuna di esse. Servizi AWS

**Nota**  
Lo stesso codice viene chiamato sia per le inferenze in tempo reale che per quelle in batch

#### Crea lo script per l'esecuzione del contenitore
<a name="ml-create-the-script-for-the-container-run"></a>

 Crea uno script denominato `serve` che l' SageMaker IA esegua quando esegue l'immagine del contenitore Docker. Lo script seguente avvia il server Web HTTP. 

 **`./serve`** 

```
#!/bin/bash

# Run flask server on port 8080 for SageMaker
flask run --host 0.0.0.0 --port 8080
```

#### Creazione del `Dockerfile`
<a name="ml-create-the-dockerfile"></a>

 Crea un `Dockerfile` nel tuo contesto di compilazione. Questo esempio utilizza Ubuntu 18.04, ma puoi iniziare da qualsiasi immagine di base che funzioni per il tuo framework. 

 `./Dockerfile` 

```
FROM ubuntu:18.04

# Specify encoding
ENV LC_ALL=C.UTF-8
ENV LANG=C.UTF-8

# Install python-pip
RUN apt-get update \
&& apt-get install -y python3.6 python3-pip \
&& ln -s /usr/bin/python3.6 /usr/bin/python \
&& ln -s /usr/bin/pip3 /usr/bin/pip;

# Install flask server
RUN pip install -U Flask;

# Add a web server script to the image
# Set an environment to tell flask the script to run
COPY /web_app_serve.py /web_app_serve.py
ENV FLASK_APP=/web_app_serve.py

# Add a script that Amazon SageMaker AI will run
# Set run permissions
# Prepend program directory to $PATH
COPY /serve /opt/program/serve
RUN chmod 755 /opt/program/serve
ENV PATH=/opt/program:${PATH}
```

 `Dockerfile`Aggiunge i due script creati in precedenza all'immagine. La directory dello `serve` script viene aggiunta al PATH in modo che possa essere eseguita durante l'esecuzione del contenitore. 

#### Package o carica gli artefatti del modello
<a name="ml-package-or-upload-the-model-artifacts"></a>

 I due modi per fornire gli artefatti del modello, dall'addestramento del modello all'immagine di inferenza, sono i seguenti: 
+  Confezionato staticamente con l'immagine di inferenza. 
+  Caricato dinamicamente in fase di esecuzione. Poiché è caricata dinamicamente, puoi utilizzare la stessa immagine per creare pacchetti di diversi modelli di machine learning.

 Se desideri impacchettare gli artefatti del modello con l'immagine di inferenza, includi gli artefatti in. `Dockerfile` 

 Se desideri caricare gli artefatti del modello in modo dinamico, archivia tali artefatti separatamente in un file compresso (.tar.gz) in Amazon S3. Quando crei il pacchetto del modello, specifica la posizione del file compresso e l' SageMaker IA estrae e copia il contenuto nella directory del contenitore durante l'esecuzione del contenitore. `/opt/ml/model/` Quando pubblichi il tuo pacchetto modello, questi artefatti vengono pubblicati e archiviati in bucket Amazon S3 di Marketplace AWS proprietà inaccessibili direttamente all'acquirente. 

### Fase 2: Creare e testare l'immagine localmente
<a name="ml-step-2-building-and-testing-the-image-locally"></a>

 Nel contesto della compilazione, ora esistono i seguenti file: 
+  `./Dockerfile` 
+  `./web_app_serve.py` 
+  `./serve` 
+  La tua logica di inferenza e le tue dipendenze (opzionali) 

 Successivamente compila, esegui e testa l'immagine del contenitore. 

#### Costruisci l'immagine
<a name="ml-build-the-image"></a>

 Esegui il comando Docker nel contesto di compilazione per creare e taggare l'immagine. Questo esempio utilizza il tag`my-inference-image`. 

```
sudo docker build --tag my-inference-image ./
```

 Dopo aver eseguito questo comando Docker per creare l'immagine, dovresti vedere l'output mentre Docker crea l'immagine in base a ciascuna riga del tuo. `Dockerfile` Al termine, dovresti vedere qualcosa di simile al seguente. 

```
Successfully built abcdef123456
Successfully tagged my-inference-image:latest
```

#### Esecuzione di in locale
<a name="ml-run-locally"></a>

 Una volta completata la compilazione, puoi testare l'immagine localmente. 

```
sudo docker run \
  --rm \
  --publish 8080:8080/tcp \
  --detach \
  --name my-inference-container \
  my-inference-image \
  serve
```

 Di seguito sono riportati i dettagli sul comando: 
+ `--rm`— Rimuove automaticamente il contenitore dopo che si è fermato.
+ `--publish 8080:8080/tcp`— Esponi la porta 8080 per simulare la porta a cui l' SageMaker IA invia le richieste HTTP.
+ `--detach`— Esegui il contenitore in background.
+ `--name my-inference-container`— Assegna un nome a questo contenitore funzionante.
+ `my-inference-image`— Esegui l'immagine creata.
+ `serve`— Esegui lo stesso script che l' SageMaker IA esegue durante l'esecuzione del contenitore.

 Dopo aver eseguito questo comando, Docker crea un contenitore dall'immagine di inferenza che hai creato e lo esegue in background. Il contenitore esegue lo `serve` script, che avvia il server Web a scopo di test. 

#### Esegui il test dell'endpoint HTTP per il ping
<a name="ml-test-the-ping-http-endpoint"></a>

 Quando l' SageMaker intelligenza artificiale esegue il container, esegue periodicamente il ping dell'endpoint. Quando l'endpoint restituisce una risposta HTTP con codice di stato 200, segnala all' SageMaker IA che il contenitore è pronto per l'inferenza. Puoi verificarlo eseguendo il comando seguente, che verifica l'endpoint e include l'intestazione della risposta. 

```
curl --include http://127.0.0.1:8080/ping
```

L'output di esempio è il seguente.

```
HTTP/1.0 200 OK
Content-Type: text/html; charset=utf-8
Content-Length: 0
Server: MyServer/0.16.0 Python/3.6.8
Date: Mon, 21 Oct 2019 06:58:54 GMT
```

#### Verifica l'endpoint HTTP di inferenza
<a name="ml-test-the-inference-http-endpoint"></a>

 Quando il contenitore indica di essere pronto restituendo un codice di stato 200 al ping, l' SageMaker IA passa i dati di inferenza all'endpoint `/invocations` HTTP tramite una richiesta. `POST` Verifica il punto di inferenza eseguendo il comando seguente. 

```
curl \
  --request POST \
  --data "hello world" \
  http://127.0.0.1:8080/invocations
```

 L'output di esempio è il seguente. 

 `{"prediction": "a", "text": "hello world"}` 

 Con questi due endpoint HTTP funzionanti, l'immagine di inferenza è ora compatibile con SageMaker l'IA. 

**Nota**  
 Il modello del prodotto del pacchetto modello può essere implementato in due modi: in tempo reale e in batch. In entrambe le implementazioni, l' SageMaker intelligenza artificiale utilizza gli stessi endpoint HTTP durante l'esecuzione del contenitore Docker. 

 Per arrestare il contenitore, esegui il comando seguente.

```
sudo docker container stop my-inference-container
```

 Quando l'immagine di inferenza è pronta e testata, puoi continuare a [Caricamento delle immagini su Amazon Elastic Container Registry](ml-uploading-your-images.md) farlo. 

# Creazione di immagini di algoritmi
<a name="ml-algorithm-images"></a>

Un algoritmo di SageMaker intelligenza artificiale di Amazon richiede che l'acquirente utilizzi i propri dati da addestrare prima di formulare previsioni. In qualità di Marketplace AWS venditore, puoi utilizzare l' SageMaker intelligenza artificiale per creare algoritmi e modelli di machine learning (ML) utilizzabili dai tuoi acquirenti. AWS Nelle sezioni seguenti viene illustrato come creare immagini di algoritmi per. Marketplace AWS Ciò include la creazione dell'immagine di addestramento Docker per addestrare l'algoritmo e dell'immagine di inferenza che contiene la logica di inferenza. Per la pubblicazione di un prodotto algoritmico sono necessarie sia le immagini di addestramento che quelle di inferenza.

**Topics**
+ [Panoramica di](#ml-algorithm-images-overview)
+ [Creazione di un'immagine di addestramento per algoritmi](#ml-creating-a-training-image-for-algorithms)
+ [Creazione di un'immagine di inferenza per algoritmi](#ml-creating-an-inference-image-for-algorithms)

## Panoramica di
<a name="ml-algorithm-images-overview"></a>

Un algoritmo include i seguenti componenti: 
+  Un'immagine di formazione archiviata in [Amazon ECR](https://aws.amazon.com/ecr/) 
+  Un'immagine di inferenza memorizzata in Amazon Elastic Container Registry (Amazon ECR) 

**Nota**  
 Per i prodotti algoritmici, il contenitore di addestramento genera artefatti del modello che vengono caricati nel contenitore di inferenza durante la distribuzione del modello. 

Il diagramma seguente mostra il flusso di lavoro per la pubblicazione e l'utilizzo di prodotti algoritmici.

![\[Diagramma di come un venditore crea l'immagine di un pacchetto di algoritmi e di come l'acquirente la utilizza.\]](http://docs.aws.amazon.com/it_it/marketplace/latest/userguide/images/ml-algorithm-package-images.png)


Il flusso di lavoro per la creazione di un algoritmo di SageMaker intelligenza artificiale per Marketplace AWS include i seguenti passaggi:

1. Il venditore crea un'immagine di formazione e un'immagine di inferenza (nessun accesso alla rete quando viene implementata) e la carica nel registro Amazon ECR. 

1. Il venditore crea quindi una risorsa algoritmica in Amazon SageMaker AI e pubblica il suo prodotto ML su Marketplace AWS.

1. L'acquirente si abbona al prodotto ML. 

1. L'acquirente crea un lavoro di formazione con un set di dati compatibile e valori iperparametrici appropriati. SageMaker L'intelligenza artificiale esegue l'immagine di allenamento e carica i dati di allenamento e gli iperparametri nel contenitore di formazione. [Al termine del processo di formazione, gli elementi del modello presenti `/opt/ml/model/` vengono compressi e copiati nel bucket Amazon S3 dell'acquirente.](https://aws.amazon.com/s3/) 

1. L'acquirente crea un pacchetto modello con gli elementi del modello tratti dal training archiviato in Amazon S3 e distribuisce il modello. 

1. SageMaker L'intelligenza artificiale esegue l'immagine di inferenza, estrae gli artefatti del modello compressi e carica i file nel percorso della directory del contenitore di inferenza, `/opt/ml/model/` dove vengono utilizzati dal codice che serve l'inferenza. 

1.  Indipendentemente dal fatto che il modello venga implementato come endpoint o come processo di trasformazione in batch, l' SageMaker IA trasmette i dati per l'inferenza per conto dell'acquirente al contenitore tramite l'endpoint HTTP del contenitore e restituisce i risultati della previsione. 

**Nota**  
 [Per ulteriori informazioni, consulta Train Models.](https://docs.aws.amazon.com/sagemaker/latest/dg/train-model.html) 

## Creazione di un'immagine di addestramento per algoritmi
<a name="ml-creating-a-training-image-for-algorithms"></a>

 Questa sezione fornisce una procedura dettagliata per impacchettare il codice di allenamento in un'immagine di allenamento. È necessaria un'immagine di addestramento per creare un prodotto algoritmico. 

 Un'*immagine di allenamento è un'immagine* Docker contenente l'algoritmo di allenamento. Il contenitore aderisce a una struttura di file specifica per consentire all' SageMaker IA di copiare i dati da e verso il contenitore. 

 Per la pubblicazione di un prodotto algoritmico sono necessarie sia le immagini di addestramento che quelle di inferenza. Dopo aver creato l'immagine di allenamento, è necessario creare un'immagine di inferenza. Le due immagini possono essere combinate in un'unica immagine o rimanere come immagini separate. Sta a te decidere se combinare le immagini o separarle. In genere, l'inferenza è più semplice dell'addestramento e potresti aver bisogno di immagini separate per migliorare le prestazioni di inferenza.

**Nota**  
 Quello che segue è solo un esempio di codice di imballaggio per un'immagine di addestramento. Per ulteriori informazioni, consulta [Utilizzare algoritmi e modelli personalizzati con e gli Marketplace AWS](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-marketplace.html) [esempi di Marketplace AWS SageMaker intelligenza artificiale](https://github.com/aws/amazon-sagemaker-examples/tree/master/aws_marketplace) su GitHub.

**Topics**
+ [Fase 1: Creazione dell'immagine del contenitore](#ml-step-1-creating-the-container-image-1)
+ [Fase 2: Creazione e test dell'immagine a livello locale](#ml-step-2-building-and-testing-the-image-locally-1)

### Fase 1: Creazione dell'immagine del contenitore
<a name="ml-step-1-creating-the-container-image-1"></a>

 Affinché l'immagine di addestramento sia compatibile con Amazon SageMaker AI, deve aderire a una struttura di file specifica per consentire all' SageMaker IA di copiare i dati di addestramento e gli input di configurazione su percorsi specifici del contenitore. Al termine della formazione, gli artefatti del modello generati vengono archiviati in un percorso di directory specifico nel contenitore da cui l'IA esegue le copie. SageMaker 

 Quanto segue utilizza la CLI Docker installata in un ambiente di sviluppo su una distribuzione Ubuntu di Linux. 
+ [Prepara il tuo programma per leggere gli input di configurazione](#ml-prepare-your-program-to-read-configuration-inputs)
+ [Prepara il programma per leggere gli input di dati](#ml-prepare-your-program-to-read-data-inputs)
+ [Prepara il tuo programma per scrivere risultati di formazione](#ml-prepare-your-program-to-write-training-outputs)
+ [Crea lo script per l'esecuzione del contenitore](#ml-create-the-script-for-the-container-run-1)
+ [Creazione del `Dockerfile`](#ml-create-the-dockerfile-1)

#### Prepara il tuo programma per leggere gli input di configurazione
<a name="ml-prepare-your-program-to-read-configuration-inputs"></a>

 Se il programma di formazione richiede input di configurazione forniti dall'acquirente, questi dati vengono copiati di seguito all'interno del container quando vengono eseguiti. Se necessario, il programma deve leggere questi percorsi di file specifici. 
+  `/opt/ml/input/config`è la directory che contiene le informazioni che controllano l'esecuzione del programma. 
  +  `hyperparameters.json`è un dizionario in formato JSON di nomi e valori di iperparametri. I valori sono stringhe, quindi potrebbe essere necessario convertirli. 
  +  `resourceConfig.json`[è un file in formato JSON che descrive il layout di rete utilizzato per l'addestramento distribuito.](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-training-algo-running-container.html#your-algorithms-training-algo-running-container-dist-training) Se l'immagine di allenamento non supporta la formazione distribuita, è possibile ignorare questo file. 

**Nota**  
 Per ulteriori informazioni sugli input di configurazione, consulta [How Amazon SageMaker AI Provides Training Information](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-training-algo-running-container.html). 

#### Prepara il programma per leggere gli input di dati
<a name="ml-prepare-your-program-to-read-data-inputs"></a>

 I dati di addestramento possono essere passati al contenitore in una delle due modalità seguenti. Il programma di allenamento eseguito nel contenitore digerisce i dati di allenamento in una di queste due modalità. 

 **Modalità file** 
+  `/opt/ml/input/data/<channel_name>/`contiene i dati di input per quel canale. I canali vengono creati in base alla chiamata all'`CreateTrainingJob`operazione, ma è generalmente importante che i canali corrispondano a quanto previsto dall'algoritmo. I file per ogni canale vengono copiati da [Amazon](https://aws.amazon.com/s3/) S3 in questa directory, preservando la struttura ad albero indicata dalla struttura chiave di Amazon S3. 

 **modalità Pipe** 
+  `/opt/ml/input/data/<channel_name>_<epoch_number>`è la pipa per una determinata epoca. Le epoche iniziano da zero e aumentano di una volta ogni volta che le leggi. Non c'è limite al numero di epoche che puoi percorrere, ma devi chiudere ogni pipa prima di leggere l'epoca successiva. 

#### Prepara il tuo programma per scrivere risultati di formazione
<a name="ml-prepare-your-program-to-write-training-outputs"></a>

 L'output del corso di formazione viene scritto nelle seguenti directory di contenitori: 
+  `/opt/ml/model/`è la directory in cui si scrive il modello o gli artefatti del modello generati dall'algoritmo di addestramento. Il modello può essere in qualsiasi formato desiderato. Può essere un singolo file o un intero albero di directory. SageMaker AI impacchetta tutti i file in questa directory in un file compresso (.tar.gz). Questo file è disponibile nella posizione Amazon S3 restituita dall'operazione `DescribeTrainingJob` API. 
+  `/opt/ml/output/`è una directory in cui l'algoritmo può scrivere un `failure` file che descrive il motivo per cui il processo non è riuscito. Il contenuto di questo file viene restituito nel `FailureReason` campo del `DescribeTrainingJob` risultato. Per i lavori che hanno esito positivo, non c'è motivo di scrivere questo file perché viene ignorato. 

#### Crea lo script per l'esecuzione del contenitore
<a name="ml-create-the-script-for-the-container-run-1"></a>

 Crea uno script di `train` shell che SageMaker AI esegue quando esegue l'immagine del contenitore Docker. Una volta completato l'addestramento e gli artefatti del modello vengono scritti nelle rispettive directory, uscite dallo script. 

 **`./train`** 

```
#!/bin/bash

# Run your training program here
#
#
#
#
```

#### Creazione del `Dockerfile`
<a name="ml-create-the-dockerfile-1"></a>

 Crea un file `Dockerfile` nel tuo contesto di compilazione. Questo esempio usa Ubuntu 18.04 come immagine di base, ma puoi iniziare da qualsiasi immagine di base che funzioni per il tuo framework. 

 **`./Dockerfile`** 

```
FROM ubuntu:18.04

# Add training dependencies and programs
#
#
#
#
#
# Add a script that SageMaker AI will run
# Set run permissions
# Prepend program directory to $PATH
COPY /train /opt/program/train
RUN chmod 755 /opt/program/train
ENV PATH=/opt/program:${PATH}
```

 `Dockerfile`Aggiunge lo `train` script creato in precedenza all'immagine. La directory dello script viene aggiunta a PATH in modo che possa essere eseguita durante l'esecuzione del contenitore. 

 Nell'esempio precedente, non esiste una logica di addestramento effettiva. Per creare l'immagine effettiva dell'allenamento, aggiungete le dipendenze di allenamento a e aggiungete la logica per leggere gli input di allenamento per addestrare e generare gli artefatti del modello. `Dockerfile` 

 L'immagine di allenamento deve contenere tutte le dipendenze richieste perché non avrà accesso a Internet. 

 Per ulteriori informazioni, consulta [Utilizzare algoritmi e modelli personalizzati con e gli Marketplace AWS](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-marketplace.html) [esempi di Marketplace AWS SageMaker intelligenza artificiale](https://github.com/aws/amazon-sagemaker-examples/tree/master/aws_marketplace) su. GitHub

### Fase 2: Creazione e test dell'immagine a livello locale
<a name="ml-step-2-building-and-testing-the-image-locally-1"></a>

 Nel contesto della compilazione, ora esistono i seguenti file: 
+ `./Dockerfile`
+ `./train`
+ Le tue dipendenze e la tua logica di allenamento

 Successivamente puoi creare, eseguire e testare questa immagine del contenitore. 

#### Costruisci l'immagine
<a name="ml-build-the-image-1"></a>

 Esegui il comando Docker nel contesto di compilazione per creare e taggare l'immagine. Questo esempio utilizza il tag`my-training-image`. 

```
sudo docker build --tag my-training-image ./
```

 Dopo aver eseguito questo comando Docker per creare l'immagine, dovresti vedere l'output mentre Docker crea l'immagine in base a ciascuna riga del tuo. `Dockerfile` Al termine, dovresti vedere qualcosa di simile al seguente. 

```
Successfully built abcdef123456
Successfully tagged my-training-image:latest
```

#### Esecuzione di in locale
<a name="ml-run-locally-1"></a>

 Al termine, prova l'immagine localmente come mostrato nell'esempio seguente. 

```
sudo docker run \
  --rm \
  --volume '<path_to_input>:/opt/ml/input:ro' \
  --volume '<path_to_model>:/opt/ml/model' \
  --volume '<path_to_output>:/opt/ml/output' \
  --name my-training-container \
  my-training-image \
  train
```

 Di seguito sono riportati i dettagli del comando: 
+  `--rm`— Rimuove automaticamente il contenitore dopo l'arresto. 
+  `--volume '<path_to_input>:/opt/ml/input:ro'`— Rendi la directory di input di test disponibile per il contenitore in modalità di sola lettura. 
+  `--volume '<path_to_model>:/opt/ml/model'`— Bind monta il percorso in cui gli artefatti del modello vengono archiviati sulla macchina host al termine del test di addestramento. 
+  `--volume '<path_to_output>:/opt/ml/output'`— Bind mount il percorso in cui viene scritto il motivo dell'errore in un `failure` file sul computer host. 
+  `--name my-training-container`— Assegna un nome a questo contenitore funzionante. 
+  `my-training-image`— Esegui l'immagine creata. 
+  `train`— Esegui lo stesso script che SageMaker AI esegue durante l'esecuzione del contenitore. 

 Dopo aver eseguito questo comando, Docker crea un contenitore dall'immagine di training creata e lo esegue. Il contenitore esegue lo `train` script, che avvia il programma di allenamento. 

 Una volta terminato il programma di allenamento e chiuso il contenitore, verificate che gli artefatti del modello di output siano corretti. Inoltre, controllate gli output dei log per confermare che non producano log indesiderati, assicurandovi al contempo che vengano fornite informazioni sufficienti sul processo di formazione. 

 Questo completa l'imballaggio del codice di addestramento per un prodotto algoritmico. Poiché un prodotto algoritmico include anche un'immagine di inferenza, passa alla sezione successiva,. [Creazione di un'immagine di inferenza per algoritmi](#ml-creating-an-inference-image-for-algorithms) 

## Creazione di un'immagine di inferenza per algoritmi
<a name="ml-creating-an-inference-image-for-algorithms"></a>

 Questa sezione fornisce una procedura dettagliata per impacchettare il codice di inferenza in un'immagine di inferenza per il prodotto dell'algoritmo. 

 L'immagine di inferenza è un'immagine Docker contenente la logica di inferenza. Il contenitore in fase di esecuzione espone gli endpoint HTTP per consentire all' SageMaker IA di trasferire dati da e verso il contenitore. 

 Per la pubblicazione di un prodotto algoritmico sono necessarie sia le immagini di addestramento che quelle di inferenza. Se non l'hai ancora fatto, consulta la sezione precedente su[Creazione di un'immagine di addestramento per algoritmi](#ml-creating-a-training-image-for-algorithms). Le due immagini possono essere combinate in un'unica immagine o rimanere come immagini separate. Sta a te decidere se combinare le immagini o separarle. In genere, l'inferenza è più semplice dell'addestramento e potresti aver bisogno di immagini separate per migliorare le prestazioni di inferenza.

**Nota**  
 Quello che segue è solo un esempio di codice di imballaggio per un'immagine di inferenza. Per ulteriori informazioni, consulta [Utilizzare algoritmi e modelli personalizzati con e gli Marketplace AWS](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-marketplace.html) [esempi di Marketplace AWS SageMaker intelligenza artificiale](https://github.com/aws/amazon-sagemaker-examples/tree/master/aws_marketplace) attivati. GitHub  
L'esempio seguente utilizza un servizio web, [Flask](https://pypi.org/project/Flask/), per semplicità e non è considerato pronto per la produzione.

**Topics**
+ [Passaggio 1: creazione dell'immagine di inferenza](#ml-step-1-creating-the-inference-image)
+ [Fase 2: Creazione e test dell'immagine a livello locale](#ml-step-2-building-and-testing-the-image-locally-2)

### Passaggio 1: creazione dell'immagine di inferenza
<a name="ml-step-1-creating-the-inference-image"></a>

 Affinché l'immagine di inferenza sia compatibile con l' SageMaker intelligenza artificiale, l'immagine Docker deve esporre gli endpoint HTTP. Mentre il container è in esecuzione, l'SageMaker intelligenza artificiale trasmette gli input per l'inferenza forniti dall'acquirente all'endpoint HTTP del contenitore. Il risultato dell'inferenza viene restituito nel corpo della risposta HTTP. 

 Quanto segue utilizza la CLI Docker installata in un ambiente di sviluppo su una distribuzione Ubuntu di Linux. 
+ [Crea lo script del server web](#ml-create-the-web-server-script-1) 
+ [Crea lo script per l'esecuzione del contenitore](#ml-create-the-script-for-the-container-run-2)
+ [Creazione del `Dockerfile`](#ml-create-the-dockerfile-2)
+ [Preparazione del programma per caricare dinamicamente gli artefatti del modello](#ml-preparing-your-program-to-dynamically-load-model-artifacts)

#### Crea lo script del server web
<a name="ml-create-the-web-server-script-1"></a>

 Questo esempio utilizza un server Python chiamato [Flask](https://pypi.org/project/Flask/), ma puoi usare qualsiasi server web che funzioni per il tuo framework. 

**Nota**  
[Flask](https://pypi.org/project/Flask/) è usato qui per semplicità. Non è considerato un server web pronto per la produzione.

 Crea lo script del server web Flask che serve i due endpoint HTTP sulla porta TCP 8080 utilizzata da AI. SageMaker I seguenti sono i due endpoint previsti: 
+  `/ping`— SageMaker L'IA invia richieste HTTP GET a questo endpoint per verificare se il contenitore è pronto. Quando il contenitore è pronto, risponde alle richieste HTTP GET su questo endpoint con un codice di risposta HTTP 200. 
+  `/invocations`— SageMaker L'IA invia richieste HTTP POST a questo endpoint a scopo di inferenza. I dati di input per l'inferenza vengono inviati nel corpo della richiesta. Il tipo di contenuto specificato dall'utente viene passato nell'intestazione HTTP. Il corpo della risposta è l'output dell'inferenza. 

 **`./web_app_serve.py`** 

```
# Import modules
import json
import re
from flask import Flask
from flask import request
app = Flask(__name__)

# Create a path for health checks
@app.route("/ping")
def endpoint_ping():
  return ""
 
# Create a path for inference
@app.route("/invocations", methods=["POST"])
def endpoint_invocations():
  
  # Read the input
  input_str = request.get_data().decode("utf8")
  
  # Add your inference code here.
  #
  #
  #
  #
  #
  # Add your inference code here.
  
  # Return a response with a prediction
  response = {"prediction":"a","text":input_str}
  return json.dumps(response)
```

 Nell'esempio precedente, non esiste una logica di inferenza effettiva. Per l'immagine di inferenza effettiva, aggiungi la logica di inferenza nell'app Web in modo che elabori l'input e restituisca la previsione. 

 L'immagine di inferenza deve contenere tutte le dipendenze richieste perché non avrà accesso a Internet. 

#### Crea lo script per l'esecuzione del contenitore
<a name="ml-create-the-script-for-the-container-run-2"></a>

 Crea uno script denominato `serve` che l' SageMaker IA esegua quando esegue l'immagine del contenitore Docker. In questo script, avvia il server web HTTP. 

 **`./serve`** 

```
#!/bin/bash

# Run flask server on port 8080 for SageMaker AI
flask run --host 0.0.0.0 --port 8080
```

#### Creazione del `Dockerfile`
<a name="ml-create-the-dockerfile-2"></a>

 Crea un `Dockerfile` nel tuo contesto di compilazione. Questo esempio utilizza Ubuntu 18.04, ma puoi iniziare da qualsiasi immagine di base che funzioni per il tuo framework. 

 **`./Dockerfile`** 

```
FROM ubuntu:18.04

# Specify encoding
ENV LC_ALL=C.UTF-8
ENV LANG=C.UTF-8

# Install python-pip
RUN apt-get update \
&& apt-get install -y python3.6 python3-pip \
&& ln -s /usr/bin/python3.6 /usr/bin/python \
&& ln -s /usr/bin/pip3 /usr/bin/pip;

# Install flask server
RUN pip install -U Flask;

# Add a web server script to the image
# Set an environment to tell flask the script to run
COPY /web_app_serve.py /web_app_serve.py
ENV FLASK_APP=/web_app_serve.py

# Add a script that Amazon SageMaker AI will run
# Set run permissions
# Prepend program directory to $PATH
COPY /serve /opt/program/serve
RUN chmod 755 /opt/program/serve
ENV PATH=/opt/program:${PATH}
```

 `Dockerfile`Aggiunge i due script creati in precedenza all'immagine. La directory dello `serve` script viene aggiunta al PATH in modo che possa essere eseguita durante l'esecuzione del contenitore. 

#### Preparazione del programma per caricare dinamicamente gli artefatti del modello
<a name="ml-preparing-your-program-to-dynamically-load-model-artifacts"></a>

 Per quanto riguarda i prodotti basati su algoritmi, l'acquirente utilizza i propri set di dati con l'immagine di addestramento per generare artefatti modello unici. Al termine del processo di formazione, il contenitore di formazione invia gli artefatti del modello nella directory del contenitore. ` /opt/ml/model/` SageMaker L'intelligenza artificiale comprime il contenuto di quella directory in un file.tar.gz e lo archivia nell'archivio dell'acquirente in Amazon S3. Account AWS 

 Quando il modello viene distribuito, l' SageMaker intelligenza artificiale esegue l'immagine di inferenza, estrae gli artefatti del modello dal file.tar.gz archiviato nell'account dell'acquirente in Amazon S3 e li carica nel contenitore di inferenza nella directory. `/opt/ml/model/` In fase di esecuzione, il codice del contenitore di inferenza utilizza i dati del modello. 

**Nota**  
 Per proteggere qualsiasi proprietà intellettuale che potrebbe essere contenuta nei file degli artefatti del modello, potete scegliere di crittografare i file prima di emetterli. Per ulteriori informazioni, consulta [Sicurezza e proprietà intellettuale con Amazon SageMaker AI](ml-security-and-intellectual-property.md). 

### Fase 2: Creazione e test dell'immagine a livello locale
<a name="ml-step-2-building-and-testing-the-image-locally-2"></a>

 Nel contesto della compilazione, ora esistono i seguenti file: 
+ `./Dockerfile`
+ `./web_app_serve.py`
+ `./serve`

 Successivamente puoi creare, eseguire e testare questa immagine del contenitore. 

#### Costruisci l'immagine
<a name="ml-build-the-image-2"></a>

 Esegui il comando Docker per creare e taggare l'immagine. Questo esempio utilizza il tag`my-inference-image`. 

```
sudo docker build --tag my-inference-image ./
```

 Dopo aver eseguito questo comando Docker per creare l'immagine, dovresti vedere l'output mentre Docker crea l'immagine in base a ciascuna riga del tuo. `Dockerfile` Al termine, dovresti vedere qualcosa di simile al seguente. 

```
Successfully built abcdef123456
Successfully tagged my-inference-image:latest
```

#### Esecuzione di in locale
<a name="ml-run-locally-2"></a>

 Una volta completata la compilazione, puoi testare l'immagine localmente. 

```
sudo docker run \
  --rm \
  --publish 8080:8080/tcp \
  --volume '<path_to_model>:/opt/ml/model:ro' \
  --detach \
  --name my-inference-container \
  my-inference-image \
  serve
```

 Di seguito sono riportati i dettagli del comando: 
+  `--rm`— Rimuove automaticamente il contenitore dopo l'arresto. 
+  `--publish 8080:8080/tcp`— Esporre la porta 8080 per simulare la porta a cui l' SageMaker IA invia le richieste HTTP. 
+  `--volume '<path_to_model>:/opt/ml/model:ro'`— Bind mount (il percorso in cui gli artefatti del modello di test sono archiviati sulla macchina host) come di sola lettura per renderli disponibili al codice di inferenza nel contenitore. 
+  `--detach`— Esegui il contenitore in background. 
+  `--name my-inference-container`— Assegna un nome a questo contenitore funzionante. 
+  `my-inference-image`— Esegui l'immagine creata. 
+  `serve`— Esegui lo stesso script che SageMaker AI esegue durante l'esecuzione del contenitore. 

 Dopo aver eseguito questo comando, Docker crea un contenitore dall'immagine di inferenza e lo esegue in background. Il contenitore esegue lo `serve` script, che avvia il server Web a scopo di test. 

#### Esegui il test dell'endpoint HTTP per il ping
<a name="ml-test-the-ping-http-endpoint-1"></a>

 Quando l' SageMaker intelligenza artificiale esegue il container, esegue periodicamente il ping dell'endpoint. Quando l'endpoint restituisce una risposta HTTP con codice di stato 200, segnala all' SageMaker IA che il contenitore è pronto per l'inferenza. 

 Esegui il comando seguente per testare l'endpoint e includere l'intestazione della risposta. 

```
curl --include http://127.0.0.1:8080/ping
```

 L'output di esempio è mostrato nell'esempio seguente. 

```
HTTP/1.0 200 OK
Content-Type: text/html; charset=utf-8
Content-Length: 0
Server: MyServer/0.16.0 Python/3.6.8
Date: Mon, 21 Oct 2019 06:58:54 GMT
```

#### Verifica l'endpoint HTTP di inferenza
<a name="ml-test-the-inference-http-endpoint-1"></a>

 Quando il contenitore indica di essere pronto restituendo un codice di stato 200, l' SageMaker IA passa i dati di inferenza all'endpoint `/invocations` HTTP tramite una richiesta. `POST` 

 Esegui il comando seguente per testare l'endpoint di inferenza. 

```
curl \
  --request POST \
  --data "hello world" \
  http://127.0.0.1:8080/invocations
```

 L'output di esempio è mostrato nell'esempio seguente. 

```
{"prediction": "a", "text": "hello world"}
```

 Con questi due endpoint HTTP funzionanti, l'immagine di inferenza è ora compatibile con SageMaker l'IA. 

**Nota**  
 Il modello del prodotto algoritmico può essere implementato in due modi: in tempo reale e in batch. Per entrambe le implementazioni, l' SageMaker intelligenza artificiale utilizza gli stessi endpoint HTTP durante l'esecuzione del contenitore Docker. 

 Per arrestare il contenitore, esegui il comando seguente. 

```
sudo docker container stop my-inference-container
```

 Dopo che le immagini di addestramento e di inferenza del prodotto algoritmico sono pronte e testate, continuate[Caricamento delle immagini su Amazon Elastic Container Registry](ml-uploading-your-images.md). 

# Caricamento delle immagini su Amazon Elastic Container Registry
<a name="ml-uploading-your-images"></a>

Dopo aver creato le immagini di inferenza e addestramento, puoi caricarle su Amazon Elastic Container Registry. [Amazon ECR](https://aws.amazon.com/ecr/) è un registro Docker completamente gestito. Amazon SageMaker AI estrae immagini da Amazon ECR per creare un pacchetto modello per l'inferenza o un algoritmo per i lavori di formazione. Marketplace AWS recupera inoltre queste immagini da Amazon ECR per pubblicare il tuo pacchetto modello e i tuoi prodotti algoritmici. Questo argomento fornisce una procedura dettagliata per caricare le immagini di inferenza e addestramento su Amazon ECR.

**Topics**
+ [Quali immagini devo caricare?](#ml-which-images-must-i-upload)
+ [Quali autorizzazioni IAM sono richieste?](#ml-what-iam-permissions-are-required)
+ [Accedi al tuo client Docker in AWS](#ml-log-in-your-docker-client)
+ [Crea un repository e carica l'immagine](#ml-create-repository-and-upload-image)
+ [Scansiona l'immagine caricata](#ml-scan-your-uploaded-image)

## Quali immagini devo caricare?
<a name="ml-which-images-must-i-upload"></a>

 Se stai pubblicando un pacchetto modello, carica solo un'immagine di inferenza. Se stai pubblicando un algoritmo, carica sia un'immagine di inferenza che un'immagine di addestramento. Se le immagini di inferenza e di addestramento sono combinate, carica l'immagine combinata una sola volta. 

## Quali autorizzazioni IAM sono richieste?
<a name="ml-what-iam-permissions-are-required"></a>

 I passaggi seguenti presuppongono che il computer locale disponga delle AWS credenziali corrette per un ruolo o un utente AWS Identity and Access Management (IAM) del venditore. Account AWS Il ruolo o l'utente deve disporre delle politiche corrette sia per Amazon ECR che Marketplace AWS per Amazon ECR. Ad esempio, puoi utilizzare le seguenti politiche AWS gestite: 
+  [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AWSMarketplaceSellerProductsFullAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AWSMarketplaceSellerProductsFullAccess.html)— Per accedere a Marketplace AWS 
+  [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonEC2ContainerRegistryFullAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonEC2ContainerRegistryFullAccess.html)— Per l'accesso ad Amazon ECR 

**Nota**  
I link portano al *AWS Managed Policy Reference.*

## Accedi al tuo client Docker in AWS
<a name="ml-log-in-your-docker-client"></a>

 Imposta una variabile da Regione AWS cui vuoi pubblicare (vedi[Supportato per la pubblicazione Regioni AWS](ml-service-restrictions-and-limits.md#ml-supported-aws-regions-for-publishing)). Per questo esempio, utilizzate la regione Stati Uniti orientali (Ohio). 

```
region=us-east-2
```

 Esegui il comando seguente per impostare una variabile con il tuo Account AWS ID. Questo esempio presuppone che le credenziali current AWS Command Line Interface (AWS CLI) appartengano al venditore. Account AWS

```
account=$(aws sts get-caller-identity --query Account --output text)
```

 Per autenticare il tuo client Docker CLI con il registro Docker Account AWS Amazon ECR per la tua regione, esegui il comando seguente.

```
aws ecr get-login-password \
--region ${region} \
| sudo docker login \
--username AWS \
--password-stdin \
${account}.dkr.ecr.${region}.amazonaws.com
```

## Crea un repository e carica l'immagine
<a name="ml-create-repository-and-upload-image"></a>

 Imposta una variabile per il tag dell'immagine caricata e un'altra variabile per il nome dell'archivio di immagini caricate. 

```
image=my-inference-image
repo=my-inference-image
```

**Nota**  
 Nelle sezioni precedenti di questa guida, in cui sono state create le immagini di inferenza e di addestramento, erano contrassegnate rispettivamente come **my-inference-image**e **my-training-image**. Per questo esempio, create e caricate l'immagine di inferenza in un repository con lo stesso nome. 

 Esegui il seguente comando per creare l'archivio di immagini in Amazon ECR. 

```
aws ecr --region ${region} create-repository --repository-name "${repo}"
```

 Il nome completo della posizione del repository Amazon ECR è composto dalle seguenti parti: ` <account-id>.dkr.ecr.<region>.amazonaws.com/<image-repository-name>` 

 Per inviare l'immagine al repository, devi etichettarla con il nome completo della posizione del repository. 

 Imposta una variabile per il nome completo della posizione del deposito di immagini insieme al tag. `latest` 

```
fullname="${account}.dkr.ecr.${region}.amazonaws.com/${repo}:latest"
```

 Etichetta l'immagine con il nome completo. 

```
sudo docker tag ${image} ${fullname}
```

 Infine, invia l'immagine di inferenza al repository in Amazon ECR. 

```
sudo docker push ${fullname}
```

 Una volta completato il caricamento, l'immagine viene visualizzata nell'[elenco dei repository della console Amazon ECR](https://console.aws.amazon.com/ecr/repositories?region=us-east-2) nella regione da cui stai pubblicando. Nell'esempio precedente, l'immagine è stata inviata a un repository nella regione degli Stati Uniti orientali (Ohio). 

## Scansiona l'immagine caricata
<a name="ml-scan-your-uploaded-image"></a>

 Nella [console Amazon ECR](https://console.aws.amazon.com/ecr/repositories?region=us-east-2), scegli il file da Regione AWS cui stai pubblicando e apri il repository in cui è stata caricata l'immagine. Seleziona l'immagine caricata e avvia una scansione per verificare la presenza di vulnerabilità note. Marketplace AWS controlla i risultati della scansione Amazon ECR delle immagini dei container utilizzate nella tua risorsa Amazon SageMaker AI prima di pubblicarla. Prima di creare il prodotto, devi correggere le immagini dei container che presentano vulnerabilità di gravità critica o elevata. 

 Dopo aver eseguito correttamente la scansione, le immagini possono essere utilizzate per creare un pacchetto modello o una risorsa algoritmica. 

Se ritieni che il prodotto presentasse errori nella scansione che sono falsi positivi, contatta il team [operativo del Marketplace AWS venditore](https://aws.amazon.com/marketplace/management/contact-us) per fornire informazioni sull'errore.

 **Fasi successive** 
+  Vedi i limiti di dimensione in [Requisiti e best practice per la creazione di prodotti di machine learning](ml-listing-requirements-and-best-practices.md) 
+  Continua a [Creare la tua risorsa Amazon SageMaker AI](ml-creating-your-amazon-sagemaker-resource.md) 

# Creare la tua risorsa Amazon SageMaker AI
<a name="ml-creating-your-amazon-sagemaker-resource"></a>

 Per pubblicare un pacchetto modello o un prodotto algoritmico, devi creare la rispettiva [risorsa del pacchetto modello](https://docs.aws.amazon.com/marketplace/latest/userguide/ml-creating-your-amazon-sagemaker-resource.html#ml-creating-your-model-package-product) o della [risorsa algoritmica](https://docs.aws.amazon.com/marketplace/latest/userguide/ml-creating-your-amazon-sagemaker-resource.html#ml-creating-your-algorithm-product) in Amazon SageMaker AI. Quando crei una risorsa per un Marketplace AWS prodotto, questa deve essere certificata attraverso una fase di convalida. La fase di convalida richiede la fornitura di dati per testare il pacchetto del modello o la risorsa algoritmica prima che possa essere pubblicata. Le sezioni seguenti mostrano come creare una risorsa SageMaker AI, una risorsa del pacchetto modello o una risorsa algoritmica. Ciò include l'impostazione delle specifiche di convalida che indicano all' SageMaker IA come eseguire la convalida. 

**Nota**  
Se non hai ancora creato le immagini per il tuo prodotto e non le hai caricate su Amazon Elastic Container Registry (Amazon ECR), [Imballaggio del codice in immagini per prodotti di apprendimento automatico in Marketplace AWS](ml-packaging-your-code-into-images.md) consulta [Caricamento delle immagini su Amazon Elastic Container Registry](ml-uploading-your-images.md) e per informazioni su come farlo.

**Topics**
+ [Creazione del pacchetto modello](#ml-creating-your-model-package-product)
+ [Creazione del tuo algoritmo](#ml-creating-your-algorithm-product)

## Creazione del pacchetto modello
<a name="ml-creating-your-model-package-product"></a>

 Di seguito sono riportati i requisiti per la creazione di un pacchetto modello per Marketplace AWS: 
+  Un'immagine di inferenza memorizzata in [Amazon ECR](https://aws.amazon.com/ecr/) 
+  [(Facoltativo) Artefatti del modello, archiviati separatamente in Amazon S3](https://aws.amazon.com/s3/) 
+ I tuoi dati di test utilizzati per le inferenze, archiviati in Amazon Simple Storage Service 

**Nota**  
 Quanto segue riguarda la creazione di un pacchetto modello di prodotto. Per ulteriori informazioni sui pacchetti modello in SageMaker AI, consulta [Create a Model Package Resource](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-mkt-create-model-package.html). 

### Creazione delle risorse del pacchetto modello
<a name="ml-create-model-package"></a>

Le seguenti procedure illustrano la creazione delle risorse del pacchetto modello.

**Fase 1: Creare le risorse del pacchetto modello**

1. Apri la [console Amazon SageMaker AI](https://us-east-2.console.aws.amazon.com/sagemaker/home).

1. Assicurati di trovarti nella AWS regione da cui desideri pubblicare guardando in alto a destra della pagina. Per la pubblicazione, consulta la [Supportato per la pubblicazione Regioni AWS](ml-service-restrictions-and-limits.md#ml-supported-aws-regions-for-publishing) sezione. L'immagine di inferenza che hai caricato su Amazon ECR nei passaggi precedenti deve trovarsi nella stessa regione. 

1. Nel menu di navigazione a sinistra, scegli Pacchetti **modello**.

1. Selezionare **Crea pacchetto di modelli**.

Dopo aver creato il pacchetto, è necessario impostare le specifiche del pacchetto di inferenza.

**Fase 2: Impostare le specifiche di inferenza**

1.  Fornite un **nome** per il pacchetto del modello (ad esempio,*my-model-package*). 

1.  Per **Location of inference image**, inserisci l'URI dell'immagine di inferenza che è stata caricata su Amazon ECR. Puoi recuperare l'URI localizzando l'immagine nella console [Amazon ECR](https://us-east-2.console.aws.amazon.com/ecr/repositories). 

1.  **Se gli artefatti del modello derivanti dall'addestramento sono inclusi nella logica dell'immagine di inferenza, lascia vuota la casella Posizione degli artefatti dei dati del modello.** Altrimenti, specifica la posizione completa in Amazon S3 del file compresso (.tar.gz) degli artefatti del modello. 

1.  *Utilizzando la casella a discesa, scegli i tipi di istanza supportati della tua immagine di inferenza sia per l'inferenza in tempo reale (nota anche come endpoint) che per i lavori di trasformazione in batch.* 

1.  Scegli **Next (Successivo)**. 

 Prima di poter creare e pubblicare il pacchetto modello, è necessaria la convalida per garantire che funzioni come previsto. Ciò richiede l'esecuzione di un processo di trasformazione in batch con i dati di test per l'inferenza forniti dall'utente. Le specifiche di convalida indicano all' SageMaker IA come eseguire la convalida. 

**Fase 3: Impostare le specifiche di convalida**

1.  Imposta **Pubblica questo pacchetto modello su** **Sì**. Marketplace AWS Se lo imposti su **No, non** puoi pubblicare questo pacchetto modello in un secondo momento. La scelta di **Sì** [certifica](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModelPackage.html#sagemaker-CreateModelPackage-request-CertifyForMarketplace) il pacchetto modello per Marketplace AWS e richiede la fase di convalida. 

1.  Se è la prima volta che completi questo processo, scegli **Crea un nuovo ruolo per il ruolo** **IAM**. Amazon SageMaker AI utilizza questo ruolo quando distribuisce il tuo pacchetto modello. Ciò include azioni, come estrarre immagini da Amazon ECR e artefatti da Amazon S3. **Controlla le impostazioni e scegli Crea ruolo.** La creazione di un ruolo qui concede le autorizzazioni descritte dalla policy [ AmazonSageMakerFullAccess](https://console.aws.amazon.com/iam/home#/policies/arn:aws:iam::aws:policy/AmazonSageMakerFullAccess)IAM al ruolo che crei. 

1.  Modifica il codice **JSON nel profilo** di convalida. Per informazioni dettagliate sui valori consentiti, consulta. [TransformJobDefinition](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TransformJobDefinition.html) 

   1.  `TransformInput.DataSource.S3Uri`: Imposta dove vengono archiviati i dati del test per l'inferenza. 

   1.  `TransformInput.ContentType`: Specificate il tipo di contenuto dei dati di test (ad esempio `application/json``text/plain`,,`image/png `, o qualsiasi altro valore). SageMaker L'intelligenza artificiale non convalida i dati di input effettivi. Questo valore viene passato all'endpoint HTTP del contenitore nel valore dell'`Content-type`intestazione. 

   1.  `TransformInput.CompressionType`: impostato su `None` se i dati di test per l'inferenza in Amazon S3 non sono compressi. 

   1.  `TransformInput.SplitType`: impostato per `None` passare ogni oggetto in Amazon S3 nel suo insieme per l'inferenza. 

   1.  `TransformOutput.S3OutputPath`: Imposta la posizione in cui viene memorizzato l'output dell'inferenza. 

   1.  `TransformOutput.AssembleWith`: impostato su `None` per generare ogni inferenza come oggetti separati in Amazon S3. 

1.  Selezionare **Crea pacchetto di modelli**. 

 SageMaker L'intelligenza artificiale estrae l'immagine di inferenza da Amazon ECR, copia tutti gli artefatti nel contenitore di inferenza ed esegue un processo di trasformazione in batch utilizzando i dati di test per l'inferenza. **Una volta completata la convalida, lo stato passa a Completato.** 

**Nota**  
 La fase di convalida non valuta l'accuratezza del modello con i dati di test. La fase di convalida verifica se il contenitore funziona e risponde come previsto. 

 Hai completato la creazione delle risorse del prodotto modello. Continua su [Inserire il prodotto in Marketplace AWS](ml-publishing-your-product-in-aws-marketplace.md). 

## Creazione del tuo algoritmo
<a name="ml-creating-your-algorithm-product"></a>

 Di seguito sono riportati i requisiti per la creazione di un algoritmo per Marketplace AWS: 
+ Un'immagine di inferenza, archiviata in Amazon ECR 
+ Un'immagine di formazione, archiviata in Amazon ECR 
+  I tuoi dati di test per la formazione, archiviati in Amazon S3 
+ I tuoi dati di test per l'inferenza, archiviati in Amazon S3 

**Nota**  
 La procedura dettagliata seguente crea un prodotto algoritmico. Per ulteriori informazioni, consulta [Create an Algorithm Resource](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-mkt-create-algo.html). 

### Creazione delle risorse dell'algoritmo
<a name="ml-create-algorithm"></a>

Le seguenti procedure illustrano la creazione delle risorse nel pacchetto di algoritmi.

**Fase 1: Creare le risorse dell'algoritmo**

1.  Apri la [console Amazon SageMaker AI](https://us-east-2.console.aws.amazon.com/sagemaker/home). 

1.  Assicurati di trovarti nella AWS regione da cui desideri pubblicare guardando in alto a destra della pagina (vedi[Supportato per la pubblicazione Regioni AWS](ml-service-restrictions-and-limits.md#ml-supported-aws-regions-for-publishing)). Le immagini di addestramento e inferenza che hai caricato su Amazon ECR nei passaggi precedenti devono trovarsi nella stessa regione. 

1.  **Nel menu di navigazione a sinistra, scegli Algoritmi.** 

1.  Seleziona **Crea algoritmo**. 

Dopo aver creato il pacchetto di algoritmi, è necessario impostare le specifiche per l'addestramento e la messa a punto del modello.

**Fase 2: Impostare le specifiche di allenamento e messa a punto**

1.  Immettete il **nome** dell'algoritmo (ad esempio,*my-algorithm*). 

1.  Per **l'immagine di formazione**, incolla la posizione URI completa dell'immagine di formazione che è stata caricata su Amazon ECR. Puoi recuperare l'URI localizzando l'immagine nella console [Amazon ECR](https://us-east-2.console.aws.amazon.com/ecr/repositories). 

1.  Utilizzando il menu a discesa, scegli i **tipi di istanze per la formazione supportati dall'immagine di formazione**. 

1.  Nella sezione **Specifiche del canale**, aggiungi un canale per ogni set di dati di input supportato dall'algoritmo, fino a 20 canali di sorgenti di input. Per ulteriori informazioni, consulta [Configurazione dei dati di input](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-training-algo-running-container.html#your-algorithms-training-algo-running-container-inputdataconfig). 

1.  Scegli **Next (Successivo)**. 

1. Se l'algoritmo supporta gli iperparametri e l'ottimizzazione degli iperparametri, è necessario specificare i parametri di ottimizzazione.

1.  Scegli **Next (Successivo)**. 

**Nota**  
 Consigliamo vivamente che l'algoritmo supporti l'ottimizzazione degli iperparametri e renda regolabili i parametri appropriati. Ciò consente ai data scientist di ottimizzare i modelli per ottenere i migliori risultati. 

Dopo aver impostato gli eventuali parametri di regolazione, è necessario impostare le specifiche per l'immagine di inferenza.

**Fase 3: Impostare le specifiche dell'immagine di inferenza**

1.  Per l'**immagine della posizione di inferenza**, incolla l'URI dell'immagine di inferenza che è stata caricata su Amazon ECR. Puoi recuperare l'URI localizzando l'immagine nella console [Amazon ECR](https://us-east-2.console.aws.amazon.com/ecr/repositories). 

1.  *Utilizzando la casella a discesa, scegli i tipi di istanza supportati per la tua immagine di inferenza sia per i lavori di inferenza in tempo reale (nota anche come endpoint) che per i lavori di trasformazione in batch.* 

1.  Scegli **Next (Successivo)**. 

 Prima che l'algoritmo possa essere creato e pubblicato, è necessaria la convalida per garantire che funzioni come previsto. Ciò richiede l'esecuzione sia di un processo di formazione con dati di test per l'addestramento sia di un processo di trasformazione in batch con dati di test per l'inferenza forniti dall'utente. Le specifiche di convalida indicano all' SageMaker IA come eseguire la convalida. 

**Fase 4: Impostare le specifiche di convalida**

1.  Imposta **Pubblica questo algoritmo Marketplace AWS** su **Sì**. Se lo imposti su **No, non** potrai pubblicare questo algoritmo in un secondo momento. La scelta di **Sì** [certifica l'](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAlgorithm.html#sagemaker-CreateAlgorithm-request-CertifyForMarketplace)algoritmo Marketplace AWS e richiede la specifica di convalida.

1.  Se è la prima volta che crei un pacchetto di machine learning per Marketplace AWS, scegli **Crea un nuovo ruolo per il ruolo** **IAM**. Amazon SageMaker AI utilizza questo ruolo per addestrare l'algoritmo e distribuire il pacchetto modello successivo. Ciò include azioni come l'estrazione di immagini da Amazon ECR, l'archiviazione di artefatti in Amazon S3 e la copia dei dati di addestramento da Amazon S3. **Controlla le impostazioni e scegli Crea ruolo.** La creazione di un ruolo qui concede le autorizzazioni descritte dalla policy [ AmazonSageMakerFullAccess](https://console.aws.amazon.com/iam/home#/policies/arn:aws:iam::aws:policy/AmazonSageMakerFullAccess)IAM al ruolo che crei. 

1.  **Modifica il file **JSON** nel profilo di convalida per la definizione del lavoro di formazione.** Per ulteriori informazioni sui valori consentiti, consulta. [ TrainingJobDefinition](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TrainingJobDefinition.html) 

   1.  `InputDataConfig`: In questo array JSON, aggiungete un [oggetto Channel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_Channel.html) per ogni canale specificato nella fase di specificazione del training. Per ogni canale, specifica dove sono archiviati i dati dei test per l'allenamento. 

   1.  `OutputDataConfig`: Al termine della formazione, gli elementi del modello nel percorso della directory del contenitore di formazione `/opt/ml/model/` vengono compressi e copiati su Amazon S3. Specificare la posizione Amazon S3 in cui è archiviato il file compresso (.tar.gz). 

1.  **Modifica il file JSON nel profilo di convalida per la definizione del processo Transform.** Per ulteriori informazioni sui valori consentiti, vedere. [ TransformJobDefinition](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TransformJobDefinition.html) 

   1.  `TransformInput.DataSource.S3Uri`: Imposta dove vengono archiviati i dati del test per l'inferenza. 

   1.  `TransformInput.ContentType`: Specificate il tipo di contenuto dei dati di test. Ad esempio,`application/json`, `text/plain``image/png`, o qualsiasi altro valore. Amazon SageMaker AI non convalida i dati di input effettivi. Questo valore viene passato all'endpoint HTTP del contenitore nel valore dell'`Content-type`intestazione. 

   1.  `TransformInput.CompressionType`: impostato su `None` se i dati di test per l'inferenza in Amazon S3 non sono compressi. 

   1.  `TransformInput.SplitType`: Scegli come vuoi dividere gli oggetti in S3. Ad esempio, `None` passa ogni oggetto in Amazon S3 nel suo insieme per l'inferenza. Per ulteriori dettagli, [ SplitType](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TransformInput.html#sagemaker-Type-TransformInput-SplitType)consulta Amazon SageMaker AI API Reference. 

   1.  `TransformOutput.S3OutputPath`: Imposta la posizione in cui è archiviato l'output dell'inferenza. 

   1.  `TransformOutput.AssembleWith`: impostato su `None` per generare ogni inferenza come oggetti separati in Amazon S3. 

1. Scegli **Create algorithm package**.

 SageMaker L'intelligenza artificiale estrae l'immagine di formazione da Amazon ECR, esegue un processo di test di formazione utilizzando i tuoi dati e archivia gli artefatti del modello in Amazon S3. Quindi estrae l'immagine di inferenza da Amazon ECR, copia gli artefatti da Amazon S3 nel contenitore di inferenza ed esegue un processo di trasformazione in batch utilizzando i dati di test per l'inferenza. **Una volta completata la convalida, lo stato passa a Completato.** 

**Nota**  
 La fase di convalida non valuta l'accuratezza dell'addestramento o del modello con i dati del test. La fase di convalida verifica se i contenitori funzionano e rispondono come previsto.   
La fase di convalida convalida solo l'elaborazione in batch. Spetta a te verificare che l'elaborazione in tempo reale funzioni con il tuo prodotto.

 Hai completato la creazione delle risorse relative al prodotto basato sull'algoritmo. Continua su [Inserire il prodotto in Marketplace AWS](ml-publishing-your-product-in-aws-marketplace.md). 

# Inserire il prodotto in Marketplace AWS
<a name="ml-publishing-your-product-in-aws-marketplace"></a>

Dopo aver impacchettato il codice in immagini di pacchetti modello o immagini di algoritmi, caricato le immagini e creato le risorse Amazon SageMaker AI, puoi pubblicare il tuo prodotto di machine learning in Marketplace AWS. Le seguenti sezioni illustrano il processo di pubblicazione, che include la creazione dell'elenco dei prodotti, il test del prodotto e l'autorizzazione alla pubblicazione. Una volta pubblicato il prodotto, richiedi modifiche per aggiornare l'offerta. Per ulteriori informazioni, consulta [Gestione dei prodotti di machine learning](ml-product-management.md). 

**Topics**
+ [Prerequisiti](ml-publishing-prereq.md)
+ [Fase 1: Creare una nuova inserzione](create-new-listing.md)
+ [Fase 2: Fornire informazioni sul prodotto](provide-general-info.md)
+ [Fase 3: Aggiungere la versione iniziale del prodotto](add-initial-version.md)
+ [Fase 4: Configurare il modello di prezzo](set-pricing-model.md)
+ [Fase 5: Configurare la politica di rimborso](configure-refund-policy.md)
+ [Fase 6: Configurare l'EULA](configure-eula.md)
+ [Fase 7: Configurare la lista delle autorizzazioni](configure-allowlist.md)

# Prerequisiti
<a name="ml-publishing-prereq"></a>

Prima di poter pubblicare il pacchetto modello o l'algoritmo in Marketplace AWS, è necessario disporre di quanto segue:
+  E Account AWS questo è registrato come Marketplace AWS venditore. Puoi farlo in [Portale di gestione Marketplace AWS](https://aws.amazon.com/marketplace/management/). 
+  Un profilo venditore completo nella pagina [Impostazioni](https://aws.amazon.com/marketplace/management/seller-settings) di Portale di gestione Marketplace AWS. 
+  Per pubblicare prodotti a pagamento, devi compilare il questionario fiscale e i moduli bancari. Questo non è necessario per la pubblicazione di prodotti gratuiti. Per ulteriori informazioni, consulta [Procedura di registrazione del venditore](https://docs.aws.amazon.com/marketplace/latest/userguide/registration-process.html). 
+ Devi disporre delle autorizzazioni per accedere a Portale di gestione Marketplace AWS e Amazon SageMaker AI. Per ulteriori informazioni, consulta [Autorizzazioni richieste](#ml-permissions-required).

## Autorizzazioni richieste
<a name="ml-permissions-required"></a>

Per pubblicare un prodotto Amazon SageMaker AI, devi specificare un ruolo IAM valido (ARN) che abbia una relazione di fiducia con il responsabile del Marketplace AWS servizio. Inoltre, l'utente o il ruolo IAM a cui hai effettuato l'accesso richiede le autorizzazioni necessarie.

**Impostazione delle autorizzazioni di accesso**
+  Aggiungi le seguenti autorizzazioni al ruolo IAM: 

  1. **sagemaker: DescribeModelPackage** — Per elencare un pacchetto modello 

  1.  **sagemaker: DescribeAlgorithm** — Per elencare un algoritmo 

------
#### [ JSON ]

****  

     ```
     { 
         "Version":"2012-10-17",		 	 	 
         "Statement": [ 
             { 
                 "Effect": "Allow", 
                 "Action": [ 
                     "sagemaker:DescribeModelPackage", 
                     "sagemaker:DescribeAlgorithm"
                 ],
                 "Resource": "*"  
            }
         ] 
     }
     ```

------

**Impostazione del prodotto del ruolo IAM AddVersion/Create**

1. Segui i passaggi per creare un ruolo con una politica di fiducia personalizzata. Per ulteriori informazioni, consulta [Creazione di un ruolo IAM utilizzando una policy di fiducia personalizzata (console)](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_roles_create_for-custom.html).

1. Inserisci quanto segue per la dichiarazione sulla politica di fiducia personalizzata:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "Statement1",
               "Effect": "Allow",
               "Principal": {
                   "Service": "assets.marketplace.amazonaws.com"
               },
               "Action": "sts:AssumeRole"
           }
       ]
   }
   ```

------

1. Inserisci la seguente politica di autorizzazioni:

------
#### [ JSON ]

****  

   ```
   { 
       "Version":"2012-10-17",		 	 	 
       "Statement": [ 
           { 
               "Effect": "Allow", 
               "Action": [ 
                   "sagemaker:DescribeModelPackage", 
                   "sagemaker:DescribeAlgorithm"
               ],
               "Resource": "*"  
          }
       ] 
   }
   ```

------

1. Fornisci l'ARN del ruolo quando richiesto. Il ruolo deve seguire il formato:`arn:aws:iam::<account-id>:role/<role-name>`.

 Per le Marketplace AWS autorizzazioni necessarie, o per gestire il tuo Account venditore, consulta [Politiche e autorizzazioni per Marketplace AWS](https://docs.aws.amazon.com/marketplace/latest/userguide/detailed-management-portal-permissions.html) i venditori. 

## Risorse richieste
<a name="ml-required-assets"></a>

Prima di creare un elenco di prodotti per l'apprendimento automatico, assicurati di disporre delle seguenti risorse obbligatorie:
+ **Amazon Resource Name (ARN)**: fornisci l'ARN del pacchetto del modello o della risorsa dell'algoritmo da Regione AWS cui stai pubblicando (vedi). [Supportato per la pubblicazione Regioni AWS](ml-service-restrictions-and-limits.md#ml-supported-aws-regions-for-publishing) 
  +  Un ARN per un pacchetto modello ha la seguente forma: `arn:aws:sagemaker:<region>:<account-id>:model-package/<model-package-name>` 

     Per trovare il tuo pacchetto modello ARN, vedi Pacchetti [modello My marketplace](https://console.aws.amazon.com/sagemaker/home#/model-packages/my-resources). 
  +  Un ARN per un algoritmo ha la seguente forma: `arn:aws:sagemaker:<region>:<account-id>:algorithm/<algorithm-name>` 

     Per trovare l'ARN della risorsa dell'algoritmo, vedi I [miei](https://console.aws.amazon.com/sagemaker/home#/algorithms/my-resources) algoritmi. 
+ [Requisiti per le informazioni sull'utilizzo](ml-listing-requirements-and-best-practices.md#ml-requirements-for-usage-information)— Fornisci dettagli su input, output ed esempi di codice. 
+  [Requisiti per ingressi e uscite](ml-listing-requirements-and-best-practices.md#ml-requirements-for-inputs-and-outputs)— Fornisci file o testo. 
+ [Requisiti per il notebook Jupyter](ml-listing-requirements-and-best-practices.md#ml-requirements-for-jupyter-notebook)— Dimostrare l'utilizzo completo del prodotto. 

# Fase 1: Creare una nuova inserzione
<a name="create-new-listing"></a>

 Per iniziare con un prodotto basato sull'apprendimento automatico, inizierai il processo di pubblicazione impostando il nome del prodotto, aggiungendo tag di risorsa opzionali per l'organizzazione e generando l'ID del prodotto. L'ID del prodotto viene utilizzato per tracciare il prodotto durante tutto il suo ciclo di vita. 

**Nota**  
 Prima di creare l'inserzione, assicurati di disporre delle risorse richieste specificate in. [Requisiti e best practice per la creazione di prodotti di machine learning](ml-listing-requirements-and-best-practices.md) 

1. Accedi al venditore Account AWS e vai al [Portale di gestione Marketplace AWS](https://aws.amazon.com/marketplace/management). 

1.  Nel menu in alto, vai su **Prodotti**, quindi scegli **Apprendimento automatico**. 

1.  Scegli **Crea un prodotto di apprendimento automatico**.

1. In **Nome prodotto**, inserisci un nome di prodotto univoco che verrà mostrato agli acquirenti nella parte superiore della pagina di elenco dei prodotti e nei risultati di ricerca.

1.  (Facoltativo) In **Tag**, inserisci i tag che desideri associare al prodotto. Per ulteriori informazioni, consulta [Etichettatura AWS delle risorse](https://docs.aws.amazon.com/tag-editor/latest/userguide/tagging.html). 

1.  In **ID e codice del prodotto**, scegli **Genera ID e codice del prodotto**. 

1.  Scegli **Continua con la procedura guidata.** Inizierai il processo di aggiunta di informazioni dettagliate sul prodotto nella procedura guidata. 

# Fase 2: Fornire informazioni sul prodotto
<a name="provide-general-info"></a>

 Quando si inserisce un prodotto di machine learning Marketplace AWS, è fondamentale fornire informazioni complete e accurate sul prodotto. Utilizza il passaggio **Fornisci informazioni sul prodotto** della procedura guidata per acquisire dettagli essenziali sulla tua offerta, come le categorie di prodotti e le informazioni di supporto. 

1.  Inserisci le informazioni sul tuo prodotto. 

1.  Scegli **Avanti** per passare alla fase successiva della procedura guidata. 

# Fase 3: Aggiungere la versione iniziale del prodotto
<a name="add-initial-version"></a>

 Questa pagina ti guida nell'aggiunta della versione iniziale del prodotto. Il prodotto può avere più versioni durante il suo ciclo di vita e ogni versione è identificata da un SageMaker ARN AI univoco. 

1.  In **Amazon Resource Names (ARNs)**: 

   1.  Inserisci il modello o l'algoritmo Amazon SageMaker AI ARN. 
      +  Pacchetto modello di esempio ARN: `arn:aws:sagemaker:<region>:<account-id>:model-package/<model-package-name>` 

         Per trovare il tuo pacchetto modello ARN, vedi Pacchetti [modello My marketplace](https://console.aws.amazon.com/sagemaker/home#/model-packages/my-resources). 
      +  Esempio di algoritmo ARN: `arn:aws:sagemaker:<region>:<account-id>:algorithm/<algorithm-name>` 

         Per trovare l'ARN della risorsa dell'algoritmo, vedi I [miei](https://console.aws.amazon.com/sagemaker/home#/algorithms/my-resources) algoritmi. 

   1.  Inserisci l'ARN del ruolo di accesso IAM. 

       Esempio di IAM ARN: `arn:aws:iam::<account-id>:role/<role-name>` 

1.  In **Informazioni sulla versione**, inserisci il **nome della versione** e le **note sulla versione**. . 

1.  In **Dettagli di input del modello**, inserisci un riepilogo degli input del modello e fornisci dati di input di esempio per gli input in tempo reale e in batch. Facoltativamente, puoi fornire qualsiasi limitazione di input. 

1.  (Facoltativo) In **Parametri di input**, fornite informazioni dettagliate su ogni parametro di input supportato dal prodotto. È possibile fornire il nome del parametro, una descrizione, i vincoli e specificare se il parametro è obbligatorio o facoltativo. È possibile fornire fino a 24 parametri di input. 

1.  (Facoltativo) In **Attributi personalizzati**, fornite tutti i parametri di chiamata personalizzati supportati dal prodotto. Per ogni attributo, puoi fornire un nome, una descrizione, dei vincoli e specificare se l'attributo è obbligatorio o facoltativo. 

1.  In **Dettagli di output del modello**, inserite un riepilogo degli output del modello e fornite dati di output di esempio per gli output dei processi in tempo reale e in batch. Facoltativamente, puoi fornire qualsiasi limitazione di output. 

1.  (Facoltativo) In **Parametri di output**, fornite informazioni dettagliate su ogni parametro di output supportato dal prodotto. È possibile fornire il nome del parametro, una descrizione, i vincoli e specificare se il parametro è obbligatorio o facoltativo. È possibile fornire fino a 24 parametri di output. 

1.  In **Istruzioni d'uso**, fornisci istruzioni chiare per utilizzare il modello in modo efficace, ad esempio le migliori pratiche, come gestire casi limite comuni o suggerimenti per l'ottimizzazione delle prestazioni. 

1.  In **Collegamenti a repository Git e notebook**, fornisci collegamenti a notebook di esempio e repository Git. I taccuini di esempio dovrebbero includere come richiamare il modello. Il tuo repository Git dovrebbe includere notebook, file di dati e altri strumenti per sviluppatori. 

1.  In Tipi **di istanze consigliati, seleziona i tipi di** istanza consigliati per il tuo prodotto. 

   Per *i pacchetti di modelli*, selezionerai i tipi di istanza consigliati sia per la trasformazione in batch che per l'inferenza in tempo reale.

   Per *i pacchetti di algoritmi*, selezionerai il tipo di istanza consigliato per i lavori di formazione.
**Nota**  
 I tipi di istanze disponibili per la selezione sono limitati a quelli supportati dal modello o dal pacchetto di algoritmi. Questi tipi di istanze supportati sono stati determinati al momento della creazione iniziale delle risorse in Amazon SageMaker AI. Ciò garantisce che il prodotto sia associato solo a configurazioni hardware in grado di eseguire efficacemente la soluzione di machine learning. 

1. Scegli **Avanti** per passare al passaggio successivo della procedura guidata.

# Fase 4: Configurare il modello di prezzo
<a name="set-pricing-model"></a>

 Quando configuri il modello di prezzo del prodotto, puoi offrirlo gratuitamente o implementare prezzi basati sull'utilizzo. Il modello di prezzo non può essere modificato dopo aver pubblicato il prodotto. 

1.  Scegli un modello di prezzo. I prodotti per la trasformazione in batch e l'addestramento degli algoritmi possono essere gratuiti o addebitati solo per un utilizzo orario. 
   +  Se hai scelto di offrire il prodotto gratuitamente, scegli **Avanti** e continua la procedura guidata. 
   +  Se hai scelto i prezzi di utilizzo, continua con questi passaggi. 

1.  Se hai scelto di addebitare in base all'utilizzo, puoi inserire i costi di utilizzo. Puoi scegliere di inserire un prezzo applicabile a tutti i tipi di istanza o inserire un prezzo per tipo di istanza per prezzi più dettagliati. 

1.  Seleziona **Sì, offri una prova gratuita** se desideri offrire una prova gratuita del tuo prodotto. 

1. Scegli **Avanti** per passare alla fase successiva della procedura guidata.

# Fase 5: Configurare la politica di rimborso
<a name="configure-refund-policy"></a>

 Sebbene non sia necessario offrire rimborsi, è necessario presentare una politica di rimborso ufficiale a Marketplace AWS. 

1. Inserisci una politica di rimborso.

1.  Scegli **Avanti** per passare alla fase successiva della procedura guidata. 

# Fase 6: Configurare l'EULA
<a name="configure-eula"></a>

 In questo passaggio, sceglierai l'accordo legale che regolerà il modo in cui i clienti possono utilizzare il tuo prodotto. Puoi selezionare AWS le condizioni contrattuali standard o caricare il tuo contratto di licenza per l'utente finale (EULA) personalizzato. 

1.  Seleziona il contratto standard o fornisci un contratto di licenza personalizzato per l'utente finale. 

1.  Scegli **Avanti** per passare alla fase successiva della procedura guidata. 

# Fase 7: Configurare la lista delle autorizzazioni
<a name="configure-allowlist"></a>

 Prima di inviare il prodotto, devi specificare chi Account AWS può accedervi. Questo passaggio facoltativo controlla la visibilità iniziale del prodotto, limitando l'accesso al tuo account e a qualsiasi altro account specificamente autorizzato Account AWS che aggiungi alla lista consentita. 

1.  Inserisci il codice a Account AWS IDs cui desideri accedere al prodotto.

1.  Scegli **Invia** per inviare il prodotto. 

    Il prodotto avrà lo stato di **visibilità limitata** e sarà visibile solo a chi Account AWS lo ha creato e ad altri prodotti consentiti Account AWS. 

    Per ulteriori informazioni sugli stati, consulta. [Stato del prodotto di machine learning](ml-product-lifecycle.md#ml-product-status) 

 Puoi visualizzare e testare la tua scheda di prodotti mentre è in **Visibilità limitata**. Quando sei pronto a modificare la visibilità del tuo prodotto, consulta[Aggiornamento della visibilità del prodotto](ml-update-visibility.md). 

# Gestione dei prodotti di machine learning
<a name="ml-product-management"></a>

Nel portale di Marketplace AWS gestione, scegli **Richiedi modifiche** per modificare un prodotto o una versione in Marketplace AWS. Quando invii le modifiche, il sistema le elabora. Il tempo di elaborazione varia da minuti a giorni, a seconda del tipo di modifica. È possibile monitorare lo stato delle modifiche nel portale Marketplace AWS di gestione. 

**Topics**
+ [Aggiornamento delle informazioni sul prodotto](ml-update-product.md)
+ [Aggiornamento della visibilità del prodotto](ml-update-visibility.md)
+ [Aggiornamento della lista consentita](ml-update-allowlist.md)
+ [Gestione delle versioni dei prodotti](ml-manage-product-version.md)
+ [Aggiornamento dei prezzi dei prodotti](ml-update-public-offer.md)
+ [Aggiornamento della politica di rimborso](ml-update-refund-policy.md)
+ [Aggiornamento del contratto di licenza con l'utente finale](ml-update-eula.md)
+ [Rimuovere un prodotto](ml-remove-a-product.md)

**Nota**  
 Oltre ad apportare modifiche tramite il portale di Marketplace AWS gestione, è possibile apportare modifiche anche utilizzando il [AWS Marketplace Catalog API](https://docs.aws.amazon.com/marketplace/latest/APIReference/welcome.html). 

# Aggiornamento delle informazioni sul prodotto
<a name="ml-update-product"></a>

 Dopo aver creato il prodotto di machine learning (ML), puoi modificare alcune informazioni sul prodotto Marketplace AWS, ad esempio descrizioni, punti salienti, titolo, SKU, categorie e parole chiave. 

1.  Accedi al tuo Account venditore nel [Portale Marketplace AWS di gestione](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vai alla pagina dei **prodotti di Machine Learning** e seleziona il prodotto di destinazione. 

1.  Scegli **Richiedi modifiche** e seleziona **Aggiorna le informazioni sul prodotto**. 

1.  Aggiorna i campi secondo necessità. 
**Nota**  
 Per le specifiche del logo, consulta[Requisiti relativi al logo dell'azienda e del prodotto](product-submission.md#seller-and-product-logos). 

1.  Scegli **Invia**. 

 Puoi monitorare la tua richiesta dalla scheda **Richieste** della pagina dei prodotti di **Machine Learning**. Per ulteriori informazioni sugli stati, consulta[Stato del prodotto di machine learning](ml-product-lifecycle.md#ml-product-status). 

# Aggiornamento della visibilità del prodotto
<a name="ml-update-visibility"></a>

1.  Accedi al tuo Account venditore nel [Portale Marketplace AWS di gestione](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vai alla pagina del **prodotto di Machine learning** e seleziona il tuo prodotto. 

1.  **Scegli **Richiedi modifiche**, seleziona **Aggiorna la visibilità del prodotto**, quindi seleziona **Pubblico** o con restrizioni.** 

1.  **Controlla le modifiche e scegli Invia.** 

 Puoi monitorare la tua richiesta dalla scheda **Richieste** della pagina dei prodotti di **Machine Learning**. Per ulteriori informazioni sugli stati, consulta[Stato del prodotto di machine learning](ml-product-lifecycle.md#ml-product-status). 

# Aggiornamento della lista consentita
<a name="ml-update-allowlist"></a>

1.  Accedi al tuo Account venditore nel [Portale di Marketplace AWS gestione](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vai alla pagina del **prodotto di Machine learning** e seleziona il tuo prodotto. 

1.  Scegli **Richiedi modifiche** e seleziona **Aggiorna lista consentita**. 

1.  Modifica le informazioni da modificare e scegli **Invia**. Per ulteriori informazioni, consulta [Fase 7: Configurare la lista delle autorizzazioni](configure-allowlist.md). 

 Puoi monitorare la tua richiesta dalla scheda **Richieste** della pagina dei prodotti di **Machine Learning**. Per ulteriori informazioni sugli stati, consulta[Stato del prodotto di machine learning](ml-product-lifecycle.md#ml-product-status). 

# Gestione delle versioni dei prodotti
<a name="ml-manage-product-version"></a>

 In qualità di venditore, puoi gestire le versioni dei tuoi prodotti Marketplace AWS aggiornando le informazioni sulle versioni esistenti, aggiungendo nuove versioni o rimuovendo versioni che non sono più supportate. Ogni versione ha un ARN SageMaker AI unico e informazioni associate che gli acquirenti utilizzano per valutare e implementare il prodotto. 

**Nota**  
 Prima di aggiungere versioni, crea un ID prodotto e stabilisci i prezzi. Per ulteriori informazioni, consulta [Fase 1: Creare una nuova inserzione](create-new-listing.md). 

## Aggiornamento delle informazioni sulla versione
<a name="ml-updating-versions"></a>

 Dopo aver creato una versione, è possibile modificare le informazioni associate, ad esempio note di rilascio, istruzioni per l'uso e consigli sulle istanze. 

**Nota**  
 I nomi delle versioni e ARNs non possono essere modificati. Queste modifiche richiedono la creazione di una nuova versione. 

1.  Accedi al tuo Account venditore nel [Portale Marketplace AWS di gestione](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vai alla pagina del **prodotto di Machine learning** e seleziona il tuo prodotto. 

1.  Scegli **Richiedi modifiche** e seleziona **Aggiorna informazioni sulla versione**. 

1.  Seleziona la versione che desideri aggiornare. 

1.  Scegli **Modifica versione**. 

1.  Modifica i campi necessari e scegli **Avanti**. 

1.  Inserisci le informazioni sui prezzi e scegli **Invia**. Per ulteriori informazioni, consulta [Fase 4: Configurare il modello di prezzo](set-pricing-model.md). 

 Puoi monitorare la tua richiesta dalla scheda **Richieste** della pagina dei prodotti di **Machine Learning**. Per ulteriori informazioni sugli stati, consulta[Stato del prodotto di machine learning](ml-product-lifecycle.md#ml-product-status). 

## Aggiungere nuove versioni
<a name="ml-adding-new-versions"></a>

 Puoi aggiungere nuove versioni del prodotto per introdurre funzionalità, aggiornamenti o miglioramenti mantenendo l'accesso alle versioni precedenti. 

1.  Accedi al tuo Account venditore nel [Portale Marketplace AWS di gestione](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vai alla pagina del **prodotto di Machine learning** e seleziona il tuo prodotto. 

1.  Scegli **Versioni** e scegli **Aggiungi nuova versione**. 

1.  Inserisci le informazioni per la nuova versione seguendo la procedura riportata di seguito[Fase 3: Aggiungere la versione iniziale del prodotto](add-initial-version.md). 

1.  Inserisci le informazioni sui prezzi e scegli **Invia**. Per ulteriori informazioni, consulta [Fase 4: Configurare il modello di prezzo](set-pricing-model.md). 

Dopo aver aggiunto con successo una nuova versione, gli acquirenti ricevono una notifica via email che indica che è disponibile una nuova versione.

## Limitazione delle versioni
<a name="ml-restricting-versions"></a>

 Quando una versione diventa obsoleta o desideri interromperne la disponibilità, puoi limitare l'accesso degli acquirenti a quella versione mantenendo l'accesso ad altre versioni. 

1.  Accedi al tuo Account venditore nel Portale di [Marketplace AWS gestione](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vai alla pagina del **prodotto di Machine learning** e seleziona il tuo prodotto. 

1.  Scegli **Versioni** e scegli **Limita versioni**. 
**Nota**  
 Devi sempre avere almeno una versione disponibile. 

1.  Scegli **Invia**. 

 Dopo aver applicato correttamente le restrizioni a una versione, gli acquirenti ricevono un'email di notifica indicante che la versione era soggetta a restrizioni. 

# Aggiornamento dei prezzi dei prodotti
<a name="ml-update-public-offer"></a>

 Puoi modificare le tariffe e il periodo di prova gratuito del tuo prodotto di machine learning in Marketplace AWS, sebbene il modello di prezzo stesso non possa essere modificato. Tieni presente che per i modelli a pagamento, gli aumenti di prezzo hanno effetto dopo un periodo di preavviso di 90 giorni, il primo giorno del mese successivo. Durante questo periodo di preavviso non è possibile apportare ulteriori modifiche di prezzo. 

1.  Accedi al tuo Account venditore nel [Portale Marketplace AWS di gestione](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vai alla pagina del **prodotto di Machine learning** e seleziona il tuo prodotto. 

1.  Scegli **Richiedi modifiche**, seleziona **Aggiorna offerta pubblica**, quindi seleziona **Modifica informazioni sull'offerta**. 

1.  Modifica le informazioni che devi modificare e scegli **Invia**. 

 Puoi monitorare la tua richiesta dalla scheda **Richieste** della pagina dei prodotti di **Machine Learning**. Per ulteriori informazioni sugli stati, consulta[Stato del prodotto di machine learning](ml-product-lifecycle.md#ml-product-status). 

# Aggiornamento della politica di rimborso
<a name="ml-update-refund-policy"></a>

1.  Accedi al tuo Account venditore nel [Portale Marketplace AWS di gestione](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vai alla pagina del **prodotto di Machine learning** e seleziona il tuo prodotto. 

1.  Scegli **Richiedi modifiche**, seleziona **Aggiorna offerta pubblica**, quindi seleziona **Aggiorna politica di rimborso**. 

1.  Modifica le informazioni che devi modificare e scegli **Invia**. 

 Puoi monitorare la tua richiesta dalla scheda **Richieste** della pagina dei prodotti di **Machine Learning**. Per ulteriori informazioni sugli stati, consulta[Stato del prodotto di machine learning](ml-product-lifecycle.md#ml-product-status). 

# Aggiornamento del contratto di licenza con l'utente finale
<a name="ml-update-eula"></a>

1.  Accedi al tuo Account venditore nel [Portale di Marketplace AWS gestione](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vai alla pagina del **prodotto di Machine learning** e seleziona il tuo prodotto. 

1.  Scegli **Richiedi modifiche**, seleziona **Aggiorna offerta pubblica**, quindi seleziona **Aggiorna EULA**. 

1.  Modifica le informazioni che devi modificare e scegli **Invia**. 

 Puoi monitorare la tua richiesta dalla scheda **Richieste** della pagina dei prodotti di **Machine Learning**. Per ulteriori informazioni sugli stati, consulta[Stato del prodotto di machine learning](ml-product-lifecycle.md#ml-product-status). 

# Rimuovere un prodotto
<a name="ml-remove-a-product"></a>

 Puoi rimuovere (annullare) il prodotto pubblicato da Marketplace AWS. Una volta rimossi, i nuovi clienti non possono abbonarsi, ma devi supportare i clienti esistenti per almeno 90 giorni. 

 Di seguito sono riportate le condizioni per rimuovere un prodotto da Marketplace AWS: 
+  Il prodotto verrà rimosso dagli strumenti Marketplace AWS di ricerca e scoperta. 
+  La funzionalità di iscrizione verrà disattivata. 
+  La pagina dei dettagli del prodotto rimane accessibile tramite URL diretto. 
+  Gli abbonati attuali mantengono l'accesso fino a quando non annullano l'abbonamento. 
+  Marketplace AWS notifica agli attuali acquirenti la rimozione. 

**Per rimuovere il tuo prodotto di machine learning:**

1.  Accedi al tuo Account venditore nel [Portale Marketplace AWS di gestione](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vai alla pagina del **prodotto di Machine learning** e seleziona il tuo prodotto. 

1.  Scegli **Richiedi modifiche**, seleziona **Aggiorna visibilità del prodotto**, quindi seleziona **Limitato**. 

1.  (Facoltativo) Inserisci un ID prodotto sostitutivo. 

1.  Controlla le modifiche, quindi scegli **Invia**. 

 Puoi monitorare la tua richiesta dalla scheda **Richieste** della pagina dei prodotti di **Machine Learning**. Per ulteriori informazioni sugli stati, consulta[Stato del prodotto di machine learning](ml-product-lifecycle.md#ml-product-status). 

 Una volta rimosso, il prodotto viene visualizzato nell'elenco dei **prodotti correnti**, da cui è possibile scaricare solo i fogli di calcolo dei prodotti. Se hai domande sulla rimozione dei prodotti, contatta il team [Operativo del Marketplace AWS venditore](https://aws.amazon.com/marketplace/management/contact-us/). 

# Creazione di offerte private per prodotti di machine learning
<a name="machine-learning-private-offers"></a>

 Puoi negoziare e offrire un'offerta privata direttamente ai clienti per i tuoi prodotti di machine learning. Per ulteriori informazioni sulle offerte private, consulta[Preparazione di un'offerta privata per il tuo Marketplace AWS prodotto](private-offers-overview.md). 

**Prerequisiti:**
+  Devi avere un'inserzione a pagamento in Marketplace AWS. 
+  Devi avere accesso al portale di Marketplace AWS gestione (AMMP). 

**Per creare un'offerta privata per un prodotto di machine learning:**

1.  Accedi al portale di Marketplace AWS gestione. 

1. Scegli **Offerte**, quindi scegli **Crea offerta privata**

1.  Nella pagina **Crea offerta privata**, seleziona il prodotto per cui desideri creare un'offerta privata. Puoi creare offerte solo per i prodotti disponibili. 

1.  Nella pagina dei **dettagli dell'offerta**: 

   1.  Inserisci il nome e la descrizione dell'offerta. 

   1.  Seleziona l'opzione di rinnovo. 

   1.  Imposta la data di scadenza dell'offerta. Le offerte scadono alle 23:59:59 UTC della data stabilita. 

1. Scegliere **Next (Successivo)** due volte.

1.  Nella pagina **Configura prezzi e durata dell'offerta**, specifica: 
   +  Opzione di prezzo

     (Per ulteriori informazioni, consulta [Offerte private per prodotti ML](https://docs.aws.amazon.com/marketplace/latest/userguide/private-offers-supported-product-types.html#ml-private-offers))
   + Utilizzo o durata del contratto
   + Valuta dell’offerta
   + Dimensioni dei prezzi.

     (Per quanto riguarda i prezzi in base all'utilizzo, le tariffe basate sull'utilizzo si applicano solo durante il periodo dell'offerta. Per i contratti, le tariffe basate sull'utilizzo si applicano solo alla scadenza della durata del contratto e sono perpetue.)
**Nota**  
Per ulteriori informazioni sui piani di pagamento rateale, vedere. [Piani di rateizzazione dell'offerta privata](installment-plans.md) 

1. Scegli **Next (Successivo)**.

1. Nella pagina **Aggiungi acquirenti**, inserisci il campo Account AWS IDs per i tuoi acquirenti. Quindi scegli **Successivo**. 
**Importante**  
Affinché gli account collegati possano beneficiare di un'offerta privata:  
Includi l'ID dell' AWS account di pagamento.
Il conto del pagatore deve prima accettare le condizioni orarie dell'offerta privata.
Dopo l'accettazione dell'account di pagamento, gli account collegati possono quindi accettare l'offerta privata.

1. Nella pagina **Configura le condizioni legali e i documenti di offerta**, aggiungi eventuali termini personalizzati, quindi scegli **Avanti**.
**Nota**  
 Puoi aggiungere fino a cinque file (termini legali, dichiarazione di lavoro, distinta base, scheda prezzi o addendum). Il sistema li combina in un unico documento. 

1. Nella pagina **Rivedi e crea**, verifica i dettagli dell'offerta e scegli **Crea offerta**.

1. Dopo che l'offerta è stata visualizzata nella pagina **Gestisci offerte private**, apri il menu **Azioni**, scegli **Copia l'URL dell'offerta** e inviala via email all'acquirente.
**Nota**  
 La pubblicazione delle offerte potrebbe richiedere del tempo. Puoi modificare le offerte nella pagina **Gestisci le offerte private** fino all'accettazione da parte dell'acquirente. 

# Requisiti e best practice per la creazione di prodotti di machine learning
<a name="ml-listing-requirements-and-best-practices"></a>

È importante che i tuoi acquirenti trovino facile testare il tuo pacchetto modello e i tuoi prodotti algoritmici. Le sezioni seguenti descrivono le migliori pratiche per i prodotti ML. Per un riepilogo completo dei requisiti e dei consigli, consulta la[Riepilogo dei requisiti e dei consigli per gli elenchi di prodotti ML](#ml-summary-table-of-requirements-and-recommendations).

**Nota**  
Un Marketplace AWS rappresentante potrebbe contattarti per aiutarti a soddisfare questi requisiti se i prodotti pubblicati non li soddisfano.

**Topics**
+ [Best practice generali per i prodotti ML](#ml-general-best-practices)
+ [Requisiti per le informazioni sull'utilizzo](#ml-requirements-for-usage-information)
+ [Requisiti per ingressi e uscite](#ml-requirements-for-inputs-and-outputs)
+ [Requisiti per il notebook Jupyter](#ml-requirements-for-jupyter-notebook)
+ [Riepilogo dei requisiti e dei consigli per gli elenchi di prodotti ML](#ml-summary-table-of-requirements-and-recommendations)

## Best practice generali per i prodotti ML
<a name="ml-general-best-practices"></a>

 Fornisci le seguenti informazioni per il tuo prodotto di machine learning: 
+  Per le descrizioni dei prodotti, includi quanto segue: 
  +  Cosa fa il tuo modello 
  +  Chi è il cliente target 
  +  Qual è il caso d'uso più importante 
  +  Come è stato addestrato il modello o la quantità di dati utilizzata 
  +  Quali sono le metriche delle prestazioni e i dati di convalida utilizzati 
  +  Se medico, indipendentemente dal fatto che il modello sia destinato o meno a uso diagnostico 
+ Per impostazione predefinita, i prodotti di machine learning sono configurati per avere visibilità pubblica. Tuttavia, puoi creare un prodotto con visibilità limitata. Per ulteriori informazioni, consulta [Fase 7: Configurare la lista delle autorizzazioni](configure-allowlist.md).
+  (Facoltativo) Per i prodotti a pagamento, offri ai clienti una prova gratuita di 14-30 giorni per consentire ai clienti di provare il prodotto. Per ulteriori informazioni, consulta [Prezzi dei prodotti di machine learning per Marketplace AWS](machine-learning-pricing.md). 

## Requisiti per le informazioni sull'utilizzo
<a name="ml-requirements-for-usage-information"></a>

Informazioni chiare sull'utilizzo che descrivano gli input e gli output previsti del prodotto (con esempi) sono fondamentali per garantire un'esperienza positiva all'acquirente. 

Per ogni nuova versione della risorsa che aggiungi all'elenco dei prodotti, devi fornire informazioni sull'utilizzo. 

Per modificare le informazioni sull'utilizzo esistenti per una versione specifica, consulta[Aggiornamento delle informazioni sulla versione](ml-manage-product-version.md#ml-updating-versions).

## Requisiti per ingressi e uscite
<a name="ml-requirements-for-inputs-and-outputs"></a>

Una spiegazione chiara dei parametri di input supportati e dei parametri di output restituiti con esempi è importante per aiutare gli acquirenti a comprendere e utilizzare il prodotto. Questa comprensione aiuta gli acquirenti a eseguire le trasformazioni necessarie sui dati di input per ottenere i migliori risultati di inferenza. 

Quando aggiungi la tua risorsa Amazon SageMaker AI alla tua scheda di prodotto, ti verrà richiesto quanto segue.

### Ingressi e uscite di inferenza
<a name="ml-inference-inputs-and-outputs"></a>

Per l'input di inferenza, fornite una descrizione dei dati di input che il prodotto si aspetta sia per il processo di trasformazione in tempo reale dell'endpoint che per quello di trasformazione in batch. Includi frammenti di codice per qualsiasi preelaborazione necessaria dei dati. Includi limitazioni, se applicabili. Fornisci esempi di input ospitati su [GitHub](https://github.com).

Per l'output di inferenza, fornisci una descrizione dei dati di output restituiti dal prodotto sia per l'endpoint in tempo reale che per il processo di trasformazione in batch. Includi le limitazioni, se applicabili. Fornisci esempi di output ospitati su [GitHub](https://github.com). 

Per gli esempi, fornisci file di input compatibili con il tuo prodotto. Se il tuo modello esegue una classificazione multiclasse, fornisci almeno un file di input di esempio per ogni classe. 

### Input di formazione
<a name="ml-training-inputs"></a>

Nella sezione **Informazioni per addestrare un modello**, fornisci il formato dei dati di input e i frammenti di codice per l'eventuale preelaborazione necessaria dei dati. Includi una descrizione dei valori e delle limitazioni, se applicabile. Fornisci esempi di input ospitati su [GitHub](https://github.com). 

Spiega le funzionalità opzionali e obbligatorie che possono essere fornite dall'acquirente e specifica se la modalità `PIPE` di input è supportata. Se è supportata la [formazione distribuita](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-training-algo-running-container.html#your-algorithms-training-algo-running-container-dist-training) (formazione con più di CPU/GPU un'istanza), specificalo. Per la regolazione, elenca gli iperparametri consigliati. 

## Requisiti per il notebook Jupyter
<a name="ml-requirements-for-jupyter-notebook"></a>

Quando aggiungi la tua risorsa di SageMaker intelligenza artificiale all'elenco dei tuoi prodotti, fornisci un link a un esempio di notebook Jupyter ospitato su [GitHub](https://github.com)cui sia illustrato il flusso di lavoro completo senza chiedere all'acquirente di caricare o trovare dati. 

Utilizzo della AWS SDK per Python (Boto). Un taccuino di esempio ben sviluppato consente agli acquirenti di provare a utilizzare la tua inserzione in modo più semplice. 

Per quanto riguarda i prodotti con pacchetto modello, il notebook di esempio illustra la preparazione dei dati di input, la creazione di un endpoint per l'inferenza in tempo reale e le prestazioni dei processi di trasformazione in batch. Per ulteriori informazioni, vedere [Model Package listing e Sample notebook](https://github.com/aws/amazon-sagemaker-examples/tree/main/aws_marketplace/curating_aws_marketplace_listing_and_sample_notebook/ModelPackage) su GitHub. Per un taccuino di esempio, vedi [auto\$1insurance](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/aws_marketplace/using_model_packages/auto_insurance). Il notebook funziona in tutto Regioni AWS, senza inserire alcun parametro e senza che l'acquirente debba reperire dati di esempio.

**Nota**  
Un esempio di notebook Jupyter sottosviluppato che non mostri diversi input possibili e le fasi di preelaborazione dei dati potrebbe rendere difficile per l'acquirente comprendere appieno la proposta di valore del prodotto. 

Per quanto riguarda i prodotti basati su algoritmi, il notebook di esempio illustra l'addestramento completo, l'ottimizzazione, la creazione di modelli, la creazione di un endpoint per l'inferenza in tempo reale e l'esecuzione di processi di trasformazione in batch. Per ulteriori informazioni, vedere [Algorithm](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/aws_marketplace/curating_aws_marketplace_listing_and_sample_notebook/Algorithm) listing e Sample notebook on. GitHub [Per alcuni notebook di esempio, consulta [amazon\$1demo\$1product](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/aws_marketplace/using_algorithms/amazon_demo_product) e automl on.](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/aws_marketplace/using_algorithms/automl) GitHub Questi taccuini di esempio funzionano in tutte le regioni senza inserire alcun parametro e senza che l'acquirente debba reperire dati di esempio. 

**Nota**  
La mancanza di esempi di dati di formazione potrebbe impedire all'acquirente di utilizzare correttamente il notebook Jupyter. Un modello di notebook poco sviluppato potrebbe impedire agli acquirenti di utilizzare il prodotto e ostacolarne l'adozione. 

## Riepilogo dei requisiti e dei consigli per gli elenchi di prodotti ML
<a name="ml-summary-table-of-requirements-and-recommendations"></a>

La tabella seguente fornisce un riepilogo dei requisiti e dei consigli per una pagina di elenco di prodotti di machine learning.


|  **Dettagli**  |  **Per gli elenchi dei pacchetti modello**  |  **Per elenchi di algoritmi**  | 
| --- |--- |--- |
| **Product descriptions** | 
| --- |
| Spiega in dettaglio cosa fa il prodotto per i tipi di contenuto supportati (ad esempio, «rileva X nelle immagini»).  |  Richiesto  |  Richiesto  | 
| Fornisci informazioni convincenti e differenzianti sul prodotto (evita aggettivi come «migliore» o affermazioni prive di fondamento).  |  Consigliato  |  Consigliato  | 
| Elenca i casi d'uso più importanti per questo prodotto.  |  Richiesto  |  Richiesto  | 
| Descrivi i dati (fonte e dimensione) su cui è stato addestrato ed elenca le eventuali limitazioni note.  |  Richiesto  |  Non applicabile | 
| Descrivi il framework di base su cui è stato costruito il modello.  |  Consigliato  |  Consigliato  | 
| Riassumi la metrica delle prestazioni del modello sui dati di convalida (ad esempio, «precisione percentuale XX.YY confrontata utilizzando il set di dati Z»).  |  Richiesto  |  Non applicabile | 
| Riassumi le metriche del throughput di latenza del modello in base al tipo di istanza consigliato. and/or  |  Richiesto  |  Non applicabile | 
| Descrivi la categoria dell'algoritmo. Ad esempio, «Questo algoritmo di regressione delle foreste decisionali si basa su un insieme di classificatori con struttura ad albero creati utilizzando la tecnica generale dell'aggregazione bootstrap e una scelta casuale di funzionalità».  |  Non applicabile |  Richiesto  | 
| **Usage information** | 
| --- |
| A fini di inferenza, fornite una descrizione del formato di input previsto sia per l'endpoint in tempo reale che per il processo di trasformazione in batch. Includi le limitazioni, se applicabili. Per informazioni, consulta [Requisiti per ingressi e uscite](#ml-requirements-for-inputs-and-outputs).  |  Richiesto  |  Richiesto  | 
| Per scopi di inferenza, fornisci esempi di input sia per l'endpoint in tempo reale che per il processo di trasformazione in batch. I campioni devono essere ospitati su. GitHub Per informazioni, consulta [Requisiti per ingressi e uscite](#ml-requirements-for-inputs-and-outputs).  |  Richiesto  |  Richiesto  | 
| Per l'inferenza, fornite il nome e la descrizione di ogni parametro di input. Fornisci dettagli sui suoi limiti e specifica se è obbligatorio o facoltativo. | Consigliato | Consigliato | 
| A scopo di inferenza, fornisci dettagli sui dati di output restituiti dal prodotto sia per l'endpoint in tempo reale che per il processo di trasformazione in batch. Includi eventuali limitazioni, se applicabili. Per informazioni, consulta [Requisiti per ingressi e uscite](#ml-requirements-for-inputs-and-outputs).  |  Richiesto  |  Richiesto  | 
| Per scopi di inferenza, fornisci campioni di output sia per l'endpoint in tempo reale che per il processo di trasformazione in batch. I campioni devono essere ospitati su. GitHub Per informazioni, consulta [Requisiti per ingressi e uscite](#ml-requirements-for-inputs-and-outputs).  |  Richiesto  |  Richiesto  | 
| Per l'inferenza, fornisci un esempio di utilizzo di un endpoint o di un processo di trasformazione batch. Includi un esempio di codice utilizzando i comandi AWS Command Line Interface (AWS CLI) o utilizzando un AWS SDK.  |  Richiesto  |  Richiesto  | 
| Per l'inferenza, fornite il nome e la descrizione di ogni parametro di output. Specificate se viene sempre restituito.  | Consigliato | Consigliato | 
| Per la formazione, fornisci dettagli sulle informazioni necessarie per addestrare il modello, ad esempio il numero minimo di righe di dati richieste. Vedi[Requisiti per ingressi e uscite](#ml-requirements-for-inputs-and-outputs).  |  Non applicabile |  Richiesto  | 
| Per la formazione, fornisci esempi di input ospitati su GitHub. Per informazioni, consulta [Requisiti per ingressi e uscite](#ml-requirements-for-inputs-and-outputs).  |  Non applicabile |  Richiesto  | 
| Per quanto riguarda la formazione, fornisci un esempio di esecuzione di lavori di formazione. Descrivi gli iperparametri supportati, i relativi intervalli e il loro impatto complessivo. Specificate se l'algoritmo supporta l'ottimizzazione degli iperparametri, l'addestramento distribuito o le istanze GPU. Includi esempi di codice come AWS CLI comandi o utilizzo di un AWS SDK, ad esempio.  |  Non applicabile |  Richiesto  | 
| Fornisci un notebook Jupyter ospitato per GitHub dimostrare l'uso completo del prodotto. Per informazioni, consulta [Requisiti per il notebook Jupyter](#ml-requirements-for-jupyter-notebook).  |  Richiesto  |  Richiesto  | 
| Fornisci informazioni tecniche relative all'utilizzo del prodotto, inclusi manuali utente e dati di esempio.  |  Consigliato  |  Consigliato  | 

# Risoluzione dei problemi relativi ai prodotti di machine learning
<a name="ml-troubleshooting"></a>

 Questa sezione fornisce assistenza per alcuni errori comuni che potresti riscontrare durante il processo di pubblicazione del tuo prodotto di machine learning. Se il problema non è elencato, contatta il team [operativo Marketplace AWS del venditore](https://aws.amazon.com/marketplace/management/contact-us/). 

## Generale: ricevo un errore 400 quando aggiungo l'Amazon Resource Name (ARN) del mio pacchetto modello o algoritmo nel Portale di gestione Marketplace AWS
<a name="troubleshooting_error_code_400"></a>

### Cause comuni
<a name="troubleshooting_common_cause"></a>

 Quando hai creato il tuo prodotto di machine learning in SageMaker AI, non hai scelto di pubblicarlo in Marketplace AWS. 

### Risoluzione
<a name="troubleshooting_resolution"></a>

 Se hai utilizzato la console Amazon SageMaker AI per creare la tua risorsa, devi scegliere **Sì** nella pagina finale del processo per **Pubblica questo pacchetto modello in Marketplace AWS** o **Sì** per **Pubblica questo algoritmo in Marketplace AWS**. Non puoi scegliere **No** e pubblicarlo successivamente. Selezionando **Sì** non viene pubblicato il pacchetto modello o l'algoritmo. Tuttavia, convalida il pacchetto modello o la risorsa dell'algoritmo al momento della creazione, operazione necessaria per l'utilizzo in Marketplace AWS.

 Se utilizzi l' AWS SDK per [creare un pacchetto modello](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModelPackage.html#sagemaker-CreateModelPackage-request-CertifyForMarketplace) o [creare un algoritmo](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAlgorithm.html#sagemaker-CreateAlgorithm-request-CertifyForMarketplace), assicurati che il parametro `CertifyForMarketplace` sia impostato su. `true` 

Dopo aver ricreato il pacchetto modello certificato e convalidato o la risorsa algoritmica, aggiungi il nuovo ARN in. Portale di gestione Marketplace AWS

## Generale: ottengo un errore 404 quando aggiungo l'ARN del mio pacchetto modello o algoritmo nel Portale di gestione Marketplace AWS
<a name="troubleshooting_error_code_404"></a>

### Cause comuni
<a name="troubleshooting_common_cause"></a>

 Questo errore può verificarsi per diversi motivi: 
+  L'ARN potrebbe non essere valido. 
+  Il pacchetto modello o la risorsa dell'algoritmo non sono stati creati nello Account AWS stesso account venditore. 
+  L'utente o il ruolo che utilizzi per la pubblicazione non dispone delle autorizzazioni IAM corrette per accedere al pacchetto del modello o alla risorsa dell'algoritmo. 

### Risoluzione
<a name="troubleshooting_resolution"></a>

1.  Controlla l'ARN per assicurarti che sia l'ARN corretto e sia nel formato previsto: 

    Per i pacchetti modello, ARNs dovrebbe essere simile a. `arn:aws:sagemaker:us-east-2:000123456789:model-package/my-model-package-name` 

    Per quanto riguarda gli algoritmi, ARNs dovrebbe essere simile a`arn:aws:sagemaker:us-east-2:000123456789:algorithm/my-algorithm`. 

1.  Assicurati che tutte le risorse e gli asset per la pubblicazione si trovino nell'Account venditore da cui stai pubblicando. 

1.  Assicurati che il tuo utente o ruolo disponga delle seguenti autorizzazioni: 

    Per i pacchetti modello, l'azione `sagemaker:DescribeModelPackage` sulla risorsa del pacchetto modello deve essere consentita. 

    Per gli algoritmi, l'azione `sagemaker:DescribeAlgorithm` sulla risorsa dell'algoritmo deve essere consentita. 

## Amazon SageMaker AI: ricevo il messaggio di errore «Errore client: accesso negato per il registro» quando creo un pacchetto modello o una risorsa algoritmica
<a name="troubleshooting_error_sm_access_denied"></a>

### Cause comuni
<a name="troubleshooting_common_cause"></a>

Questo errore può verificarsi quando l'immagine utilizzata per creare il pacchetto modello o l'algoritmo viene archiviata in un repository [Amazon ECR](https://aws.amazon.com/ecr/) che appartiene a un altro. Account AWS La convalida del pacchetto del modello o dell'algoritmo non supporta immagini tra account.

### Risoluzione
<a name="troubleshooting_resolution"></a>

Copia l'immagine in un repository Amazon ECR di proprietà di Account AWS quello che stai utilizzando per la pubblicazione. Quindi, procedi con la creazione della risorsa utilizzando la nuova posizione dell'immagine.

## Amazon SageMaker AI: ricevo «Not Started» e «Client error: nessuna scansione pianificata...» messaggi di errore quando creo un pacchetto modello o una risorsa algoritmica
<a name="troubleshooting_error_sm_failure"></a>

### Cause comuni
<a name="troubleshooting_common_cause"></a>

Questo errore può verificarsi quando l' SageMaker IA non riesce ad avviare una scansione dell'immagine del contenitore Docker archiviata in Amazon ECR.

### Risoluzione
<a name="troubleshooting_resolution"></a>

**In tal caso, apri la [console Amazon ECR](https://console.aws.amazon.com/ecr/repositories?region=us-east-2), trova l'archivio in cui è stata caricata l'immagine, scegli l'immagine, quindi scegli Scansione.**