

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Limiti di Neptune ML
<a name="machine-learning-limits"></a>
+ I tipi di inferenza attualmente supportati sono: classificazione dei nodi, regressione dei nodi, classificazione degli archi, regressione degli archi e la previsione dei collegamenti (consulta [Funzionalità di Neptune ML](machine-learning.md#machine-learning-capabilities)).
+ Le dimensioni massime del grafo supportate da Neptune ML dipendono dalla quantità di memoria e di spazio di archiviazione richiesti durante la [preparazione dei dati](machine-learning-on-graphs-instance-selection.md#machine-learning-on-graphs-processing-instance-size), l'[addestramento del modello](machine-learning-on-graphs-instance-selection.md#machine-learning-on-graphs-training-transform-instance-size) e l'[inferenza](machine-learning-on-graphs-instance-selection.md#machine-learning-on-graphs-inference-endpoint-instance-size).
  + La dimensione massima di memoria di un'istanza di elaborazione dati SageMaker AI è di 768 GB. Di conseguenza, la fase di elaborazione dei dati ha esito negativo se richiede più di 768 GB di memoria.
  + La dimensione massima di memoria di un'istanza di addestramento SageMaker AI è di 732 GB. Di conseguenza, la fase di addestramento ha esito negativo se richiede più di 732 GB di memoria.
+ La dimensione massima di un payload di inferenza per un endpoint SageMaker AI è di 6 MiB. Di conseguenza, l'inferenza induttiva ha esito negativo se il payload del sottografo supera questo limite.
+ Neptune ML è attualmente disponibile solo nelle regioni in cui Neptune e gli altri servizi da cui dipende (come Amazon API AWS Lambda Gateway e Amazon AI) sono tutti supportati. SageMaker 

  Esistono differenze tra la regione Cina (Pechino) e la regione Cina (Ningxia) in merito all'utilizzo predefinito dell'autenticazione IAM, come [spiegato qui](https://docs.amazonaws.cn/en_us/aws/latest/userguide/api-gateway.html#feature-diff), oltre ad altre differenze.
+ Gli endpoint di inferenza per la previsione dei collegamenti avviati da Neptune ML al momento possono solo prevedere i collegamenti possibili con i nodi presenti nel grafo durante l'addestramento.

  Ad esempio, si consideri un grafo con i vertici `User` e `Movie` e gli archi `Rated`. Utilizzando un modello di raccomandazione di previsione dei collegamenti Neptune ML, è possibile aggiungere un nuovo utente al grafo affinché il modello preveda i film per tale utente, ma il modello può raccomandare solo i film presenti al momento dell'addestramento del modello. Sebbene l'incorporamento del nodo `User` venga calcolato in tempo reale utilizzando il relativo sottografo locale e il modello GNN e possa quindi cambiare nel tempo in base alle valutazioni dei film da parte degli utenti, per la raccomandazione finale viene confrontato con gli incorporamenti di film statici e precalcolati.
+ I modelli di incorporamento del grafo della conoscenza supportati da Neptune ML funzionano solo per le attività di previsione dei collegamenti e le rappresentazioni sono specifiche per i vertici e i tipi di archi presenti nel grafo durante l'addestramento. Ciò significa che tutti i vertici e i tipi di archi a cui viene fatto riferimento in una query di inferenza dovevano essere presenti nel grafo durante l'addestramento. Non è possibile eseguire previsioni per nuovi tipi di archi o vertici senza riaddestrare il modello.

## SageMaker Limitazioni delle risorse AI
<a name="machine-learning-limits-sagemaker"></a>

A seconda delle tue attività e dell'utilizzo delle risorse nel tempo, potresti ricevere messaggi di errore che indicano che [hai superato la tua quota](https://docs.aws.amazon.com/sagemaker/latest/dg/regions-quotas.html) ([ResourceLimitExceeded](https://repost.aws/knowledge-center/sagemaker-resource-limit-exceeded-error)). E se devi aumentare le tue risorse SageMaker AI, segui i passaggi della procedura Richiedi un aumento della quota di servizio in questa pagina per [richiedere un aumento della quota di servizio per SageMaker le risorse](https://docs.aws.amazon.com/sagemaker/latest/dg/regions-quotas.html#service-limit-increase-request-procedure) in questa pagina per richiedere un aumento della quota a AWS Support.

SageMaker I nomi delle risorse AI corrispondono alle fasi di Neptune ML come segue:
+ L' SageMaker intelligenza artificiale `ProcessingJob` viene utilizzata dai lavori di elaborazione dati, formazione dei modelli e trasformazione dei modelli di Neptune.
+ L' SageMaker intelligenza artificiale `HyperParameterTuningJob` viene utilizzata dai lavori di formazione del modello Neptune.
+ L' SageMaker intelligenza artificiale `TrainingJob` viene utilizzata dai lavori di formazione del modello Neptune.
+ L' SageMaker intelligenza artificiale `Endpoint` viene utilizzata dagli endpoint di inferenza di Neptune.