

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Limites do Neptune ML
<a name="machine-learning-limits"></a>
+ Os tipos de inferência atualmente compatíveis são classificação de nós, regressão de nós, classificação de bordas, regressão de bordas e previsão de links (consulte [Capacidades do Neptune ML](machine-learning.md#machine-learning-capabilities)).
+ O tamanho máximo do grafo que o Neptune ML pode aceitar depende da quantidade de memória e armazenamento necessários durante a [preparação dos dados](machine-learning-on-graphs-instance-selection.md#machine-learning-on-graphs-processing-instance-size), o [treinamento de modelos](machine-learning-on-graphs-instance-selection.md#machine-learning-on-graphs-training-transform-instance-size) e a [inferência](machine-learning-on-graphs-instance-selection.md#machine-learning-on-graphs-inference-endpoint-instance-size).
  + O tamanho máximo da memória de uma instância de processamento de dados do SageMaker AI é 768 GB. Como resultado, a fase de processamento de dados falhará se precisar de mais de 768 GB de memória.
  + O tamanho máximo da memória de uma instância de treinamento do SageMaker AI é 732 GB. Como resultado, a fase de treinamento falhará se precisar de mais de 732 GB de memória.
+ O tamanho máximo de uma carga útil de inferência para um endpoint do SageMaker AI é 6 MiB. Como resultado, a inferência indutiva falhará se a carga útil do subgrafo exceder esse tamanho.
+ Atualmente, o Neptune ML está disponível somente em regiões nas quais o Neptune e os outros serviços dos quais ele depende (como o AWS Lambda, o Amazon API Gateway e o Amazon SageMaker AI) são todos compatíveis.

  Há diferenças na China (Pequim) e na China (Ningxia) relacionadas ao uso padrão da autenticação do IAM, conforme [explicado aqui](https://docs.amazonaws.cn/en_us/aws/latest/userguide/api-gateway.html#feature-diff) além de outras diferenças.
+ No momento, os endpoints de inferência de previsão de links lançados pelo Neptune ML só podem prever possíveis links com nós que estavam presentes no grafo durante o treinamento.

  Por exemplo, considere um grafo com vértices `User` e `Movie` e bordas `Rated`. Usando um modelo de recomendação de previsão de links do Neptune ML correspondente, é possível adicionar um novo usuário ao grafo e fazer com que o modelo preveja filmes para ele, mas o modelo só pode recomendar filmes que estavam presentes durante o treinamento de modelos. Embora a incorporação de nós `User` seja calculada em tempo real usando o subgrafo local e o modelo de GNN e, portanto, possa mudar com o tempo à medida que os usuários avaliam os filmes, ela é comparada às incorporações de filmes estáticas pré-calculadas para a recomendação final.
+ Os modelos KGE compatíveis com o Neptune ML funcionam apenas para tarefas de previsão de links, e as representações são específicas de vértices e tipos de borda presentes no grafo durante o treinamento. Isso significa que todos os vértices e os tipos de borda mencionados em uma consulta de inferência devem estar presentes no grafo durante o treinamento. As previsões para novos tipos de borda ou vértices não podem ser feitas sem treinar novamente o modelo.

## Limitações de recursos do SageMaker AI
<a name="machine-learning-limits-sagemaker"></a>

Dependendo das atividades e do uso de recursos ao longo do tempo, é possível encontrar mensagens de erro dizendo que [você excedeu sua cota](https://docs.aws.amazon.com/sagemaker/latest/dg/regions-quotas.html) ([ResourceLimitExceeded](https://repost.aws/knowledge-center/sagemaker-resource-limit-exceeded-error)). É necessário aumentar a escala verticalmente dos recursos do SageMaker AI. Siga as etapas no procedimento [Solicitar um aumento da cota de serviço para recursos do SageMaker](https://docs.aws.amazon.com/sagemaker/latest/dg/regions-quotas.html#service-limit-increase-request-procedure) nesta página para solicitar aumento da cota ao AWS Support.

Os nomes dos recursos do SageMaker AI correspondem às fases do Neptune ML da seguinte forma:
+ O `ProcessingJob` do SageMaker AI é usado por tarefas de processamento de dados, treinamento e transformação de modelos do Neptune.
+ O `HyperParameterTuningJob` do SageMaker AI é usado por tarefas de treinamento de modelos do Neptune.
+ O `TrainingJob` do SageMaker AI é usado por tarefas de treinamento de modelos do Neptune.
+ O `Endpoint` do SageMaker AI é usado por endpoints de inferência do Neptune.