Limites do Neptune ML - Amazon Neptune

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Limites do Neptune ML

  • Os tipos de inferência atualmente compatíveis são classificação de nós, regressão de nós, classificação de bordas, regressão de bordas e previsão de links (consulte Capacidades do Neptune ML).

  • O tamanho máximo do grafo que o Neptune ML pode aceitar depende da quantidade de memória e armazenamento necessários durante a preparação dos dados, o treinamento de modelos e a inferência.

    • O tamanho máximo da memória de uma instância de processamento de dados do SageMaker AI é 768 GB. Como resultado, a fase de processamento de dados falhará se precisar de mais de 768 GB de memória.

    • O tamanho máximo da memória de uma instância de treinamento do SageMaker AI é 732 GB. Como resultado, a fase de treinamento falhará se precisar de mais de 732 GB de memória.

  • O tamanho máximo de uma carga útil de inferência para um endpoint do SageMaker AI é 6 MiB. Como resultado, a inferência indutiva falhará se a carga útil do subgrafo exceder esse tamanho.

  • Atualmente, o Neptune ML está disponível somente em regiões nas quais o Neptune e os outros serviços dos quais ele depende (como o AWS Lambda, o Amazon API Gateway e o Amazon SageMaker AI) são todos compatíveis.

    Há diferenças na China (Pequim) e na China (Ningxia) relacionadas ao uso padrão da autenticação do IAM, conforme explicado aqui além de outras diferenças.

  • No momento, os endpoints de inferência de previsão de links lançados pelo Neptune ML só podem prever possíveis links com nós que estavam presentes no grafo durante o treinamento.

    Por exemplo, considere um grafo com vértices User e Movie e bordas Rated. Usando um modelo de recomendação de previsão de links do Neptune ML correspondente, é possível adicionar um novo usuário ao grafo e fazer com que o modelo preveja filmes para ele, mas o modelo só pode recomendar filmes que estavam presentes durante o treinamento de modelos. Embora a incorporação de nós User seja calculada em tempo real usando o subgrafo local e o modelo de GNN e, portanto, possa mudar com o tempo à medida que os usuários avaliam os filmes, ela é comparada às incorporações de filmes estáticas pré-calculadas para a recomendação final.

  • Os modelos KGE compatíveis com o Neptune ML funcionam apenas para tarefas de previsão de links, e as representações são específicas de vértices e tipos de borda presentes no grafo durante o treinamento. Isso significa que todos os vértices e os tipos de borda mencionados em uma consulta de inferência devem estar presentes no grafo durante o treinamento. As previsões para novos tipos de borda ou vértices não podem ser feitas sem treinar novamente o modelo.

Limitações de recursos do SageMaker AI

Dependendo das atividades e do uso de recursos ao longo do tempo, é possível encontrar mensagens de erro dizendo que você excedeu sua cota (ResourceLimitExceeded). É necessário aumentar a escala verticalmente dos recursos do SageMaker AI. Siga as etapas no procedimento Solicitar um aumento da cota de serviço para recursos do SageMaker nesta página para solicitar aumento da cota ao AWS Support.

Os nomes dos recursos do SageMaker AI correspondem às fases do Neptune ML da seguinte forma:

  • O ProcessingJob do SageMaker AI é usado por tarefas de processamento de dados, treinamento e transformação de modelos do Neptune.

  • O HyperParameterTuningJob do SageMaker AI é usado por tarefas de treinamento de modelos do Neptune.

  • O TrainingJob do SageMaker AI é usado por tarefas de treinamento de modelos do Neptune.

  • O Endpoint do SageMaker AI é usado por endpoints de inferência do Neptune.