As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Limites do Neptune ML
Os tipos de inferência atualmente compatíveis são classificação de nós, regressão de nós, classificação de bordas, regressão de bordas e previsão de links (consulte Capacidades do Neptune ML).
-
O tamanho máximo do grafo que o Neptune ML pode aceitar depende da quantidade de memória e armazenamento necessários durante a preparação dos dados, o treinamento de modelos e a inferência.
O tamanho máximo da memória de uma instância de processamento de dados do SageMaker AI é 768 GB. Como resultado, a fase de processamento de dados falhará se precisar de mais de 768 GB de memória.
O tamanho máximo da memória de uma instância de treinamento do SageMaker AI é 732 GB. Como resultado, a fase de treinamento falhará se precisar de mais de 732 GB de memória.
O tamanho máximo de uma carga útil de inferência para um endpoint do SageMaker AI é 6 MiB. Como resultado, a inferência indutiva falhará se a carga útil do subgrafo exceder esse tamanho.
-
Atualmente, o Neptune ML está disponível somente em regiões nas quais o Neptune e os outros serviços dos quais ele depende (como o AWS Lambda, o Amazon API Gateway e o Amazon SageMaker AI) são todos compatíveis.
Há diferenças na China (Pequim) e na China (Ningxia) relacionadas ao uso padrão da autenticação do IAM, conforme explicado aqui
além de outras diferenças. -
No momento, os endpoints de inferência de previsão de links lançados pelo Neptune ML só podem prever possíveis links com nós que estavam presentes no grafo durante o treinamento.
Por exemplo, considere um grafo com vértices
UsereMoviee bordasRated. Usando um modelo de recomendação de previsão de links do Neptune ML correspondente, é possível adicionar um novo usuário ao grafo e fazer com que o modelo preveja filmes para ele, mas o modelo só pode recomendar filmes que estavam presentes durante o treinamento de modelos. Embora a incorporação de nósUserseja calculada em tempo real usando o subgrafo local e o modelo de GNN e, portanto, possa mudar com o tempo à medida que os usuários avaliam os filmes, ela é comparada às incorporações de filmes estáticas pré-calculadas para a recomendação final. -
Os modelos KGE compatíveis com o Neptune ML funcionam apenas para tarefas de previsão de links, e as representações são específicas de vértices e tipos de borda presentes no grafo durante o treinamento. Isso significa que todos os vértices e os tipos de borda mencionados em uma consulta de inferência devem estar presentes no grafo durante o treinamento. As previsões para novos tipos de borda ou vértices não podem ser feitas sem treinar novamente o modelo.
Limitações de recursos do SageMaker AI
Dependendo das atividades e do uso de recursos ao longo do tempo, é possível encontrar mensagens de erro dizendo que você excedeu sua cota (ResourceLimitExceeded
Os nomes dos recursos do SageMaker AI correspondem às fases do Neptune ML da seguinte forma:
O
ProcessingJobdo SageMaker AI é usado por tarefas de processamento de dados, treinamento e transformação de modelos do Neptune.O
HyperParameterTuningJobdo SageMaker AI é usado por tarefas de treinamento de modelos do Neptune.O
TrainingJobdo SageMaker AI é usado por tarefas de treinamento de modelos do Neptune.O
Endpointdo SageMaker AI é usado por endpoints de inferência do Neptune.