Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Límites de Neptune ML
Los tipos de inferencia admitidos actualmente son la clasificación de nodos, la regresión de nodos, la clasificación de bordes, la regresión de bordes y la predicción de enlaces (consulte Capacidades de Neptune ML).
-
El tamaño máximo del gráfico que puede admitir Neptune ML depende de la cantidad de memoria y almacenamiento necesarios durante la preparación de los datos, el entrenamiento del modelo y la inferencia.
El tamaño máximo de memoria de una instancia de procesamiento de datos de SageMaker AI es de 768 GB. Como resultado, se produce un error en la etapa de procesamiento de datos si se necesitan más de 768 GB de memoria.
El tamaño máximo de memoria de una instancia de entrenamiento de SageMaker AI es de 732 GB. Como resultado, se produce un error en la etapa de entrenamiento si se necesitan más de 732 GB de memoria.
El tamaño máximo de una carga útil de inferencia para un punto de conexión de SageMaker AI es de 6 MiB. Como resultado, se produce un error en la inferencia inductiva si la carga útil del subgráfico supera este tamaño.
-
Por el momento, Neptune ML solo está disponible en las regiones en las que se admiten Neptune y los demás servicios de los que depende (como AWS Lambda, Amazon API Gateway y Amazon SageMaker AI).
Existen diferencias en China (Pekín) y China (Ningxia) relacionadas con el uso predeterminado de la autenticación de IAM, tal y como se explica aquí
junto con otras diferencias. -
Los puntos de conexión de inferencia de predicción de enlaces lanzados por Neptune ML actualmente solo pueden predecir posibles enlaces con nodos que estaban presentes en el gráfico durante el entrenamiento.
Por ejemplo, supongamos que tenemos un gráfico con los vértices
UseryMoviey los bordesRated. Con el modelo de recomendación de predicción de enlaces de Neptune ML correspondiente, puede añadir un nuevo usuario al gráfico y hacer que el modelo pronostique películas para él, pero el modelo solo puede recomendar películas que estuvieron presentes durante el entrenamiento del modelo. Aunque la incrustación de nodosUserse calcula en tiempo real mediante su subgráfico local y el modelo GNN y, por lo tanto, puede cambiar con el tiempo a medida que los usuarios valoran las películas, se compara con las incrustaciones de películas estáticas y precalculadas para la recomendación final. -
Los modelos KGE compatibles con Neptune ML solo funcionan para tareas de predicción de enlaces, y las representaciones son específicas de los tipos de bordes y vértices presentes en el gráfico durante el entrenamiento. Esto significa que todos los tipos de bordes y vértices a los que se hace referencia en una consulta de inferencia deben haber estado presentes en el gráfico durante el entrenamiento. No se pueden hacer predicciones para nuevos tipos de bordes o vértices sin volver a entrenar el modelo.
Limitaciones de los recursos de SageMaker AI
Según las actividades y el uso de recursos con el paso del tiempo, es posible que reciba mensajes de error que indiquen que ha superado su cuota (ResourceLimitExceeded
Los nombres de los recursos de SageMaker AI corresponden a las etapas de Neptune ML de la siguiente manera:
ProcessingJobde SageMaker AI lo utilizan los trabajos de procesamiento de datos, entrenamiento de modelos y transformación de modelos de Neptune.HyperParameterTuningJobde SageMaker AI lo utilizan los trabajos de entrenamiento de modelos de Neptune.TrainingJobde SageMaker AI lo utilizan los trabajos de entrenamiento de modelos de Neptune.Endpointde SageMaker AI lo utilizan los puntos de conexión de inferencia de Neptune.