Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Résoudre les erreurs lors de la création d'une tâche d'évaluation de modèle dans Amazon SageMaker AI
Important
Pour utiliser les évaluations du modèle SageMaker Clarify Foundation (FMEval), vous devez passer à la nouvelle expérience Studio.
Depuis le 30 novembre 2023, l'expérience Amazon SageMaker Studio précédente s'appelle désormais Amazon SageMaker Studio Classic. FMEval n'est pas disponible dans Amazon SageMaker Studio Classic.
Pour en savoir plus sur la manière d’effectuer la mise à niveau vers la nouvelle expérience Studio, consultez Migration depuis Amazon SageMaker Studio Classic. Pour en savoir plus sur l’utilisation de l’application Studio Classic, consultez Amazon SageMaker Studio classique.
Si vous rencontrez une erreur lors de la création d’une tâche d’évaluation de modèles, utilisez la liste suivante pour dépanner votre évaluation. Si vous avez besoin d'une assistance supplémentaire, Support
Rubriques
Erreur lors du chargement de vos données à partir d’un compartiment Amazon S3
Lorsque vous créez une évaluation de modèles de fondation, vous devez définir les autorisations appropriées pour le compartiment S3 dans lequel vous souhaitez stocker les entrées et sorties de votre modèle. Si les autorisations de partage de ressources entre origines (CORS) ne sont pas définies correctement, SageMaker AI génère l'erreur suivante :
Erreur : Impossible de placer l'objet dans s3 : erreur lors du téléchargement de l'objet vers S3 Erreur : échec de l'insertion de l'objet dans S3 : NetworkError lors de la tentative de récupération de la ressource.
Pour définir les autorisations de compartiment appropriées, suivez les instructions figurant sous Configuration de votre environnement dans Création d’une tâche d’évaluation automatique de modèles dans Studio.
Échec de la tâche de traitement
Les raisons les plus courantes pour lesquelles votre tâche de traitement a échoué sont les suivantes :
Consultez les sections suivantes pour découvrir comment atténuer chaque problème.
Quota insuffisant
Lorsque vous effectuez une évaluation du modèle de base pour un JumpStart modèle non déployé, SageMaker Clarify déploie votre modèle linguistique étendu (LLM) sur un point de terminaison SageMaker AI de votre compte. Si le quota de votre compte n'est pas suffisant pour exécuter le JumpStart modèle sélectionné, la tâche échoue avec unClientError. Pour augmenter votre quota, procédez comme suit :
Demander une augmentation des Quotas de AWS Service
-
Extrayez le nom de l’instance, le quota actuel et le quota nécessaire à partir du message d’erreur affiché à l’écran. Par exemple, pour l’erreur suivante :
-
Le nom de l’instance est
ml.g5.12xlarge. -
Le quota actuel à partir du nombre suivant
current utilizationest de0 instances -
Le quota supplémentaire requis à partir du nombre suivant
request deltaest de1 instances.
Voici l’exemple d’erreur :
ClientError: An error occurred (ResourceLimitExceeded) when calling the CreateEndpoint operation: The account-level service limit 'ml.g5.12xlarge for endpoint usage' is 0 Instances, with current utilization of 0 Instances and a request delta of 1 Instances. Please use AWS Service Quotas to request an increase for this quota. If AWS Service Quotas is not available, contact AWS support to request an increase for this quota -
-
Connectez-vous à la console Service Quotas AWS Management Console et ouvrez-la
. -
Dans le volet de navigation, sous Gérer les quotas, entrez
Amazon SageMaker AI. -
Choisissez Afficher les quotas.
-
Dans la barre de recherche, sous Service Quotas, saisissez le nom de l’instance de l’étape 1. Par exemple, en utilisant les informations contenues dans le message d’erreur de l’étape 1, entrez
ml.g5.12xlarge. -
Choisissez le nom du quota qui apparaît à côté du nom de votre instance et se termine par pour l’utilisation de points de terminaison. Par exemple, en utilisant les informations contenues dans le message d’erreur de l’étape 1, choisissez ml.g5.12xlarge pour l’utilisation de points de terminaison.
-
Choisissez Demander une augmentation au niveau du compte.
-
Sous Augmenter la valeur du quota, entrez le quota requis à partir des informations fournies dans le message d’erreur de l’étape 1. Entrez la somme de
current utilizationetrequest delta. Dans l’exemple d’erreur précédent,current utilizationa pour valeur0 Instancesetrequest deltaa pour valeur1 Instances. Dans cet exemple, demandez un quota de1pour fournir le quota requis. -
Cliquez sur Demander.
-
Choisissez Historique des demandes de quotas dans le volet de navigation.
-
Lorsque le statut passe de En attente à Approuvé, réexécutez votre tâche. Vous pouvez avoir besoin d’actualiser votre navigateur pour voir le changement.
Pour plus d’informations sur la manière de demander une augmentation de votre quota, consultez Demande d’augmentation de quota.
Mémoire insuffisante
Si vous lancez une évaluation du modèle de base sur une EC2 instance Amazon qui ne dispose pas de suffisamment de mémoire pour exécuter un algorithme d'évaluation, la tâche échoue avec l'erreur suivante :
The actor is dead because its worker process has died. Worker exit type:
SYSTEM_ERROR Worker exit detail: Worker unexpectedly exits with a connection
error code 2. End of file. There are some potential root causes. (1) The
process is killed by SIGKILL by OOM killer due to high memory usage. (2) ray
stop --force is called. (3) The worker is crashed unexpectedly due to
SIGSEGV or other unexpected errors. The actor never ran - it was cancelled
before it started running.
Pour augmenter la mémoire disponible pour votre tâche d’évaluation, remplacez votre instance par une instance dotée de plus de mémoire. Si vous utilisez l’interface utilisateur, vous pouvez choisir un type d’instance sous Configuration du processeur à l’étape 2. Si vous exécutez votre tâche dans la console SageMaker AI, lancez un nouvel espace à l'aide d'une instance dotée d'une capacité de mémoire accrue.
Pour obtenir la liste des EC2 instances Amazon, consultez la section Types d'instances.
Pour plus d’informations sur les instances dotées d’une plus grande capacité de mémoire, consultez Instances à mémoire optimisée.
Échec lors de la vérification du ping
Dans certains cas, votre tâche d'évaluation du modèle de base échouera car elle n'a pas passé avec succès une vérification ping lors du déploiement de votre point de terminaison par l' SageMaker IA. Si elle ne réussit pas un test ping, l’erreur suivante apparaît :
ClientError: Error hosting endpoint
your_endpoint_name: Failed. Reason: The
primary container for production variant AllTraffic did not pass the ping
health check. Please check CloudWatch logs for this endpoint..., Job exited
for model: your_model_name of model_type:
your_model_type
Si votre tâche génère cette erreur, attendez quelques minutes et exécutez à nouveau votre tâche. Si l'erreur persiste, contactez le AWSSupport
Vous ne trouvez pas d'évaluations de modèles de base dans la console d' SageMaker IA
Pour utiliser les évaluations du modèle SageMaker Clarify Foundation, vous devez passer à la nouvelle expérience Studio. Depuis le 30 novembre 2023, l'expérience Amazon SageMaker Studio précédente s'appelle désormais Amazon SageMaker Studio Classic. La caractéristique d’évaluation des modèles de fondation ne peut être utilisée que dans l’expérience mise à jour. Pour en savoir plus sur la façon de mettre à jour Studio, consultez Migration depuis Amazon SageMaker Studio Classic.
Votre modèle ne prend pas en charge le stéréotypage d’invite
Seuls certains JumpStart modèles prennent en charge les stéréotypes rapides. Si vous sélectionnez un JumpStart modèle qui n'est pas pris en charge, le message d'erreur suivant apparaît :
{"evaluationMetrics":"This model does not support Prompt stereotyping
evaluation. Please remove that evaluation metric or select another model that
supports it."}
Si cette erreur s'affiche, vous ne pouvez pas utiliser le modèle que vous avez sélectionné dans le cadre d'une évaluation de base. SageMaker Clarify travaille actuellement à la mise à jour de tous les JumpStart modèles pour les tâches de stéréotypage rapides afin qu'ils puissent être utilisés dans une évaluation des modèles de base.
Erreurs de validation des jeux de données (humaines)
Le jeu de données d’invite personnalisé d’une tâche d’évaluation de modèles qui utilise des employés humains doit être formaté au format des lignes JSON à l’aide de l’extension .jsonl.
Lorsque vous démarrez une tâche, chaque objet JSON du jeu de données d’invite est validé de manière interdépendante. Si l’un des objets JSON n’est pas valide, l’erreur suivante s’affiche.
Customer Error: Your input dataset could not be validated. Your dataset can have up to 1000 prompts. The dataset must be a valid jsonl file, and each prompt valid json object.To learn more about troubleshooting dataset validations errors, see Troubleshooting guide. Job executed for models: meta-textgeneration-llama-2-7b-f, pytorch-textgeneration1-alexa20b.
Pour qu’un jeu de données d’invite personnalisé réussisse toutes les validations, les conditions suivantes doivent être vraies pour tous les objets JSON du fichier de lignes JSON.
-
Chaque ligne du fichier de jeu de données d’invite doit être un objet JSON valide.
-
Les caractères spéciaux tels que les guillemets (
") doivent être correctement échappés. Par exemple, si votre invite était"Claire said to the crowd, "Bananas are the best!"", les guillemets devraient être échappés à l’aide d’une\,"Claire said to the crowd, \"Bananas are the best!\"". -
Un objet JSON valide doit contenir au moins la paire clé/valeur
prompt. -
Un fichier de jeu de données d’invite ne peut pas contenir plus de 1 000 objets JSON dans un seul fichier.
-
Si vous spécifiez la clé
responsesdans un objet JSON quelconque, elle doit être présente dans tous les objets JSON. -
Le nombre maximal d’objets dans la clé
responsesest 1. Si vous souhaitez comparer les réponses de plusieurs modèles, chacun nécessite un jeu de données BYOI distinct. -
Si vous spécifiez la clé
responsesdans un objet JSON quelconque, il doit également contenir les clésmodelIdentifierettextdans tous les objetsresponses.