Risolvi gli errori durante la creazione di un processo di valutazione del modello in Amazon SageMaker AI - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Risolvi gli errori durante la creazione di un processo di valutazione del modello in Amazon SageMaker AI

Importante

Per utilizzare SageMaker Clarify Foundation Model Evaluations (FMEval), è necessario eseguire l'aggiornamento alla nuova esperienza Studio.

A partire dal 30 novembre 2023, la precedente esperienza Amazon SageMaker Studio è ora denominata Amazon SageMaker Studio Classic. FMEval non è disponibile in Amazon SageMaker Studio Classic.

Per informazioni su come eseguire l’aggiornamento alla nuova esperienza di Studio, consulta Migrazione da Amazon SageMaker Studio Classic. Per informazioni sull’utilizzo dell’applicazione Studio Classic, consulta Amazon SageMaker Studio Classic.

Se riscontri un errore durante la creazione di un processo di valutazione del modello, utilizza l’elenco seguente per risolverlo. Se hai bisogno di ulteriore assistenza, contatta uno dei SupportoAWSnostri forum per sviluppatori per Amazon SageMaker AI.

Errore durante il caricamento dei dati da un bucket Amazon S3

Quando crei una valutazione del modello di fondazione, devi impostare le autorizzazioni corrette per il bucket S3 in cui archiviare l’input e l’output del modello. Se le autorizzazioni Cross-Origin Resource Sharing (CORS) non sono impostate correttamente, SageMaker AI genera il seguente errore:

Errore: impossibile inserire l'oggetto in s3: errore durante il caricamento dell'oggetto su S3Errore: impossibile inserire l'oggetto in S3: durante il tentativo di recuperare la risorsa. NetworkError

Per impostare le autorizzazioni corrette per il bucket, segui le istruzioni riportate nella sezione Configurazione dell’ambiente in Creazione di un processo di valutazione automatica del modello in Studio.

Il processo di elaborazione non è stato completato

I motivi più comuni per cui il processo di elaborazione non viene completato sono:

Consulta le sezioni seguenti per informazioni sulla mitigazione dei problemi.

Quota insufficiente

Quando esegui una valutazione del modello di base per un modello non distribuito, SageMaker Clarify distribuisce il tuo Large Language JumpStart Model (LLM) su un endpoint di intelligenza artificiale del tuo account. SageMaker Se il vostro account non dispone di una quota sufficiente per eseguire il JumpStart modello selezionato, il processo fallisce con un. ClientError Segui questa procedura per aumentare la tua quota:

Richiedi un aumento delle AWS Service Quotas
  1. Recupera il nome dell’istanza, la quota corrente e la quota necessaria dal messaggio di errore visualizzato sullo schermo. Ad esempio, nell’errore seguente:

    • Il nome dell’istanza è ml.g5.12xlarge.

    • La quota corrente, indicata dal numero che segue current utilization, è 0 instances.

    • La quota aggiuntiva richiesta, indicata dal numero che segue request delta, è 1 instances.

    Di seguito è riportato l’errore di esempio:

    ClientError: An error occurred (ResourceLimitExceeded) when calling the CreateEndpoint operation: The account-level service limit 'ml.g5.12xlarge for endpoint usage' is 0 Instances, with current utilization of 0 Instances and a request delta of 1 Instances. Please use AWS Service Quotas to request an increase for this quota. If AWS Service Quotas is not available, contact AWS support to request an increase for this quota

  2. Accedi Console di gestione AWS e apri la console Service Quotas.

  3. Nel riquadro di navigazione, in Gestisci quote, inserisci Amazon SageMaker AI.

  4. Scegli Visualizza quote.

  5. Nella barra di ricerca in Service Quotas, inserisci il nome dell’istanza della Fase 1. Ad esempio, utilizzando le informazioni contenute nel messaggio di errore della Fase 1, immetti ml.g5.12xlarge.

  6. Scegli il nome della quota che appare accanto al nome dell’istanza e termina con per l’utilizzo dell’endpoint. Ad esempio, utilizzando le informazioni contenute nel messaggio di errore della Fase 1, scegli ml.g5.12xlarge per l’utilizzo dell’endpoint.

  7. Scegli Richiedi un aumento a livello di account.

  8. In Aumenta il valore della quota, inserisci la quota richiesta necessaria tra le informazioni fornite nel messaggio di errore della Fase 1. Inserisci il totale di current utilization e request delta. Nell’errore di esempio precedente, current utilization è 0 Instances e request delta è 1 Instances. In questo esempio, richiedi una quota di 1 per ottenere la quota richiesta.

  9. Scegli Richiedi.

  10. Scegli Cronologia delle richieste di quote nel riquadro di navigazione.

  11. Quando lo stato passa da In sospeso ad Approvato, esegui nuovamente il processo. Potrebbe essere necessario aggiornare il browser per visualizzare la modifica.

Per ulteriori informazioni sulla richiesta di un aumento della quota, consulta Requesting a quota increase.

Memoria insufficiente

Se avvii una valutazione del modello di base su un' EC2 istanza Amazon che non dispone di memoria sufficiente per eseguire un algoritmo di valutazione, il processo fallisce con il seguente errore:

The actor is dead because its worker process has died. Worker exit type: SYSTEM_ERROR Worker exit detail: Worker unexpectedly exits with a connection error code 2. End of file. There are some potential root causes. (1) The process is killed by SIGKILL by OOM killer due to high memory usage. (2) ray stop --force is called. (3) The worker is crashed unexpectedly due to SIGSEGV or other unexpected errors. The actor never ran - it was cancelled before it started running.

Per aumentare la memoria disponibile per il processo di valutazione, passa a un’istanza con più memoria. Se utilizzi l’interfaccia utente, puoi scegliere un tipo di istanza in Configurazione del processore nella Fase 2. Se esegui il processo all'interno della console SageMaker AI, avvia un nuovo spazio utilizzando un'istanza con maggiore capacità di memoria.

Per un elenco di EC2 istanze Amazon, consulta Tipi di istanze.

Per ulteriori informazioni sulle istanze con una maggiore capacità di memoria, consulta Istanze ottimizzate per la memoria.

Controllo ping non superato

In alcuni casi, il processo di valutazione del modello di base fallirà perché non ha superato un controllo di ping durante l'implementazione dell'endpoint da parte dell' SageMaker intelligenza artificiale. Se non supera un test di ping, viene visualizzato il seguente errore:

ClientError: Error hosting endpoint your_endpoint_name: Failed. Reason: The primary container for production variant AllTraffic did not pass the ping health check. Please check CloudWatch logs for this endpoint..., Job exited for model: your_model_name of model_type: your_model_type

Se il processo genera questo errore, attendi qualche minuto ed esegui nuovamente il processo. Se l'errore persiste, contatta AWSSupport o AWSDeveloper Forums for Amazon SageMaker AI.

Non riesci a trovare le valutazioni dei modelli di base nella console di SageMaker intelligenza artificiale

Per utilizzare SageMaker Clarify Foundation Model Evaluations, è necessario eseguire l'aggiornamento alla nuova esperienza Studio. A partire dal 30 novembre 2023, la precedente esperienza Amazon SageMaker Studio è ora denominata Amazon SageMaker Studio Classic. La funzionalità di valutazione dei modelli di fondazione può essere utilizzata solo nell’esperienza aggiornata. Per informazioni su come aggiornare Studio, consulta Migrazione da Amazon SageMaker Studio Classic.

Il tuo modello non supporta la stereotipizzazione dei prompt

Solo alcuni JumpStart modelli supportano gli stereotipi immediati. Se si seleziona un JumpStart modello non supportato, viene visualizzato il seguente errore:

{"evaluationMetrics":"This model does not support Prompt stereotyping evaluation. Please remove that evaluation metric or select another model that supports it."}

Se si riceve questo errore, non è possibile utilizzare il modello selezionato in una valutazione di base. SageMaker Clarify sta attualmente lavorando per aggiornare tutti i JumpStart modelli per consentire rapide attività di stereotipizzazione in modo che possano essere utilizzati nella valutazione di un modello di base.

Errori di convalida dei set di dati (umani)

Il set di dati dei prompt personalizzato in un processo di valutazione del modello con lavoratori umani deve essere formattato utilizzando il formato JSON Lines con l’estensione .jsonl.

Quando avvii un processo, ogni oggetto JSON nel set di dati dei prompt viene convalidato in modo interdipendente. Se uno degli oggetti JSON non è valido, viene visualizzato il seguente errore.

Customer Error: Your input dataset could not be validated. Your dataset can have up to 1000 prompts. The dataset must be a valid jsonl file, and each prompt valid json object.To learn more about troubleshooting dataset validations errors, see Troubleshooting guide. Job executed for models: meta-textgeneration-llama-2-7b-f, pytorch-textgeneration1-alexa20b.

Affinché un set di dati dei prompt personalizzato superi tutte le convalide, è necessario che quanto segue sia true per tutti gli oggetti JSON nel file JSON Lines.

  • Ogni riga nel file del set di dati dei prompt deve essere un oggetto JSON valido.

  • I caratteri speciali come le virgolette (") devono essere sottoposti correttamente a escape. Ad esempio, se il prompt fosse "Claire said to the crowd, "Bananas are the best!"", le virgolette dovrebbero essere sottoposte a escape con \, quindi "Claire said to the crowd, \"Bananas are the best!\"".

  • Un oggetto JSON valido deve contenere almeno la coppia chiave-valore prompt.

  • Un file del set di dati dei prompt non può contenere più di 1.000 oggetti JSON in un singolo file.

  • Se specifichi la chiave responses in un qualsiasi oggetto JSON, questa deve essere presente in tutti gli oggetti JSON.

  • Il numero massimo di oggetti nella chiave responses è 1. Se hai risposte da più modelli che intendi confrontare, ciascuna richiederà un set di dati BYOI separato.

  • Se specifichi la chiave responses in un qualsiasi oggetto JSON, questa deve contenere anche le chiavi modelIdentifier e text e in tutti gli oggetti responses.