Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Esempi di codice per la personalizzazione del modello
I seguenti esempi di codice mostrano come preparare un set di dati di base, impostare le autorizzazioni, creare un modello personalizzato, visualizzare i file di output, acquistare throughput per il modello ed eseguire l’inferenza sul modello. È possibile modificare questi frammenti di codice in base al caso d’uso specifico.
-
Preparare il set di dati di addestramento.
-
Crea un file del set di dati di addestramento contenente la riga seguente e assegnagli un nome.
train.jsonl{"prompt": "what isAWS", "completion": "it's Amazon Web Services"} -
Creare un bucket S3 per i dati di addestramento e un altro per i dati di output (i nomi devono essere univoci).
-
Caricalo
train.jsonlnel bucket dei dati di allenamento.
-
-
Creare una policy per accedere all’addestramento e collegarla a un ruolo IAM con una relazione di attendibilità di Amazon Bedrock. Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:
- Console
-
-
Crea la policy S3.
-
Accedi alla console IAM all'indirizzo https://console.aws.amazon.com/iam
e scegli Policies dal riquadro di navigazione a sinistra. -
Seleziona Crea policy, quindi scegli JSON per aprire l’Editor di policy.
-
Incolla la seguente policy, sostituendo
${training-bucket}e${output-bucket}con i nomi dei bucket, quindi seleziona Avanti.JSON- JSON
-
{ "Version":"2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${training-bucket}", "arn:aws:s3:::${training-bucket}/*" ] }, { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${output-bucket}", "arn:aws:s3:::${output-bucket}/*" ] } ] }
-
Assegna un nome alla politica
MyFineTuningDataAccesse seleziona Crea politica.
-
-
Crea un ruolo IAM e collega la policy.
-
Nel riquadro di navigazione a sinistra, scegli Ruoli, poi Crea ruolo.
-
Seleziona Policy di attendibilità personalizzata, incolla la seguente policy e seleziona Avanti.
JSON- JSON
-
{ "Version":"2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
-
Cerca la
MyFineTuningDataAccesspolitica che hai creato, seleziona la casella di controllo e scegli Avanti. -
Assegna un nome al ruolo
MyCustomizationRolee selezionaCreate role.
-
-
- CLI
-
-
Crea un file chiamato
BedrockTrust.jsone incolla la seguente politica al suo interno.JSON- JSON
-
{ "Version":"2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
-
Crea un altro file chiamato
MyFineTuningDataAccess.jsone incolla la seguente politica al suo interno, sostituendo${training-bucket}e${output-bucket}con i nomi dei tuoi bucket.JSON- JSON
-
{ "Version":"2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${training-bucket}", "arn:aws:s3:::${training-bucket}/*" ] }, { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${output-bucket}", "arn:aws:s3:::${output-bucket}/*" ] } ] }
-
In un terminale, accedi alla cartella contenente le policy che hai creato.
-
Fai una CreateRolerichiesta per creare un ruolo IAM chiamato
MyCustomizationRolee allega la policy diBedrockTrust.jsonfiducia che hai creato.aws iam create-role \ --role-name MyCustomizationRole \ --assume-role-policy-document file://BedrockTrust.json -
Fai una CreatePolicyrichiesta per creare la policy di accesso ai dati di S3 con il
MyFineTuningDataAccess.jsonfile che hai creato. La risposta restituisce unArnper la policy.aws iam create-policy \ --policy-name MyFineTuningDataAccess \ --policy-document file://myFineTuningDataAccess.json -
Fai una AttachRolePolicyrichiesta per allegare la policy di accesso ai dati di S3 al tuo ruolo, sostituendola
policy-arncon l'ARN nella risposta del passaggio precedente:aws iam attach-role-policy \ --role-name MyCustomizationRole \ --policy-arn${policy-arn}
-
- Python
-
-
Esegui il codice seguente per fare una CreateRolerichiesta per creare un ruolo IAM chiamato
MyCustomizationRolee per fare una CreatePolicyrichiesta per creare una policy di accesso ai dati S3 chiamata.MyFineTuningDataAccessPer la politica di accesso ai dati di S3, sostituisci${training-bucket}e${output-bucket}con i nomi dei bucket S3.import boto3 import json iam = boto3.client("iam") iam.create_role( RoleName="MyCustomizationRole", AssumeRolePolicyDocument=json.dumps({ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }) ) iam.create_policy( PolicyName="MyFineTuningDataAccess", PolicyDocument=json.dumps({ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${training-bucket}", "arn:aws:s3:::${training-bucket}/*" ] }, { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${output-bucket}", "arn:aws:s3:::${output-bucket}/*" ] } ] }) ) -
Un
Arnviene restituito nella risposta. Esegui il seguente frammento di codice per effettuare una AttachRolePolicyrichiesta, sostituendolo con quello restituito.${policy-arn}Arniam.attach_role_policy( RoleName="MyCustomizationRole", PolicyArn="${policy-arn}" )
-
-
Seleziona una lingua per visualizzare esempi di codice per chiamare le operazioni dell’API per la personalizzazione del modello.
- CLI
-
Innanzitutto, crea un file di testo denominato.
FineTuningData.jsonCopia il codice JSON dal basso nel file di testo, sostituendo${training-bucket}e${output-bucket}con i nomi dei bucket S3.{ "trainingDataConfig": { "s3Uri": "s3://${training-bucket}/train.jsonl" }, "outputDataConfig": { "s3Uri": "s3://${output-bucket}" } }Per inviare un lavoro di personalizzazione del modello, accedi alla cartella contenuta
FineTuningData.jsonin un terminale ed esegui il seguente comando nella riga di comando, sostituendolo${your-customization-role-arn}con il ruolo di personalizzazione del modello che hai impostato.aws bedrock create-model-customization-job \ --customization-type FINE_TUNING \ --base-model-identifier arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-text-express-v1 \ --role-arn${your-customization-role-arn}\ --job-name MyFineTuningJob \ --custom-model-name MyCustomModel \ --hyper-parameters epochCount=1,batchSize=1,learningRate=.0001,learningRateWarmupSteps=0 \ --cli-input-json file://FineTuningData.jsonLa risposta restituisce un
jobArn. Attendi il completamento del processo. Puoi verificarne lo stato con il seguente comando.aws bedrock get-model-customization-job \ --job-identifier "jobArn"Quando lo
statusèCOMPLETE, puoi visualizzare letrainingMetricsnella risposta. È possibile scaricare gli artefatti nella cartella corrente eseguendo il comando seguente, sostituendoloaet.et-bucketcon il nome del bucket di output ejobIdcon l'ID del processo di personalizzazione (la sequenza che segue l'ultima barra del).jobArnaws s3 cp s3://${output-bucket}/model-customization-job-jobId. --recursiveAcquista uno throughput assegnato senza impegno per il tuo modello personalizzato con il seguente comando.
Nota
Per questo acquisto ti verrà addebitata una tariffa oraria. Usa la console per visualizzare le stime dei prezzi per le diverse opzioni.
aws bedrock create-provisioned-model-throughput \ --model-id MyCustomModel \ --provisioned-model-name MyProvisionedCustomModel \ --model-units 1La risposta restituisce un
provisionedModelArn. Attendi un po’ di tempo per la creazione dello throughput assegnato. Per verificarne lo stato, fornisci il nome o l’ARN del modello assegnato come ilprovisioned-model-idnel seguente comando.aws bedrock get-provisioned-model-throughput \ --provisioned-model-id${provisioned-model-arn}Quando lo
statusèInService, puoi eseguire l’inferenza con il tuo modello personalizzato con il seguente comando. Devi fornire l’ARN del modello assegnato come ilmodel-id. L'output viene scritto in un file denominatooutput.txtnella cartella corrente.aws bedrock-runtime invoke-model \ --model-id${provisioned-model-arn}\ --body '{"inputText": "What isAWS?", "textGenerationConfig": {"temperature": 0.5}}' \ --cli-binary-format raw-in-base64-out \ output.txt - Python
-
Esegui il seguente frammento di codice per inviare un processo di fine-tuning. Sostituisci
${your-customization-role-arn}con l'ARN del fileMyCustomizationRoleche hai impostato e sostituito${training-bucket}e${output-bucket}con i nomi dei tuoi bucket S3.import boto3 bedrock = boto3.client(service_name='bedrock') # Set parameters customizationType = "FINE_TUNING" baseModelIdentifier = "arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-text-express-v1" roleArn = "${your-customization-role-arn}" jobName = "MyFineTuningJob" customModelName = "MyCustomModel" hyperParameters = { "epochCount": "1", "batchSize": "1", "learningRate": ".0001", "learningRateWarmupSteps": "0" } trainingDataConfig = {"s3Uri": "s3://${training-bucket}/myInputData/train.jsonl"} outputDataConfig = {"s3Uri": "s3://${output-bucket}/myOutputData"} # Create job response_ft = bedrock.create_model_customization_job( jobName=jobName, customModelName=customModelName, roleArn=roleArn, baseModelIdentifier=baseModelIdentifier, hyperParameters=hyperParameters, trainingDataConfig=trainingDataConfig, outputDataConfig=outputDataConfig ) jobArn = response_ft.get('jobArn')La risposta restituisce un
jobArn. Attendi il completamento del processo. Puoi verificarne lo stato con il seguente comando.bedrock.get_model_customization_job(jobIdentifier=jobArn).get('status')Quando lo
statusèCOMPLETE, puoi vederlotrainingMetricsnella risposta. GetModelCustomizationJob Puoi anche seguire la procedura descritta in Download degli oggetti per scaricare le metriche.Acquista uno throughput assegnato senza impegno per il tuo modello personalizzato con il seguente comando.
response_pt = bedrock.create_provisioned_model_throughput( modelId="MyCustomModel", provisionedModelName="MyProvisionedCustomModel", modelUnits="1" ) provisionedModelArn = response_pt.get('provisionedModelArn')La risposta restituisce un
provisionedModelArn. Attendi un po’ di tempo per la creazione dello throughput assegnato. Per verificarne lo stato, fornisci il nome o l’ARN del modello assegnato come ilprovisionedModelIdnel seguente comando.bedrock.get_provisioned_model_throughput(provisionedModelId=provisionedModelArn)Quando lo
statusèInService, puoi eseguire l’inferenza con il tuo modello personalizzato con il seguente comando. Devi fornire l’ARN del modello assegnato come ilmodelId.import json import logging import boto3 from botocore.exceptions import ClientError class ImageError(Exception): "Custom exception for errors returned by the model" def __init__(self, message): self.message = message logger = logging.getLogger(__name__) logging.basicConfig(level=logging.INFO) def generate_text(model_id, body): """ Generate text using your provisioned custom model. Args: model_id (str): The model ID to use. body (str) : The request body to use. Returns: response (json): The response from the model. """ logger.info( "Generating text with your provisioned custom model %s", model_id) brt = boto3.client(service_name='bedrock-runtime') accept = "application/json" content_type = "application/json" response = brt.invoke_model( body=body, modelId=model_id, accept=accept, contentType=content_type ) response_body = json.loads(response.get("body").read()) finish_reason = response_body.get("error") if finish_reason is not None: raise ImageError(f"Text generation error. Error is {finish_reason}") logger.info( "Successfully generated text with provisioned custom model %s", model_id) return response_body def main(): """ Entrypoint for example. """ try: logging.basicConfig(level=logging.INFO, format="%(levelname)s: %(message)s") model_id = provisionedModelArn body = json.dumps({ "inputText": "what isAWS?" }) response_body = generate_text(model_id, body) print(f"Input token count: {response_body['inputTextTokenCount']}") for result in response_body['results']: print(f"Token count: {result['tokenCount']}") print(f"Output text: {result['outputText']}") print(f"Completion reason: {result['completionReason']}") except ClientError as err: message = err.response["Error"]["Message"] logger.error("A client error occurred: %s", message) print("A client error occured: " + format(message)) except ImageError as err: logger.error(err.message) print(err.message) else: print( f"Finished generating text with your provisioned custom model {model_id}.") if __name__ == "__main__": main()