FHIR インポートジョブの開始 - AWS HealthLake

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

FHIR インポートジョブの開始

StartFHIRImportJob を使用して、HealthLake データストアへの FHIR インポートジョブを開始します。以下のメニューでは、 の手順 AWS Management Console と、 AWS CLI および AWS SDKs。詳細については、AWS HealthLake API リファレンスStartFHIRImportJob を参照してください。

[重要]

HealthLake は、医療データ交換の FHIR R4 仕様をサポートしています。必要に応じて、 AWS HealthLake パートナーと協力して、インポート前にヘルスデータを FHIR R4 形式に変換できます。

FHIR インポートジョブを開始するには

アクセス設定に基づいてメニューを選択します AWS HealthLake。

CLI
AWS CLI

FHIR インポートジョブを開始するには

次のstart-fhir-import-job例は、 AWS HealthLake を使用して FHIR インポートジョブを開始する方法を示しています。

aws healthlake start-fhir-import-job \ --input-data-config S3Uri="s3://(Bucket Name)/(Prefix Name)/" \ --job-output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \ --datastore-id (Data store ID) \ --data-access-role-arn "arn:aws:iam::(AWS Account ID):role/(Role Name)"

出力:

{ "DatastoreId": "(Data store ID)", "JobStatus": "SUBMITTED", "JobId": "c145fbb27b192af392f8ce6e7838e34f" }

詳細については、AWS HealthLake デベロッパーガイドの「FHIR データストアへのファイルインポート」を参照してください。

  • API の詳細については、AWS CLI コマンドリファレンスの「StartFHIRImportJob」を参照してください。

Python
SDK for Python (Boto3)
@classmethod def from_client(cls) -> "HealthLakeWrapper": """ Creates a HealthLakeWrapper instance with a default AWS HealthLake client. :return: An instance of HealthLakeWrapper initialized with the default HealthLake client. """ health_lake_client = boto3.client("healthlake") return cls(health_lake_client) def start_fhir_import_job( self, job_name: str, datastore_id: str, input_s3_uri: str, job_output_s3_uri: str, kms_key_id: str, data_access_role_arn: str, ) -> dict[str, str]: """ Starts a HealthLake import job. :param job_name: The import job name. :param datastore_id: The data store ID. :param input_s3_uri: The input S3 URI. :param job_output_s3_uri: The job output S3 URI. :param kms_key_id: The KMS key ID associated with the output S3 bucket. :param data_access_role_arn: The data access role ARN. :return: The import job. """ try: response = self.health_lake_client.start_fhir_import_job( JobName=job_name, InputDataConfig={"S3Uri": input_s3_uri}, JobOutputDataConfig={ "S3Configuration": { "S3Uri": job_output_s3_uri, "KmsKeyId": kms_key_id, } }, DataAccessRoleArn=data_access_role_arn, DatastoreId=datastore_id, ) return response except ClientError as err: logger.exception( "Couldn't start import job. Here's why %s", err.response["Error"]["Message"], ) raise
  • API の詳細については、 AWS SDK for Python (Boto3) API リファレンスのStartFHIRImportJob」を参照してください。

注記

GitHub には、その他のリソースもあります。AWS コード例リポジトリ で全く同じ例を見つけて、設定と実行の方法を確認してください。

可用性の例

必要なものが見つからなかった場合。このページの右側サイドバーにあるフィードバックを提供するリンクを使用して、コード例をリクエストします。

  1. HealthLake コンソールのデータストアページにサインインします。

  2. データストアを選択します。

  3. [インポート] を選択します。

    インポートページが開きます。

  4. 入力データセクションで、次の情報を入力します。

    • Amazon S3 の入力データの場所

  5. 出力ファイルのインポート セクションで、次の情報を入力します。

    • Amazon S3 で出力ファイルの場所をインポートする

    • 出力ファイルの暗号化をインポートする

  6. アクセス許可セクションで、既存の IAM サービスロールを使用する を選択し、サービスロール名メニューからロールを選択するか、IAM ロールの作成 を選択します。

  7. [データをインポート] を選択します。

    注記

    インポート中に、ページ上部のバナーでジョブ ID をコピーを選択します。を使用してインポートジョブのプロパティをJobIDリクエストできます AWS CLI。詳細については、「FHIR インポートジョブのプロパティの取得」を参照してください。