FHIR エクスポートジョブの開始 - AWS HealthLake

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

FHIR エクスポートジョブの開始

StartFHIRExportJob を使用して HealthLake データストアから FHIR エクスポートジョブを開始します。次のメニューでは、 の手順と、 AWS Management Console および AWS CLI AWS SDKs。詳細については、AWS HealthLake API リファレンスStartFHIRExportJob を参照してください。

メモ

HealthLake は、ヘルスケアデータ交換の FHIR R4 仕様をサポートしています。したがって、すべてのヘルスデータは FHIR R4 形式でエクスポートされます。

FHIR エクスポートジョブを開始するには

アクセス設定に基づいてメニューを選択します AWS HealthLake。

CLI
AWS CLI

FHIR エクスポートジョブを開始するには

次のstart-fhir-export-job例は、 AWS HealthLake を使用して FHIR エクスポートジョブを開始する方法を示しています。

aws healthlake start-fhir-export-job \ --output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \ --datastore-id (Data store ID) \ --data-access-role-arn arn:aws:iam::(AWS Account ID):role/(Role Name)

出力:

{ "DatastoreId": "(Data store ID)", "JobStatus": "SUBMITTED", "JobId": "9b9a51943afaedd0a8c0c26c49135a31" }

詳細については、AWS HealthLake デベロッパーガイドの「FHIR データストアからのファイルエクスポート」を参照してください。

  • API の詳細については、AWS CLI コマンドリファレンスの「StartFHIRExportJob」を参照してください。

Python
SDK for Python (Boto3)
@classmethod def from_client(cls) -> "HealthLakeWrapper": """ Creates a HealthLakeWrapper instance with a default AWS HealthLake client. :return: An instance of HealthLakeWrapper initialized with the default HealthLake client. """ health_lake_client = boto3.client("healthlake") return cls(health_lake_client) def start_fhir_export_job( self, job_name: str, datastore_id: str, output_s3_uri: str, kms_key_id: str, data_access_role_arn: str, ) -> dict[str, str]: """ Starts a HealthLake export job. :param job_name: The export job name. :param datastore_id: The data store ID. :param output_s3_uri: The output S3 URI. :param kms_key_id: The KMS key ID associated with the output S3 bucket. :param data_access_role_arn: The data access role ARN. :return: The export job. """ try: response = self.health_lake_client.start_fhir_export_job( OutputDataConfig={ "S3Configuration": {"S3Uri": output_s3_uri, "KmsKeyId": kms_key_id} }, DataAccessRoleArn=data_access_role_arn, DatastoreId=datastore_id, JobName=job_name, ) return response except ClientError as err: logger.exception( "Couldn't start export job. Here's why %s", err.response["Error"]["Message"], ) raise
  • API の詳細については、 AWS SDK for Python (Boto3) API リファレンスのStartFHIRExportJob」を参照してください。

注記

GitHub には、その他のリソースもあります。AWS コード例リポジトリ で全く同じ例を見つけて、設定と実行の方法を確認してください。

可用性の例

必要なものが見つからなかった場合。このページの右側サイドバーにあるフィードバックを提供するリンクを使用して、コード例をリクエストします。

  1. HealthLake コンソールのデータストアページにサインインします。

  2. データストアを選択します。

  3. [エクスポート] を選択します。

    エクスポートページが開きます。

  4. 出力データセクションで、次の情報を入力します。

    • Amazon S3 でデータの場所を出力する

    • 出力の暗号化

  5. アクセス許可セクションで、既存の IAM サービスロールを使用する を選択し、ロール名メニューからロールを選択するか、IAM ロールの作成 を選択します。

  6. [エクスポートの開始] を選択します。

    注記

    エクスポート中に、ページ上部のバナーでジョブ ID をコピーを選択します。を使用してエクスポートジョブのプロパティをJobIDリクエストできます AWS CLI。詳細については、「FHIR エクスポートジョブのプロパティの取得」を参照してください。