启动 FHIR 导入任务 - AWS HealthLake

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

启动 FHIR 导入任务

StartFHIRImportJob用于启动 FHIR 导入 HealthLake 数据存储的任务。以下菜单提供了操作步骤 AWS Management Console 和 AWS CLI 和的代码示例 AWS SDKs。有关更多信息,请参阅 AWS HealthLake API 参考中的 StartFHIRImportJob

重要提示

HealthLake 支持用于医疗保健数据交换的 FHIR R4 规范。如果需要,您可以与AWS HealthLake 合作伙伴合作,在导入之前将您的健康数据转换为 FHIR R4 格式。

启动 FHIR 导入作业

根据您的访问偏好选择菜单 AWS HealthLake。

CLI
AWS CLI

启动 FHIR 导入作业

以下start-fhir-import-job示例说明如何使用 AWS HealthLake启动 FHIR 导入任务。

aws healthlake start-fhir-import-job \ --input-data-config S3Uri="s3://(Bucket Name)/(Prefix Name)/" \ --job-output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \ --datastore-id (Data store ID) \ --data-access-role-arn "arn:aws:iam::(AWS Account ID):role/(Role Name)"

输出:

{ "DatastoreId": "(Data store ID)", "JobStatus": "SUBMITTED", "JobId": "c145fbb27b192af392f8ce6e7838e34f" }

有关更多信息,请参阅《AWS HealthLake 开发人员指南》中的将文件导入到 FHIR 数据存储

  • 有关 API 的详细信息,请参阅《AWS CLI 命令参考》中的 “启动 FHIRImport J ob”。

Python
适用于 Python 的 SDK (Boto3)
@classmethod def from_client(cls) -> "HealthLakeWrapper": """ Creates a HealthLakeWrapper instance with a default AWS HealthLake client. :return: An instance of HealthLakeWrapper initialized with the default HealthLake client. """ health_lake_client = boto3.client("healthlake") return cls(health_lake_client) def start_fhir_import_job( self, job_name: str, datastore_id: str, input_s3_uri: str, job_output_s3_uri: str, kms_key_id: str, data_access_role_arn: str, ) -> dict[str, str]: """ Starts a HealthLake import job. :param job_name: The import job name. :param datastore_id: The data store ID. :param input_s3_uri: The input S3 URI. :param job_output_s3_uri: The job output S3 URI. :param kms_key_id: The KMS key ID associated with the output S3 bucket. :param data_access_role_arn: The data access role ARN. :return: The import job. """ try: response = self.health_lake_client.start_fhir_import_job( JobName=job_name, InputDataConfig={"S3Uri": input_s3_uri}, JobOutputDataConfig={ "S3Configuration": { "S3Uri": job_output_s3_uri, "KmsKeyId": kms_key_id, } }, DataAccessRoleArn=data_access_role_arn, DatastoreId=datastore_id, ) return response except ClientError as err: logger.exception( "Couldn't start import job. Here's why %s", err.response["Error"]["Message"], ) raise
注意

还有更多相关信息 GitHub。在 AWS 代码示例存储库中查找完整示例,了解如何进行设置和运行。

示例可用性

找不到所需的内容? 使用本页右侧边栏上的 “提供反馈” 链接请求代码示例。

  1. 登录 HealthLake 控制台上的数据存储页面。

  2. 选择数据存储。

  3. 选择 Import(导入)

    将打开 “导入” 页面。

  4. 输入数据部分下,输入以下信息:

    • Amazon S3 中的输入数据位置

  5. 在 “导入输出文件” 部分下,输入以下信息:

    • 导入输出文件在 Amazon S3 中的位置

    • 导入输出文件加密

  6. 访问权限部分下,选择使用现有 IAM 服务角色并从服务角色名称菜单中选择该角色或选择创建 IAM 角色

  7. 选择导入数据

    注意

    在导入过程中,在页面顶部的横幅上选择 “复制作业 ID”。您可以使用JobID来请求导入任务属性 AWS CLI。有关更多信息,请参阅 获取 FHIR 导入任务属性