本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
启动 FHIR 导入任务
StartFHIRImportJob用于启动 FHIR 导入 HealthLake 数据存储的任务。以下菜单提供了操作步骤 AWS Management Console 和 AWS CLI 和的代码示例 AWS SDKs。有关更多信息,请参阅 AWS HealthLake API 参考中的 StartFHIRImportJob。
    启动 FHIR 导入作业
    根据您的访问偏好选择菜单 AWS HealthLake。
  
    - CLI
 - 
            
     
        - AWS CLI
 
        - 
             
                    
启动 FHIR 导入作业
             
             
                    以下start-fhir-import-job示例说明如何使用 AWS HealthLake启动 FHIR 导入任务。
             
             
                
                aws healthlake start-fhir-import-job \
    --input-data-config S3Uri="s3://(Bucket Name)/(Prefix Name)/" \
    --job-output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \
    --datastore-id (Data store ID) \
    --data-access-role-arn "arn:aws:iam::(AWS Account ID):role/(Role Name)"
             
             
                    输出:
             
             
                    {
    "DatastoreId": "(Data store ID)",
    "JobStatus": "SUBMITTED",
    "JobId": "c145fbb27b192af392f8ce6e7838e34f"
}
             
             
                    有关更多信息,请参阅《AWS HealthLake 开发人员指南》中的将文件导入到 FHIR 数据存储。
             
            
         
    
 
         
    - Python
 - 
            
     
        - 适用于 Python 的 SDK (Boto3)
 
        - 
             
                
                
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.
        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)
    def start_fhir_import_job(
        self,
        job_name: str,
        datastore_id: str,
        input_s3_uri: str,
        job_output_s3_uri: str,
        kms_key_id: str,
        data_access_role_arn: str,
    ) -> dict[str, str]:
        """
        Starts a HealthLake import job.
        :param job_name: The import job name.
        :param datastore_id: The data store ID.
        :param input_s3_uri: The input S3 URI.
        :param job_output_s3_uri: The job output S3 URI.
        :param kms_key_id: The KMS key ID associated with the output S3 bucket.
        :param data_access_role_arn: The data access role ARN.
        :return: The import job.
        """
        try:
            response = self.health_lake_client.start_fhir_import_job(
                JobName=job_name,
                InputDataConfig={"S3Uri": input_s3_uri},
                JobOutputDataConfig={
                    "S3Configuration": {
                        "S3Uri": job_output_s3_uri,
                        "KmsKeyId": kms_key_id,
                    }
                },
                DataAccessRoleArn=data_access_role_arn,
                DatastoreId=datastore_id,
            )
            return response
        except ClientError as err:
            logger.exception(
                "Couldn't start import job. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
             
            
         
    
 
         
找不到所需的内容? 使用本页右侧边栏上的 “提供反馈” 链接请求代码示例。
- 
          
登录 HealthLake 控制台上的数据存储页面。
         - 
          
选择数据存储。
         - 
          
选择 Import(导入)。
          将打开 “导入” 页面。
         - 
          
在输入数据部分下,输入以下信息:
          
         - 
          
在 “导入输出文件” 部分下,输入以下信息:
          
          
         - 
          
在访问权限部分下,选择使用现有 IAM 服务角色并从服务角色名称菜单中选择该角色或选择创建 IAM 角色。
         - 
          
选择导入数据。