啟動 FHIR 匯入任務 - AWS HealthLake

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

啟動 FHIR 匯入任務

使用 在 HealthLake 資料存放區中StartFHIRImportJob啟動 FHIR 匯入任務。下列功能表提供 AWS CLI AWS SDKs 的 AWS 管理主控台 和 程式碼範例程序。如需詳細資訊,請參閱 AWS HealthLake API 參考中的 StartFHIRImportJob

Important (重要)

HealthLake 支援用於醫療保健資料交換的 FHIR R4 規格。如有需要,您可以與 AWS HealthLake 合作夥伴合作,在匯入之前將運作狀態資料轉換為 FHIR R4 格式。

啟動 FHIR 匯入任務

根據您的存取偏好設定選擇選單 AWS HealthLake。

CLI
AWS CLI

啟動 FHIR 匯入任務

下列start-fhir-import-job範例示範如何使用 AWS HealthLake 啟動 FHIR 匯入任務。

aws healthlake start-fhir-import-job \ --input-data-config S3Uri="s3://(Bucket Name)/(Prefix Name)/" \ --job-output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \ --datastore-id (Data store ID) \ --data-access-role-arn "arn:aws:iam::(AWS Account ID):role/(Role Name)"

輸出:

{ "DatastoreId": "(Data store ID)", "JobStatus": "SUBMITTED", "JobId": "c145fbb27b192af392f8ce6e7838e34f" }

如需詳細資訊,請參閱《AWS HealthLake 開發人員指南》中的將檔案匯入 FHIR 資料存放區

  • 如需 API 詳細資訊,請參閱《AWS CLI 命令參考》中的 StartFHIRImportJob

Python
適用於 Python 的 SDK (Boto3)
@classmethod def from_client(cls) -> "HealthLakeWrapper": """ Creates a HealthLakeWrapper instance with a default AWS HealthLake client. :return: An instance of HealthLakeWrapper initialized with the default HealthLake client. """ health_lake_client = boto3.client("healthlake") return cls(health_lake_client) def start_fhir_import_job( self, job_name: str, datastore_id: str, input_s3_uri: str, job_output_s3_uri: str, kms_key_id: str, data_access_role_arn: str, ) -> dict[str, str]: """ Starts a HealthLake import job. :param job_name: The import job name. :param datastore_id: The data store ID. :param input_s3_uri: The input S3 URI. :param job_output_s3_uri: The job output S3 URI. :param kms_key_id: The KMS key ID associated with the output S3 bucket. :param data_access_role_arn: The data access role ARN. :return: The import job. """ try: response = self.health_lake_client.start_fhir_import_job( JobName=job_name, InputDataConfig={"S3Uri": input_s3_uri}, JobOutputDataConfig={ "S3Configuration": { "S3Uri": job_output_s3_uri, "KmsKeyId": kms_key_id, } }, DataAccessRoleArn=data_access_role_arn, DatastoreId=datastore_id, ) return response except ClientError as err: logger.exception( "Couldn't start import job. Here's why %s", err.response["Error"]["Message"], ) raise
  • 如需 API 詳細資訊,請參閱《AWS SDK for Python (Boto3) API 參考》中的 StartFHIRImportJob

注意

GitHub 上提供更多範例。尋找完整範例,並了解如何在 AWS 程式碼範例儲存庫中設定和執行。

可用性範例

找不到所需的內容嗎? 使用此頁面右側的提供意見回饋連結來請求程式碼範例。

  1. 登入 HealthLake 主控台上的資料存放區頁面。

  2. 選擇資料存放區。

  3. 選擇匯入

    匯入頁面隨即開啟。

  4. 輸入資料區段下,輸入下列資訊:

    • Amazon S3 中的輸入資料位置

  5. 匯入輸出檔案區段下,輸入下列資訊:

    • 在 Amazon S3 中匯入輸出檔案位置

    • 匯入輸出檔案加密

  6. 存取許可區段下,選擇使用現有的 IAM 服務角色,然後從服務角色名稱功能表中選取角色,或選擇建立 IAM 角色

  7. 選擇匯入資料

    注意

    在匯入期間,選擇頁面頂端橫幅上的複製任務 ID。您可以使用 JobID來請求使用 匯入任務屬性 AWS CLI。如需詳細資訊,請參閱取得 FHIR 匯入任務屬性