

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Apache Airflow Snowflake 연결에 AWS Secrets Manager의 암호 키 사용
<a name="samples-sm-snowflake"></a>

다음 샘플은 Amazon Managed Workflows for Apache Airflow에서 Apache Airflow Snowflake 연결의 암호 키를 얻기 위해 AWS Secrets Manager을(를) 호출합니다. [AWS Secrets Manager 보안 암호를 사용하여 Apache Airflow 연결 구성](connections-secrets-manager.md)의 단계를 완료했다고 가정합니다.

**Topics**
+ [버전](#samples-sm-snowflake-version)
+ [사전 조건](#samples-sm-snowflake-prereqs)
+ [권한](#samples-sm-snowflake-permissions)
+ [요구 사항](#samples-sm-snowflake-dependencies)
+ [코드 샘플](#samples-sm-snowflake-code)
+ [다음 단계](#samples-sm-snowflake-next-up)

## 버전
<a name="samples-sm-snowflake-version"></a>

이 페이지의 코드 예제는 [Python 3.10](https://peps.python.org/pep-0619/)의 **Apache Airflow v2** 및 [Python 3.11](https://peps.python.org/pep-0664/)의 **Apache Airflow v3**에서 사용할 수 있습니다.

## 사전 조건
<a name="samples-sm-snowflake-prereqs"></a>

이 페이지의 이 샘플 코드를 사용하려면 다음 항목이 필요합니다.
+ [AWS Secrets Manager 보안 암호를 사용하여 Apache Airflow 연결 구성](connections-secrets-manager.md)에 나열된 바와 같은 Apache Airflow 구성 옵션인 Secrets Manager 백엔드.
+ [AWS Secrets Manager 보안 암호를 사용하여 Apache Airflow 연결 구성](connections-secrets-manager.md)에 나열된 바와 같은 Secrets Manager의 Apache Airflow 연결 문자열.

## 권한
<a name="samples-sm-snowflake-permissions"></a>
+ [AWS Secrets Manager 보안 암호를 사용하여 Apache Airflow 연결 구성](connections-secrets-manager.md)에 나열된 바와 같은 Secrets Manager 권한.

## 요구 사항
<a name="samples-sm-snowflake-dependencies"></a>

이 페이지의 샘플 코드를 사용하려면 다음 종속성을 사용자 `requirements.txt`에 추가합니다. 자세한 내용은 [Python 종속성 설치](working-dags-dependencies.md) 섹션을 참조하세요.

```
apache-airflow-providers-snowflake==1.3.0
```

## 코드 샘플
<a name="samples-sm-snowflake-code"></a>

다음 단계는 Secrets Manager를 호출하여 암호를 가져오는 DAG 코드를 만드는 방법을 설명합니다.

1. 명령 프롬프트에서 DAG 코드가 저장된 디렉터리로 이동합니다. 예:

   ```
   cd dags
   ```

1. 다음 코드 샘플의 내용을 복사하고 로컬에서 `snowflake_connection.py`로 저장합니다.

   ```
   """
   Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved.
    
   Permission is hereby granted, free of charge, to any person obtaining a copy of
   this software and associated documentation files (the "Software"), to deal in
   the Software without restriction, including without limitation the rights to
   use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies of
   the Software, and to permit persons to whom the Software is furnished to do so.
    
   THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
   IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS
   FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR
   COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER
   IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
   CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
   """
   from airflow import DAG
   from airflow.providers.snowflake.operators.snowflake import SnowflakeOperator
   from airflow.utils.dates import days_ago
   
   snowflake_query = [
       """use warehouse "MY_WAREHOUSE";""",
       """select * from "SNOWFLAKE_SAMPLE_DATA"."WEATHER"."WEATHER_14_TOTAL" limit 100;""",
   ]
   
   with DAG(dag_id='snowflake_test', schedule_interval=None, catchup=False, start_date=days_ago(1)) as dag:
       snowflake_select = SnowflakeOperator(
           task_id="snowflake_select",
           sql=snowflake_query,
           snowflake_conn_id="snowflake_conn",
       )
   ```

## 다음 단계
<a name="samples-sm-snowflake-next-up"></a>
+ 이 예제의 DAG 코드를 [DAG 추가 또는 업데이트](configuring-dag-folder.md)에서 Amazon S3 버킷의 `dags` 폴더에 업로드하는 방법을 알아봅니다.