

 Amazon Redshift는 패치 198부터 새 Python UDF 생성을 더 이상 지원하지 않습니다. 기존 Python UDF는 2026년 6월 30일까지 계속 작동합니다. 자세한 내용은 [블로그 게시물](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/)을 참조하세요.

# 다른 서비스와 함께 Amazon Redshift 사용
<a name="using-redshift-with-other-services"></a>

이 섹션에서는 Amazon Redshift 데이터의 소스 및 대상으로 다른 서비스를 사용할 수 있는 방법을 설명합니다.

Amazon Redshift는 다른 AWS 서비스와 통합되어 데이터 보안 기능을 사용하여 데이터를 빠르고 안정적으로 이동, 변환 및 로드할 수 있습니다.

------
#### [ S3 ]

Amazon Simple Storage Service(Amazon S3)는 클라우드에 데이터를 저장하는 웹 서비스입니다. Amazon Redshift는 병렬 처리를 활용하여 Amazon S3 버킷에 저장된 여러 데이터 파일에서 데이터를 읽고 로드합니다. 자세한 내용은 [Amazon S3에서 데이터 로드](t_Loading-data-from-S3.md) 섹션을 참조하세요.

병렬 처리를 사용하여 Amazon Redshift 데이터웨어 하우스의 데이터를 Amazon S3의 여러 데이터 파일로 내보낼 수도 있습니다. 자세한 내용은 [Amazon Redshift에서 데이터 언로드](c_unloading_data.md) 섹션을 참조하세요.

------
#### [ DynamoDB ]

Amazon DynamoDB는 완전관리형 NoSQL 데이터베이스 서비스입니다. COPY 명령을 사용하여 단일 Amazon DynamoDB 테이블에서 데이터와 함께 Amazon Redshift 테이블을 로드할 수 있습니다. 자세한 내용은 [Amazon DynamoDB 테이블에서 데이터 로드](t_Loading-data-from-dynamodb.md) 섹션을 참조하세요.

------
#### [ SSH ]

Amazon Redshift의 COPY 명령을 사용하여 Amazon EMR 클러스터, Amazon EC2 인스턴스 또는 다른 컴퓨터와 같은 하나 이상의 원격 호스트에서 데이터를 로드할 수 있습니다. COPY는 SSH를 사용하여 원격 호스트에 연결하고 원격 호스트에서 명령을 실행해 데이터를 생성합니다. Amazon Redshift는 여러 동시 연결을 지원합니다. COPY 명령이 다수의 호스트 원본에서 병렬 방식으로 데이터를 읽어와 로드합니다. 자세한 내용은 [원격 호스트에서 데이터 로드](loading-data-from-remote-hosts.md) 섹션을 참조하세요.

------
#### [ AWS DMS ]

AWS Database Migration Service를 사용하여 데이터를 Amazon Redshift로 마이그레이션할 수 있습니다. AWS DMS은 Oracle, PostgreSQL, Microsoft SQL Server, Amazon Redshift, Aurora DB 클러스터, DynamoDB, Amazon S3, MariaDB 및 MySQL과 같이 널리 사용되는 상용 및 오픈 소스 데이터베이스간에 데이터를 마이그레이션할 수 있습니다. 자세한 내용은 [AWS Database Migration Service 대상으로 Amazon Redshift 데이터베이스 사용](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Redshift.html) 섹션을 참조하세요.

------