Amazon Managed Service for Apache Flink(Amazon MSF)는 이전에 Amazon Kinesis Data Analytics for Apache Flink로 알려져 있었습니다.
기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon Managed Service for Apache Flink(Table API) 시작하기
이 섹션에서는 Managed Service for Apache Flink의 기본 개념과 Table API 및 SQL을 사용해 Java로 애플리케이션을 구현하는 방법을 소개합니다. 동일한 애플리케이션 내에서 서로 다른 API 간에 전환하는 방법을 보여주며 애플리케이션을 생성하고 테스트하기 위한 사용 가능한 옵션을 설명합니다. 또한 이 가이드의 자습서를 완료하고 첫 번째 애플리케이션을 만드는 데 필요한 도구를 설치하는 방법에 대한 지침도 제공합니다.
주제
Managed Service for Apache Flink 애플리케이션 구성 요소 검토
참고
Managed Service for Apache Flink는 모든 Apache Flink API
Managed Service for Apache Flink 애플리케이션은 데이터를 처리하기 위해 Apache Flink 런타임을 사용하여 입력을 처리하고 출력을 생성하는 Java 애플리케이션을 사용합니다.
일반적인 Apache Flink 애플리케이션은 다음과 같은 구성 요소로 이루어져 있습니다.
-
런타임 속성: 런타임 속성을 사용하여 코드를 수정하거나 다시 게시하지 않고도 구성 파라미터를 애플리케이션에 전달할 수 있습니다.
-
소스: 애플리케이션은 하나 이상의 소스에서 데이터를 소비합니다. 소스는 커넥터
를 사용하여 Kinesis 데이터 스트림 또는 Amazon MSK 주제와 같은 외부 시스템에서 데이터를 읽습니다. 개발 또는 테스트용으로 소스가 임의로 테스트 데이터를 생성하도록 할 수도 있습니다. 자세한 내용은 Managed Service for Apache Flink에 스트리밍 데이터 소스 추가 단원을 참조하십시오. SQL 또는 Table API를 사용하면 소스가 소스 테이블로 정의됩니다. -
변환: 애플리케이션은 하나 이상의 변환을 통해 데이터를 처리하며 이러한 변환은 데이터를 필터링, 보강 또는 집계할 수 있습니다. SQL 또는 Table API를 사용하는 경우 변환은 테이블 또는 뷰에 대한 쿼리로 정의됩니다.
-
싱크: 애플리케이션이 싱크를 통해 외부 시스템으로 데이터를 전송합니다. 싱크는 커넥터
를 사용하여 Kinesis 데이터 스트림, Amazon MSK 주제, Amazon S3 버킷, 관계형 데이터베이스와 같은 외부 시스템으로 데이터를 전송합니다. 개발용으로만 출력을 인쇄하는 특수 커넥터도 사용할 수 있습니다. SQL 또는 Table API를 사용하는 경우 싱크는 결과를 삽입할 싱크 테이블로 정의됩니다. 자세한 내용은 Managed Service for Apache Flink에서 싱크를 사용하여 데이터 쓰기 단원을 참조하십시오.
애플리케이션은 사용 중인 Flink 커넥터 또는 잠재적으로 Java 라이브러리와 같은 일부 외부 종속성이 필요합니다. Amazon Managed Service for Apache Flink에서 실행하려면 애플리케이션을 종속성과 함께 fat-JAR로 패키징하고 Amazon S3 버킷에 업로드해야 합니다. 그런 다음 Managed Service for Apache Flink 애플리케이션을 생성합니다. 코드 패키지 위치와 기타 런타임 구성 파라미터를 전달합니다. 이 자습서에서는 Apache Maven을 사용하여 애플리케이션을 패키징하는 방법과 선택한 IDE에서 애플리케이션을 로컬로 실행하는 방법을 보여줍니다.
필수 사전 조건 완료
이 자습서를 시작하기 전에 Amazon Managed Service for Apache Flink(DataStream API) 시작하기의 첫 두 단계를 완료하세요.
시작하려면 애플리케이션 만들기 섹션을 참조하세요.