

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 작동 방식
<a name="how-it-works"></a>

Amazon Comprehend는 사전 학습된 모델을 사용하여 문서 또는 문서 세트에 대한 **인사이트**를 수집합니다. 대량의 텍스트를 기반으로 이 모델을 지속적으로 학습시키기 때문에 학습 데이터를 제공할 필요가 없습니다.

Amazon Comprehend를 사용하여 사용자 지정 분류 및 사용자 지정 개체 인식을 위한 고유의 **사용자 지정 모델**을 구축할 수 있습니다. [플라이 휠](flywheels.md)을 사용하여 사용자 지정 모델을 관리할 수 있습니다.

Amazon Comprehend는 내장 모델을 사용하여 **주제 모델링**을 제공합니다. 주제 모델링은 문서 모음을 검사하고 문서 내의 유사한 키워드를 기반으로 문서를 구성합니다.

Amazon Comprehend는 동기 및 비동기 **문서 처리 모드**를 제공합니다. 문서 1개 또는 최대 25개의 문서 배치를 처리하려면 동기 모드를 사용하십시오. 비동기 작업을 사용하면 더 많은 문서를 처리할 수 있습니다.

Amazon Comprehend는 AWS Key Management Service (AWS KMS)와 함께 작동하여 데이터에 대한 향상된 암호화를 제공합니다. 자세한 내용은 [Amazon Comprehend에서의 KMS 암호화](kms-in-comprehend.md) 단원을 참조하십시오.



**Topics**
+ [

# 인사이트
](concepts-insights.md)
+ [

# Amazon Comprehend 사용자 정의
](concepts-custom.md)
+ [

# 주제 모델링
](topic-modeling.md)
+ [

# 문서 처리 모드
](concepts-processing-modes.md)

# 인사이트
<a name="concepts-insights"></a>

Amazon Comprehend는 문서 또는 문서 세트를 분석하여 이에 대한 인사이트를 수집할 수 있습니다. Amazon Comprehend가 문서에 대해 개발하는 몇 가지 인사이트는 다음과 같습니다.
+ [개체](how-entities.md) – Amazon Comprehend는 문서에 식별된 사람, 장소, 위치 등의 개체 목록을 반환합니다.
+ [이벤트](how-events.md) – Amazon Comprehend는 특정 유형의 이벤트 및 관련 세부 정보를 감지합니다.
+ [핵심 문구](how-key-phrases.md) – Amazon Comprehend는 문서에 나타나는 핵심 문구를 추출합니다. 예를 들어 농구 경기에 관한 문서에는 팀 이름, 경기장 이름, 최종 점수를 보낼 수 있습니다.
+ [개인 식별 정보(PII)](pii.md) – Amazon Comprehend는 문서를 분석하여 주소, 은행 계좌 번호, 전화번호와 같이 개인을 식별하는 개인 정보를 감지합니다.
+ [지배적 언어](how-languages.md) – Amazon Comprehend는 문서에서 주로 사용되는 언어를 식별합니다. Amazon Comprehend는 100개의 언어를 식별할 수 있습니다.
+ [감성](how-sentiment.md) – Amazon Comprehend는 문서의 지배적인 감성을 판단합니다. 감성은 긍정적, 중립적, 부정적 또는 혼합적일 수 있습니다.
+ [표적 감성](how-targeted-sentiment.md) – Amazon Comprehend는 문서에 언급된 특정 개체의 감성을 파악합니다. 각 멘션의 감성은 긍정적, 중립적, 부정적 또는 혼합적일 수 있습니다.
+ [구문 분석](how-syntax.md) – Amazon Comprehend는 문서의 각 단어를 분석하여 단어의 품사를 결정합니다. 예를 들어 “It is raining today in Seattle”이라는 문장에서 “it”은 대명사로, “raining”은 동사로, “Seattle”은 고유명사로 식별됩니다.

# 개체
<a name="how-entities"></a>

*개체*는 사람, 장소, 상품 등 실제 개체의 고유한 이름에 대한 텍스트 참조이며 동시에 날짜 및 수량과 같은 측정값에 대한 정확한 참조입니다.

예를 들어 “존이 2012년에 1313 모킹버드 레인으로 이사했다.”라는 텍스트에서 ‘존’은 `PERSON`으로, ‘1313 모킹버드 레인’은 `LOCATION`로, ‘2012"는 `DATE`로 인식될 수 있습니다.

또한 각 개체에는 Amazon Comprehend가 개체 유형을 올바르게 감지했다는 신뢰도 수준을 나타내는 점수도 있습니다. 점수가 낮은 개체를 필터링하여 잘못된 감지를 사용할 위험을 줄일 수 있습니다.

다음 표는 리소스 유형의 목록입니다.


| Type | 설명 | 
| --- | --- | 
|  상업\$1품목  | 브랜드 제품 | 
|  날짜  | 전체 날짜(예: 2017년 11월 25일), 요일(화요일), 월(5월) 또는 시간(오전 8:30) | 
|  이벤트  | 축제, 콘서트, 선거 등과 같은 행사 | 
|  위치  | 국가, 도시, 호수, 건물 등 특정 위치 | 
|  조직  | 정부, 회사, 종교, 스포츠 팀 등과 같은 대규모 조직 | 
|  기타  | 다른 개체 범주에 속하지 않는 개체 | 
|  개인  | 개인, 집단, 별명, 가상 인물 | 
|  수량  | 정량화된 금액(예: 통화, 백분율, 숫자, 바이트 등) | 
|  제목  | 영화, 책, 노래 등과 같은 모든 창작물 또는 창작 작품에 부여되는 공식 명칭 | 

Amazon Comprehend에서 지원하는 모든 기본 언어를 사용하여 개체 감지 작업을 수행할 수 있습니다. 여기에는 사전 정의된(사용자 지정이 아닌) 개체 감지만 포함됩니다. 모든 문서는 동일한 언어로 작성되어야 합니다.

다음 API 작업 중 하나를 사용하여 문서 또는 문서 집합의 개체를 감지할 수 있습니다.
+ [DetectEntities](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DetectEntities.html)
+  [BatchDetectEntities](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_BatchDetectEntities.html)
+  [StartEntitiesDetectionJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartEntitiesDetectionJob.html)

이 작업은 문서의 각 개체에 대해 하나씩 [API Entity](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_Entity.html) 객체 목록을 반환합니다. `BatchDetectEntities` 작업은 배치의 각 문서에 대해 하나의 목록으로 구성된 `Entity` 개체 목록을 반환합니다. `StartEntitiesDetectionJob` 작업은 작업의 각 문서에 대한 `Entity` 개체 목록이 포함된 파일을 생성하는 비동기 작업을 시작합니다.

다음 예제는 `DetectEntities` 작업의 응답입니다.

```
{
    "Entities": [
        {
            "Text": "today",
            "Score": 0.97,
            "Type": "DATE",
            "BeginOffset": 14,
            "EndOffset": 19
        },
        {
            "Text": "Seattle",
            "Score": 0.95,
            "Type": "LOCATION",
            "BeginOffset": 23,
            "EndOffset": 30
        }
    ],
    "LanguageCode": "en"
}
```

# 이벤트
<a name="how-events"></a>

**참고**  
Amazon Comprehend 주제 모델링, 이벤트 감지 및 프롬프트 안전 분류 기능은 2026년 4월 30일부터 신규 고객에게 더 이상 제공되지 않습니다. 새 계정에서 이러한 기능을 사용하려면이 날짜 이전에 사용하세요. 지난 12개월 동안 이러한 기능을 사용한 계정에는 조치가 필요하지 않습니다. 자세한 내용은 [Amazon Comprehend 기능 가용성 변경](comprehend-availability-change.md) 단원을 참조하십시오.

*이벤트 감지*를 사용하여 텍스트 문서에서 특정 유형의 이벤트 및 관련 개체를 분석할 수 있습니다. Amazon Comprehend는 비동기 분석 작업을 사용하여 대규모 문서 컬렉션에서 이벤트를 감지할 수 있도록 지원합니다. 예제 이벤트 분석 작업을 비롯한 이벤트에 대한 자세한 내용은 [Amazon Comprehend Events 출시 발표](https://aws.amazon.com/blogs/machine-learning/announcing-the-launch-of-amazon-comprehend-events/)를 참조하세요.

## 개체
<a name="how-events-entities"></a>

Amazon Comprehend는 입력 텍스트에서 감지된 이벤트와 관련된 개체 목록을 추출합니다. *개체*는 사람, 장소 또는 위치와 같은 실제 개체일 수 있으며 측정값, 날짜, 또는 수량과 같은 개념일 수도 있습니다. 개체가 발생할 때마다 입력 텍스트의 개체에 대한 텍스트 참조인 *멘션*으로 식별됩니다. 각 고유 개체에 대해 모든 멘션이 목록으로 그룹화됩니다. 이 목록은 입력 텍스트에서 개체가 발생한 위치에 대한 세부 정보를 제공합니다. Amazon Comprehend는 지원되는 이벤트 유형과 관련된 개체만 감지합니다.

지원되는 이벤트 유형과 연결된 각 개체는 다음과 같은 관련 세부 정보와 함께 반환됩니다.
+ **멘션**: 입력 텍스트에서 동일한 개체가 발생하는 각 항목에 대한 세부 정보.
  + **시작오프셋**: 입력 텍스트에서 멘션이 시작되는 위치를 나타내는 문자 오프셋(첫 번째 문자는 위치 0에 있음).
  + **종료오프셋**: 입력 텍스트에서 멘션이 끝나는 위치를 나타내는 문자 오프셋.
  + **점수**: 개체 유형의 정확성에 대한 Amazon Comprehend의 신뢰도 수준.
  + **그룹점수**: 해당 멘션이 동일한 개체에 대한 다른 멘션과 올바르게 그룹화되어 있다는 Amazon Comprehend의 신뢰도 수준.
  + **텍스트**: 개체의 텍스트.
  + **유형**: 개체의 유형. 지원되는 모든 개체 유형에 대해서는 [개체 유형](#events-entity-types)을(를) 참조하세요.

## 이벤트
<a name="how-events-output"></a>

Amazon Comprehend는 입력 텍스트에서 감지한 이벤트(지원되는 이벤트 유형)의 목록을 반환합니다. 각 이벤트는 다음과 같은 관련 세부 정보와 함께 반환됩니다.
+ **유형**: 이벤트 유형. 지원되는 모든 이벤트 유형에 대해서는 [이벤트 유형](#events-types)을(를) 참조하세요.
+ **인수**: 감지된 이벤트와 관련된 인수 목록. *인수*는 감지된 이벤트와 관련된 개체로 구성됩니다. 인수의 역할은 *누가*, *어디서*, *언제* *무엇을* 했는지와 같은 관계를 설명하는 것입니다.
  + **개체인덱스**: Amazon Comprehend가 이 분석을 위해 반환한 개체 목록에서 하나의 개체를 식별하는 인덱스 값.
  + **역할**: 이 인수의 개체가 이벤트와 어떻게 관련되는지를 설명하는 인수 유형. 지원되는 모든 인수 유형은 [인수 유형](#events-argument-types)을(를) 참조하세요.
  + **점수**: 역할 감지의 정확성에 대한 Amazon Comprehend의 신뢰도 수준.
+ **트리거**: 감지된 이벤트의 트리거 목록. *트리거*는 이벤트 발생을 나타내는 단일 단어 또는 문구입니다.
  + **시작오프셋**: 입력 텍스트에서 트리거가 시작되는 위치를 나타내는 문자 오프셋(첫 번째 문자는 위치 0에 있음).
  + **종료오프셋**: 입력 텍스트에서 트리거가 끝나는 위치를 나타내는 문자 오프셋.
  + **점수**: 감지의 정확성에 대한 Amazon Comprehend의 신뢰도 수준.
  + **텍스트**: 트리거의 텍스트.
  + **그룹점수**: 해당 트리거가 동일한 이벤트에 대한 다른 트리거와 올바르게 그룹화되어 있다는 Amazon Comprehend의 신뢰도 수준.
  + **유형**: 이 트리거가 나타내는 이벤트 유형.

## 이벤트 감지 결과 형식
<a name="how-events-results"></a>

이벤트 감지 작업이 완료되면 Amazon Comprehend는 작업을 시작할 때 지정한 Amazon S3 출력 위치에 분석 결과를 기록합니다.

출력은 다음 형식으로 감지된 각 이벤트에 대한 세부 정보를 제공합니다.

```
{
   "Entities": [
     {
       "Mentions": [
         {
           "BeginOffset": number,
           "EndOffset": number,
           "Score": number,
           "GroupScore": number,
           "Text": "string",
           "Type": "string"
         }, ...
       ]    
     }, ...
   ],
   "Events": [
     {
       "Type": "string",
       "Arguments": [
         {                   
           "EntityIndex": number,   
           "Role": "string",
           "Score": number
         }, ...
       ],
       "Triggers": [
         {
           "BeginOffset": number,
           "EndOffset": number,
           "Score": number,
           "Text": "string",
           "GroupScore": number,
           "Type": "string"
         }, ...
       ]
     }, ...
   ]
 }
```

## 지원되는 개체, 이벤트 및 인수 유형
<a name="events-reference-types"></a>

### 개체 유형
<a name="events-entity-types"></a>


| Type | 설명 | 
| --- | --- | 
| 날짜 | 구체적이든 일반적이든 관계 없이 날짜 또는 시간에 대한 모든 언급. | 
| 시설 | 건물, 공항, 고속도로, 교량 및 기타 영구적인 인공 구조물 및 부동산 개선입니다. | 
| 위치 | 거리, 도시, 주, 국가, 수역 또는 지리적 좌표와 같은 물리적 위치. | 
| 통화 가치 | 미국 또는 다른 통화로 표시된 물건의 가치. 값은 구체적이거나 대략적일 수 있습니다. | 
| 조직 | 확립된 조직 구조로 정의되는 회사 및 기타 사용자 그룹. | 
| 개인 | 개인 또는 가상 인물의 이름 또는 별명. | 
| 개인\$1직함 | 개인을 설명하는 모든 직함. 일반적으로 고용 범주(예: CEO) 또는 경칭(예: Mr.) | 
| 수량 | 숫자 또는 값 및 측정 단위. | 
| 주식\$1코드 | 주식 시세 기호(예: AMZN, 국제 증권 식별 번호(ISIN), 통일 증권 식별 절차 위원회(CUSIP) 또는 증권 거래소 일일 공식 목록(SEDOL). | 

### 이벤트 유형
<a name="events-types"></a>


| Type | 설명 | 
| --- | --- | 
| 파산 | 미결제 채무를 상환할 수 없는 개인 또는 회사와 관련된 법적 소송 | 
| 고용 | 직원이 고용, 해고, 퇴직하거나 기타 고용 상태가 변경될 때 발생합니다. | 
| 기업\$1인수 | 회사가 다른 회사의 주식 또는 물리적 자산의 대부분 또는 전부를 소유하여 해당 회사를 장악할 때 발생합니다. | 
| 투자\$1일반 | 개인이나 회사가 미래의 소득 또는 가치 상승을 기대할 수 있는 자산을 구매할 때 발생합니다. | 
| 기업\$1합병 | 두 개 이상의 회사가 결합하여 새로운 법인을 만들 때 발생합니다. | 
| IPO | 신주 발행을 통해 민간 기업의 주식을 일반에 공개하는 기업 공개(IPO). | 
| 권리\$1발행 | 기존 주주에게 기존 보유 지분에 비례하여 추가 주식을 매입할 수 있는 권리 그룹(청약 신주인수권증이라고 함). | 
| 2차\$1공모 | 회사 주주가 증권을 제공하는 것. | 
| 선반\$1공모 | 발행자가 증권의 새로운 발행을 등록하고, 증권을 다시 등록하거나 벌금을 부과하지 않고 일정 기간 동안 발행의 일부를 매각할 수 있도록 허용하는 증권거래위원회(SEC) 조항입니다. 선반 등록이라고도 합니다. | 
| 주식\$1공개매수 | 회사의 주주 지분 일부 또는 전부를 매입하겠다는 제안. | 
| 주식\$1분할 | 회사 이사회가 현재 주주에게 더 많은 주식을 발행하여 발행 주식 수를 늘릴 때 발생합니다. 이 이벤트는 주식 역분할에도 적용됩니다. | 

### 인수 유형
<a name="events-argument-types"></a>


**파산 관련 인수 유형**  

| 인수 유형 | 설명 | 
| --- | --- | 
| 신청인 | 파산을 신청한 사람 또는 회사. | 
| 날짜 | 파산 날짜 또는 시간. | 
| 장소 | 파산이 발생한 장소(또는 가장 가까운 곳)의 위치 또는 시설. | 


**고용 관련 인수 유형**  

| Type | 설명 | 
| --- | --- | 
| 피고용인 | 회사에 고용된 사람. | 
| 피고용인\$1직함 | 피고용인의 직함. | 
| 고용인 | 피고용인을 고용한 개인 또는 회사. | 
| 시작\$1날짜 | 고용 시작 날짜 또는 시간. | 
| 종료\$1날짜 | 고용 종료 날짜 또는 시간. | 


**기업\$1인수, 투자\$1일반 관련 인수 유형**  

| Type | 설명 | 
| --- | --- | 
| 총액 | 거래와 연결된 금전적 가치. | 
| 투자 대상 | 투자와 관련된 개인 또는 회사. | 
| 투자자 | 자산에 투자하는 개인 또는 회사. | 
| 날짜 | 인수 또는 투자 날짜 또는 시간. | 
| 장소 | 인수 또는 투자가 이루어진 장소(또는 가장 가까운 곳). | 


**기업\$1합병 관련 인수 유형**  

| Type | 설명 | 
| --- | --- | 
| 날짜 | 합병 날짜 또는 시간. | 
| 신규\$1회사 | 합병으로 인해 생긴 새로운 법인. | 
| 참가자 | 합병에 관여한 회사. | 


**IPO, 권리\$1발행, 2차\$1공모, 선반\$1공모, 주식\$1공개매수 관련 인수 유형**  

| Type | 설명 | 
| --- | --- | 
| 만료\$1날짜 | 공모 만료 날짜 또는 시간. | 
| 투자자 | 자산에 투자하는 개인 또는 회사. | 
| 피청약자 | 공모 제안을 받는 개인 또는 회사. | 
| 공모\$1금액 | 공모와 관련된 금전적 가치. | 
| 공모\$1날짜 | 공모 날짜 또는 시간. | 
| 청약자 | 공모를 시작한 사람 또는 회사. | 
| 청약자\$1총\$1가치 | 공모와 관련된 총 금전적 가치. | 
| 기록\$1날짜 | 공모 기록 날짜 또는 시간. | 
| 매각\$1대리인 | 공모 매각을 촉진하는 개인 또는 회사. | 
| 주가 | 주가와 관련된 금전적 가치. | 
| 주식\$1수 | 공모와 관련된 주식 수. | 
| 채권인수인 | 공모 인수와 관련된 회사. | 


**주식\$1분할 관련 인수 유형**  

| Type | 설명 | 
| --- | --- | 
| 회사 | 주식 분할의 주식을 발행하는 회사. | 
| 날짜 | 주식 분할 날짜 또는 시간. | 
| 분할\$1율 | 주식 분할 전 현재 주식 수 대비 증가된 신규 발행 주식 수의 비율. | 

# 핵심 문구
<a name="how-key-phrases"></a>

*핵심 문구*는 특정 사물을 설명하는 명사구가 포함된 문자열입니다. 일반적으로 명사와 이를 구분하는 수식어로 구성됩니다. 예를 들어 ‘날’은 명사이고, ‘아름다운 날’은 관사(‘a’)와 형용사(‘아름다운’)가 포함된 명사구입니다. 각 핵심 문구에는 Amazon Comprehend가 해당 문자열이 명사구라는 신뢰도를 나타내는 점수가 포함되어 있습니다. 점수를 사용하여 애플리케이션에 대한 감지 신뢰도가 충분히 높은지 확인할 수 있습니다.

Amazon Comprehend에서 지원하는 모든 기본 언어를 사용하여 핵심 문구 감지 작업을 수행할 수 있습니다. 모든 문서는 동일한 언어로 작성되어야 합니다.

다음 작업 중 하나를 사용하여 문서 또는 문서 집합에서 주요 문구를 감지할 수 있습니다.
+ [DetectKeyPhrases](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DetectKeyPhrases.html)
+  [BatchDetectKeyPhrases](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_BatchDetectKeyPhrases.html)
+  [StartKeyPhrasesDetectionJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartKeyPhrasesDetectionJob.html)

이 작업은 문서의 각 핵심 문구당 하나씩 [핵심 문구](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_KeyPhrase.html) 객체 목록을 반환합니다. `BatchDetectKeyPhrases` 작업은 배치의 각 문서에 대해 하나씩 `KeyPhrase` 객체 목록을 반환합니다. `StartKeyPhrasesDetectionJob` 작업은 작업의 각 문서에 대한 `KeyPhrase` 개체 목록이 포함된 파일을 생성하는 비동기 작업을 시작합니다.

다음 예제는 `DetectKeyPhrases` 작업의 응답입니다.

```
{
    "LanguageCode": "en",
    "KeyPhrases": [
        {
            "Text": "today",
            "Score": 0.89,
            "BeginOffset": 14,
            "EndOffset": 19
        },
        {
            "Text": "Seattle",
            "Score": 0.91,
            "BeginOffset": 23,
            "EndOffset": 30
        }
    ]
}
```

# 지배적 언어
<a name="how-languages"></a>

Amazon Comprehend를 사용하여 텍스트를 검사하여 지배적 언어를 확인할 수 있습니다. Amazon Comprehend는 RFC 5646의 식별자를 사용하여 언어를 식별합니다. 2자리 ISO 639-1 식별자가 있고 필요한 경우 리전별 하위 태그가 있다면 해당 식별자를 사용합니다. 그렇지 않으면 ISO 639-2 3자리 코드를 사용합니다.

RFC 5646에 대한 자세한 내용은 *IETF Tools* 웹 사이트의 [언어 식별을 위한 태그](https://tools.ietf.org/html/rfc5646)를 참조하세요.

응답에는 문서에서 특정 언어가 지배적인 언어라는 Amazon Comprehend의 신뢰 수준을 나타내는 점수가 포함됩니다. 각 점수는 다른 점수와 무관합니다. 이 점수가 특정 언어가 문서에서 특정 비율을 차지한다는 것을 의미하지는 않습니다.

책과 같이 긴 문서에 여러 언어가 포함된 경우, 긴 문서를 작은 조각으로 나누고 개별 문서에 대해 `DetectDominantLanguage` 작업을 실행할 수 있습니다. 그런 다음 결과를 집계하여 긴 문서에서 각 언어의 비율을 확인할 수 있습니다.

Amazon Comprehend 언어 감지에는 다음과 같은 제한 사항이 있습니다.
+ 음성 언어 감지는 지원하지 않습니다. 예를 들어 “arigato”를 일본어로, “nihao”를 중국어로 감지하지 못합니다.
+ 인도네시아어와 말레이시아어 혹은 보스니아어, 크로아티아어, 세르비아어와 같이 가까운 언어 쌍을 구분하기 어려울 수 있습니다.
+ 최상의 결과를 얻으려면 20자 이상의 입력 텍스트를 제공하십시오.

Amazon Comprehend는 다음 언어를 감지합니다.


| 코드 | 언어 | 
| --- | --- | 
| af | 아프리칸스어 | 
| am | 암하라어 | 
| ar | 아랍어 | 
| as | 아삼어 | 
| az | 아제르바이잔어 | 
| ba | 바쉬르어 | 
| be | 벨라루스어 | 
| bn | 벵골어 | 
| bs | 보스니아어 | 
| bg | 불가리아어 | 
| ca | 카탈루냐어 | 
| ceb | 세부아노어 | 
| cs | 체코어 | 
| cv | 추바시어 | 
| cy | 웨일스어 | 
| da | 덴마크어 | 
| de | 독일어 | 
| el | 그리스어 | 
| en | 영어 | 
| eo | 에스페란토어 | 
| et | 에스토니아어 | 
| eu | 바스크어 | 
| fa | 페르시아어 | 
| fi | 핀란드어 | 
| fr | 프랑스어 | 
| gd | 스코틀랜드 게일어 | 
| ga | 아일랜드어 | 
| gl | 갈리시아어 | 
| gu | 구자라트어 | 
| ht | 아이티어 | 
| he | 히브리어 | 
| ha | 하우사어 | 
| hi | 힌디어 | 
| hr | 크로아티아어 | 
| hu | 헝가리어 | 
| hy | 아르메니아어 | 
| ilo | 일로코어 | 
| id | 인도네시아어 | 
| is | 아이슬란드어 | 
| it | 이탈리아어 | 
| jv | 자바어 | 
| ja | 일본어 | 
| kn | 칸나다어 | 
| ka | 조지아어 | 
| kk | 카자흐스탄어 | 
| km | 중부 크메르어 | 
| ky | 키르기즈어 | 
| ko | 한국어 | 
| ku | 쿠르드어 | 
| lo | 라오스어 | 
| la | 라틴어 | 
| lv | 라트비아어 | 
| lt | 리투아니아어 | 
| lb | 룩셈부르크어 | 
| ml | 말라얄람어 | 
| mt | 몰타어 | 
| mr | 마라티어 | 
| mk | 마케도니아어 | 
| mg | 마다가스카르어 | 
| mn | 몽골어 | 
| ms | 말레이어 | 
| my | 버마어 | 
| ne | 네팔어 | 
| new | 네와리어 | 
| nl | 네덜란드어 | 
| no | 노르웨이어 | 
| or | 오리야어 | 
| om | 오로모어 | 
| pa | 펀자브어 | 
| pl | 폴란드어 | 
| pt | 포르투갈어 | 
| ps | 푸시토어 | 
| qu | 케추아어 | 
| ro | 루마니아어 | 
| ru | 러시아어 | 
| sa | 산스크리트어 | 
| si | 신할라어 | 
| sk | 슬로바키아어 | 
| sl | 슬로베니아어 | 
| sd | 신디어 | 
| so | 소말리아어 | 
| es | 스페인 요리 | 
| sq | 알바니아어 | 
| sr | 세르비아어 | 
| su | 순다어 | 
| sw | 스와힐리어 | 
| sv | 스웨덴어 | 
| ta | 타밀어 | 
| tt | 타타르어 | 
| te | 텔루구어 | 
| tg | 타지크어 | 
| tl | 타갈로그어 | 
| th | 태국어 | 
| tk | 투르크멘어 | 
| tr | 터키어 | 
| ug | 위구르어 | 
| uk | 우크라이나어 | 
| ur | 우르두어 | 
| uz | 우즈벡어 | 
| vi | 베트남어 | 
| yi | 이디시어 | 
| yo | 요루바어 | 
| zh | 중국어 간체 | 
| zh-TW | 중국어 번체 | 

다음 작업 중 하나를 사용하여 문서 또는 문서 집합에서 지배적 언어를 감지할 수 있습니다.
+  [DetectDominantLanguage](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DetectDominantLanguage.html)
+  [BatchDetectDominantLanguage](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_BatchDetectDominantLanguage.html)
+  [StartDominantLanguageDetectionJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartDominantLanguageDetectionJob.html)

`DetectDominantLanguage` 작업은 [DominantLanguage](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DominantLanguage.html) 개체를 반환합니다. `BatchDetectDominantLanguage` 작업은 배치의 각 문서에 대해 하나씩 `DominantLanguage` 객체 목록을 반환합니다. `StartDominantLanguageDetectionJob` 작업은 작업의 문서마다 하나씩 `DominantLanguage` 객체 목록이 포함된 파일을 생성하는 비동기 작업을 시작합니다.

다음 예제는 `DetectDominantLanguage` 작업의 응답입니다.

```
{
    "Languages": [
        {
            "LanguageCode": "en",
            "Score": 0.9793661236763
        }
    ]
}
```

# 감성
<a name="how-sentiment"></a>

Amazon Comprehend를 사용하여 UTF-8 인코딩 텍스트 문서의 콘텐츠 감성을 파악할 수 있습니다. 예를 들어, 감성 분석을 사용하여 블로그 게시물에 달린 댓글의 감성을 파악하여 독자가 게시물을 좋아했는지 확인할 수 있습니다.

Amazon Comprehend에서 지원하는 모든 기본 언어로 문서에 대한 감성을 파악할 수 있습니다. 한 작업의 모든 문서는 동일한 언어로 작성되어야 합니다.

감성이 결정되면 다음 값을 반환합니다.
+ **긍정적** — 텍스트는 전반적으로 긍정적인 감성을 표현합니다.
+ **부정적** — 텍스트는 전반적으로 부정적인 감성을 표현합니다.
+ **혼합** — 텍스트는 긍정적인 감성과 부정적인 감성을 모두 표현합니다.
+ **중립** — 텍스트는 긍정적이거나 부정적인 감성을 표현하지 않습니다.

다음 API 작업 중 하나를 사용하여 문서 또는 문서 집합의 감성을 감지할 수 있습니다.
+ [DetectSentiment](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DetectSentiment.html)
+  [BatchDetectSentiment](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_BatchDetectSentiment.html)
+  [StartSentimentDetectionJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartSentimentDetectionJob.html)

이 작업은 텍스트에서 가장 가능성이 높은 감성과 각 감성의 점수를 반환합니다. 점수는 감성이 올바르게 감지되었을 가능성을 나타냅니다. 예를 들어, 아래 예제에서는 텍스트에 `Positive` 감성이 있을 확률이 95%입니다. 텍스트에 `Negative` 감성이 있을 확률은 1% 미만입니다. `SentimentScore`를 사용하여 감지의 정확도가 애플리케이션의 요구 사항을 충족하는지 확인할 수 있습니다.

이 `DetectSentiment` 작업은 감지된 감성이 포함된 객체와 [감성점수](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_SentimentScore.html) 객체를 반환합니다. 이 `BatchDetectSentiment` 작업은 배치의 각 문서에 대해 하나씩 감성 및 `SentimentScore` 객체 목록을 반환합니다. `StartSentimentDetectionJob` 작업은 작업의 문서마다 하나씩 감성 및 `SentimentScore` 객체 목록이 포함된 파일을 생성하는 비동기 작업을 시작합니다.

다음 예제는 `DetectSentiment` 작업의 응답입니다.

```
{
"SentimentScore": {
        "Mixed": 0.030585512690246105,
        "Positive": 0.94992071056365967,
        "Neutral": 0.0141543131828308,
        "Negative": 0.00893945890665054
    },
    "Sentiment": "POSITIVE",
    "LanguageCode": "en"
}
```

# 대상 감성
<a name="how-targeted-sentiment"></a>

*대상 감성*은 입력 문서에 있는 특정 개체(예: 브랜드 또는 제품)와 관련된 감성을 세밀하게 이해할 수 있게 합니다.

대상 감성과 [감성](how-sentiment.md)의 차이는 출력 데이터의 세분화 수준입니다. 감성 분석은 각 입력 문서에 대한 지배적인 감성을 결정하지만 추가 분석을 위한 데이터는 제공하지 않습니다. 대상 감성 분석은 각 입력 문서의 특정 개체에 대한 개체 수준의 감성을 결정합니다. 결과 데이터를 분석하여 긍정적이거나 부정적인 피드백을 받는 특정 제품 및 서비스를 확인할 수 있습니다.

예를 들어, 일련의 레스토랑 리뷰에서 고객은 “타코가 맛있었고 직원들도 친절했습니다”라는 리뷰를 제공합니다. 이 리뷰를 분석한 결과 다음과 같은 결과가 나옵니다.
+ **감성 분석**은 각 레스토랑 리뷰의 전반적인 감성이 긍정적인지, 부정적인지, 중립적인지, 또는 복합적인 것인지 여부를 결정합니다. 이 예시에서는 전반적인 감성이 긍정적입니다.
+ **대상 감성 분석**은 고객이 리뷰에서 언급한 레스토랑의 항목 및 속성에 대한 감성을 결정합니다. 이 예시에서 고객은 “타코”와 “직원”에 대해 긍정적인 의견을 남겼습니다.

대상 감성은 각 분석 작업에 대해 다음과 같은 결과를 제공합니다.
+ 문서에 언급된 개체의 ID.
+ 각 개체 멘션에 대한 개체 유형 분류.
+ 각 개체 멘션에 대한 감성 및 감성 점수.
+ 단일 항목에 해당하는 멘션 그룹(공동 참조 그룹).

[콘솔](get-started-console.md) 또는 [API](using-api-targeted-sentiment.md)를 사용하여 대상 감성 분석을 실행할 수 있습니다. 콘솔과 API는 대상 감성에 대한 실시간 분석 및 비동기 분석을 지원합니다.

 Amazon Comprehend는 영어로 작성된 문서에 대한 대상 감성을 지원합니다.

자습서를 포함하여 대상 감성에 대한 자세한 내용은 AWS 기계 학습 블로그[의 Amazon Comprehend 대상 감성을 사용하여 텍스트로 세분화된 감성 추출](https://aws.amazon.com/blogs/machine-learning/extract-granular-sentiment-in-text-with-amazon-comprehend-targeted-sentiment/)을 참조하세요.

**Topics**
+ [

## 개체 유형
](#how-targeted-sentiment-entities)
+ [

## 공동 참조 그룹
](#how-targeted-sentiment-values)
+ [

## 출력 파일 구성
](#how-targeted-sentiment-output)
+ [

## 콘솔을 사용한 실시간 분석
](#how-targeted-sentiment-console)
+ [

## 대상 감성 출력 예제
](#how-targeted-sentiment-example)

## 개체 유형
<a name="how-targeted-sentiment-entities"></a>

대상 감성은 다음 개체 유형을 식별합니다. 개체가 다른 범주에 속하지 않는 경우 개체 유형을 기타로 지정합니다. 출력 파일에 언급된 각 개체에는 `"Type": "PERSON"` 같은 개체 유형이 포함됩니다.


**개체 유형 정의**  

| 개체 유형 | 정의 | 
| --- | --- | 
| 개인 | 개인, 사람 그룹, 별명, 가상 인물, 동물 이름 등을 예로 들 수 있습니다. | 
| 위치 | 국가, 도시, 주, 주소, 지질 구조, 수역, 자연 명소, 천문학적 위치 등의 지리적 위치입니다. | 
| 조직 | 예로는 정부, 기업, 스포츠 팀, 종교 등이 있습니다. | 
| 시설 | 건물, 공항, 고속도로, 교량 및 기타 영구적인 인공 구조물 및 부동산 개선입니다. | 
| 브랜드 | 특정 상업용 품목 또는 제품 라인의 조직, 그룹 또는 생산자입니다. | 
| 상업\$1품목 | 차량 및 단 하나의 품목만 생산된 대형 상품을 포함한 모든 비제네릭 구매 또는 구매 가능 품목입니다. | 
| 영화 | 영화 또는 TV 프로그램입니다. 개체는 전체 이름, 닉네임 또는 자막일 수 있습니다. | 
| 음악 | 노래 전체 또는 일부입니다. 또한 앨범이나 앤솔로지와 같은 개별 음악 창작물의 컬렉션도 포함됩니다. | 
| 도서 | 전문적으로 출판되거나 자체 출판된 책입니다. | 
| 소프트웨어 | 공식적으로 출시된 소프트웨어 제품입니다. | 
| 게임 | 비디오 게임, 보드 게임, 일반 게임 또는 스포츠와 같은 게임입니다. | 
| 개인\$1호칭 | 공식 직함 및 경칭(예: 사장, 박사, 의사)입니다. | 
| 이벤트 | 예로는 축제, 콘서트, 선거, 전쟁, 컨퍼런스, 홍보 행사 등이 있습니다. | 
| 날짜 | 구체적이든, 일반적이든, 절대적이든, 상대적이든 관계없이 날짜 또는 시간에 대한 모든 참조입니다. | 
| 수량 | 모든 측정값과 단위(통화, 백분율, 숫자, 바이트 등)입니다. | 
| 속성 | 제품의 “품질”, 휴대폰의 “가격” 또는 CPU의 “속도”와 같은 개체의 속성, 특징 또는 특성입니다. | 
| 기타 | 다른 범주에 속하지 않는 개체입니다. | 

## 공동 참조 그룹
<a name="how-targeted-sentiment-values"></a>

대상 감성은 각 입력 문서에서 상호 참조 그룹을 식별합니다. 공동 참조 그룹은 문서 내 하나의 실제 개체에 해당하는 멘션 그룹입니다.

**Example**  
다음 고객 리뷰 예제에서 “spa”는 `FACILITY` 개체 유형을 가진 개체입니다. 개체에는 대명사(“it”)로 두 개의 추가 멘션이 있습니다.  

![\[대상 감성 공동 참조 그룹.\]](http://docs.aws.amazon.com/ko_kr/comprehend/latest/dg/images/gs-console-targeted-sentiment4.png)


## 출력 파일 구성
<a name="how-targeted-sentiment-output"></a>

대상 감성 분석 작업은 JSON 텍스트 출력 파일을 생성합니다. 파일에는 각 입력 문서에 대해 하나의 JSON 객체가 포함되어 있습니다. 각 JSON 객체는 다음 필드를 포함합니다.
+ **개체** — 문서에 있는 개체의 배열입니다.
+ **파일** — 입력 문서의 파일 이름입니다.
+ **줄** — 입력 파일이 한 줄에 한 문서인 경우, **개체**에는 파일에 있는 문서의 줄 번호가 포함됩니다.

**참고**  
대상 감성이 입력 텍스트의 어떤 항목도 식별하지 못하는 경우 개체 결과로 빈 배열을 반환합니다.

다음 예제는 3줄의 입력이 포함된 입력 파일의 **개체**를 보여줍니다. 입력 형식은 **ONE\$1DOC\$1PER\$1LINE**이므로 각 입력 줄은 문서입니다.

```
{ "Entities":[
    {entityA},
    {entityB},
    {entityC}
    ],
  "File": "TargetSentimentInputDocs.txt",
  "Line": 0
}
{ "Entities": [
    {entityD},
    {entityE}
  ],
  "File": "TargetSentimentInputDocs.txt",
  "Line": 1
}
{ "Entities": [
    {entityF},
    {entityG}
    ],
  "File": "TargetSentimentInputDocs.txt",
  "Line": 2
}
```



**개체** 배열의 개체에는 문서에서 감지된 개체 멘션의 논리적 그룹(상호 참조 그룹이라고 함)이 포함됩니다. 각 개체의 전체 구조는 다음과 같습니다.

```
{"DescriptiveMentionIndex": [0],
  "Mentions": [
     {mentionD},
     {mentionE}
    ]
}
```

개체에는 다음과 같은 필드가 있습니다.
+ **멘션** — 문서에 있는 개체에 대한 멘션 배열입니다. 배열은 상호 참조 그룹을 나타냅니다. 예제는 [공동 참조 그룹](#how-targeted-sentiment-values) 단원을 참조하세요. 멘션 배열의 멘션 순서는 문서 내 위치(오프셋)의 순서입니다. 각 멘션에는 해당 멘션의 감성 점수와 그룹 점수가 포함됩니다. 그룹 점수는 이러한 멘션이 동일한 개체에 속한다는 신뢰도를 나타냅니다.
+ **DescriptiveMentionIndex** — 개체 그룹에 가장 적합한 이름을 제공하는 멘션 배열에 있는 하나 이상의 인덱스입니다. 예를 들어, 개체에는 **텍스트** 값이 "ABC Hotel," “ABC Hotel,” 및 “it”인 멘션이 세 개 있을 수 있습니다. 가장 좋은 이름은 DescriptiveMentionIndex 값이 [0,1]인 “ABC Hotel”입니다.

각 멘션에는 다음 필드가 포함됩니다.
+ **시작오프셋** — 멘션이 시작되는 문서 텍스트의 오프셋입니다.
+ **종료오프셋** — 문서 텍스트에서 멘션이 끝나는 지점의 오프셋입니다.
+ **그룹점수** — 그룹에 언급된 모든 개체가 동일한 개체와 관련되어 있다는 신뢰도입니다.
+ **텍스트** — 개체를 식별하는 문서 내의 텍스트입니다.
+ **유형** – 개체의 유형입니다. Amazon Comprehend는 다양한 [개체 유형](#how-targeted-sentiment-entities)을 지원합니다.
+ **점수** — 개체가 관련성이 있다는 신뢰도를 모델링합니다. 값 범위는 0에서 1까지입니다. 여기서 1은 가장 높은 신뢰도입니다.
+ **멘션감성** — 멘션에 대한 감성 및 감성 점수를 포함합니다.
+ **감성** — 멘션의 감성입니다. 값에는 긍정적, 중립적, 부정적, 혼합이 포함됩니다.
+ **감성점수** — 가능한 각 감성에 대한 모델 신뢰도를 제공합니다. 값 범위는 0에서 1까지입니다. 여기서 1은 가장 높은 신뢰도입니다.

**감성** 값의 의미는 다음과 같습니다.
+ **긍정적** — 개체 멘션이 긍정적인 감성을 표현합니다.
+ **부정적** — 개체 멘션이 부정적인 감성을 표현합니다.
+ **혼합** — 개체 멘션이 긍정적인 감성과 부정적인 감성을 모두 표현합니다.
+ **중립** — 개체 멘션이 긍정적이거나 부정적인 감성을 표현하지 않습니다.

다음 예제에서는 입력 문서에서 개체의 멘션이 하나뿐이므로 DescriptiveMentionIndex는 0(멘션 배열의 첫 번째 멘션)이 됩니다. 식별된 개체는 이름이 “I”인 PERSON입니다. 감성 점수는 중립입니다.

```
{"Entities":[
  {
    "DescriptiveMentionIndex": [0],
    "Mentions": [
      {
       "BeginOffset": 0,
       "EndOffset": 1,
       "Score": 0.999997,
       "GroupScore": 1,
       "Text": "I",
       "Type": "PERSON",
       "MentionSentiment": {
         "Sentiment": "NEUTRAL",
         "SentimentScore": {
           "Mixed": 0,
           "Negative": 0,
           "Neutral": 1,
           "Positive": 0
         }
       }
     }
   ]
  }
 ],
 "File": "Input.txt",
 "Line": 0
}
```

## 콘솔을 사용한 실시간 분석
<a name="how-targeted-sentiment-console"></a>

Amazon Comprehend 콘솔을 사용하여 실시간으로 [대상 감성](realtime-console-analysis.md#realtime-analysis-console-targeted-sentiment)을 실행할 수 있습니다. 샘플 텍스트를 사용하거나 직접 입력한 텍스트를 입력 텍스트 상자에 붙여넣은 다음 **분석**을 선택합니다.

**인사이트** 패널의 콘솔에는 대상 감성 분석의 세 가지 보기가 표시됩니다.
+ **분석된 텍스트** — 분석된 텍스트를 표시하고 각 항목에 밑줄을 긋습니다. 밑줄 색상은 분석에서 개체에 할당한 감성 값(긍정적, 중립적, 부정적 또는 혼합)을 나타냅니다. 콘솔에서 분석되는 텍스트 상자 오른쪽 위 모서리에 색상 매핑을 표시합니다. 개체 위에 커서를 놓으면 콘솔에 해당 개체에 대한 분석 값(개체 유형, 감성 점수)이 포함된 팝업 패널이 표시됩니다.
+ **결과** — 텍스트에서 식별된 각 개체 멘션의 행이 포함된 표를 표시합니다. 표에는 각 개체에 대해 [개체](#how-targeted-sentiment-entities) 및 개체 점수가 표시됩니다. 이 행에는 기본 감성과 각 감성 값의 점수도 포함됩니다. [공동 참조 그룹](#how-targeted-sentiment-values)으로 알려진 동일한 개체에 대한 멘션이 여러 개 있는 경우 표에는 이러한 멘션이 기본 개체와 관련된 축소 가능한 행 집합으로 표시됩니다.

  **결과** 표의 개체 행을 마우스로 가리키면 콘솔이 **분석된 텍스트** 패널에서 해당 개체 멘션을 강조 표시합니다.
+ **애플리케이션 통합** — API 요청의 파라미터 값과 API 응답에서 반환된 JSON 객체의 구조를 표시합니다. JSON 객체의 필드에 대한 설명은 [출력 파일 구성](#how-targeted-sentiment-output)을 참조하세요.

### 콘솔 실시간 분석 예제
<a name="targeted-sentiment-example"></a>

이 예제에서는 콘솔에서 제공하는 기본 입력 텍스트인 다음 텍스트를 입력으로 사용합니다.

```
Hello Zhang Wei, I am John. Your AnyCompany Financial Services, LLC credit card account 1111-0000-1111-0008 has a minimum payment 
  of $24.53 that is due by July 31st. Based on your autopay settings, we will withdraw your payment on the due date from your 
  bank account number XXXXXX1111 with the routing number XXXXX0000. 
  Customer feedback for Sunshine Spa, 123 Main St, Anywhere. Send comments to Alice at sunspa@mail.com. 
  I enjoyed visiting the spa. It was very comfortable but it was also very expensive. The amenities were ok but the service made 
  the spa a great experience.
```

**분석된 텍스트** 패널에는 이 예제에 대한 다음 출력이 표시됩니다. 텍스트를 마우스로 `Zhang Wei` 텍스트를 가리키면 이 개체에 대한 팝업 패널이 표시됩니다.

![\[대상 감성 분석 텍스트.\]](http://docs.aws.amazon.com/ko_kr/comprehend/latest/dg/images/gs-console-targeted-sentiment2.png)


**결과** 표는 개체 점수, 기본 감성, 각 감성 점수를 포함하여 각 항목에 대한 추가 세부 정보를 제공합니다.

![\[대상 감성 결과 표.\]](http://docs.aws.amazon.com/ko_kr/comprehend/latest/dg/images/gs-console-targeted-sentiment3.png)


이 예제에서 대상 감성 분석은 입력 텍스트의 **your**라는 각 멘션이 **Zhang Wei**라는 개인 개체를 언급하는 것임을 인식합니다. 콘솔은 이러한 멘션을 기본 개체와 관련된 접을 수 있는 행 집합으로 표시합니다.

![\[대상 감성 결과 표.\]](http://docs.aws.amazon.com/ko_kr/comprehend/latest/dg/images/gs-console-targeted-sentiment5.png)


**애플리케이션 통합** 패널에는 DetectTargetedSentiment API가 생성하는 JSON 객체가 표시됩니다. 자세한 예는 다음 섹션을 참조하세요.

## 대상 감성 출력 예제
<a name="how-targeted-sentiment-example"></a>

다음 예제에서는 대상 감성 분석 작업의 출력 파일을 보여줍니다. 입력 파일은 세 개의 간단한 문서로 구성되어 있습니다.

```
The burger was very flavorful and the burger bun was excellent. However, customer service was slow.
My burger was good, and it was warm. The burger had plenty of toppings.
The burger was cooked perfectly but it was cold. The service was OK.
```

이 입력 파일의 대상 감성 분석은 다음과 같은 결과를 생성합니다.

```
  {"Entities":[
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 4,
          "EndOffset": 10,
          "Score": 0.999991,
          "GroupScore": 1,
          "Text": "burger",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "POSITIVE",
            "SentimentScore": {
              "Mixed": 0,
              "Negative": 0,
              "Neutral": 0,
              "Positive": 1
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 38,
          "EndOffset": 44,
          "Score": 1,
          "GroupScore": 1,
          "Text": "burger",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "NEUTRAL",
            "SentimentScore": {
              "Mixed": 0.000005,
              "Negative": 0.000005,
              "Neutral": 0.999591,
              "Positive": 0.000398
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 45,
          "EndOffset": 48,
          "Score": 0.961575,
          "GroupScore": 1,
          "Text": "bun",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "POSITIVE",
            "SentimentScore": {
              "Mixed": 0.000327,
              "Negative": 0.000286,
              "Neutral": 0.050269,
              "Positive": 0.949118
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 73,
          "EndOffset": 89,
          "Score": 0.999988,
          "GroupScore": 1,
          "Text": "customer service",
          "Type": "ATTRIBUTE",
          "MentionSentiment": {
            "Sentiment": "NEGATIVE",
            "SentimentScore": {
              "Mixed": 0.000001,
              "Negative": 0.999976,
              "Neutral": 0.000017,
              "Positive": 0.000006
            }
          }
        }
      ]
    }
  ],
  "File": "TargetSentimentInputDocs.txt",
  "Line": 0
}
{
  "Entities": [
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 0,
          "EndOffset": 2,
          "Score": 0.99995,
          "GroupScore": 1,
          "Text": "My",
          "Type": "PERSON",
          "MentionSentiment": {
            "Sentiment": "NEUTRAL",
            "SentimentScore": {
              "Mixed": 0,
              "Negative": 0,
              "Neutral": 1,
              "Positive": 0
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0,
        2
      ],
      "Mentions": [
        {
          "BeginOffset": 3,
          "EndOffset": 9,
          "Score": 0.999999,
          "GroupScore": 1,
          "Text": "burger",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "POSITIVE",
            "SentimentScore": {
              "Mixed": 0.000002,
              "Negative": 0.000001,
              "Neutral": 0.000003,
              "Positive": 0.999994
            }
          }
        },
        {
          "BeginOffset": 24,
          "EndOffset": 26,
          "Score": 0.999756,
          "GroupScore": 0.999314,
          "Text": "it",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "POSITIVE",
            "SentimentScore": {
              "Mixed": 0,
              "Negative": 0.000003,
              "Neutral": 0.000006,
              "Positive": 0.999991
            }
          }
        },
        {
          "BeginOffset": 41,
          "EndOffset": 47,
          "Score": 1,
          "GroupScore": 0.531342,
          "Text": "burger",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "POSITIVE",
            "SentimentScore": {
              "Mixed": 0.000215,
              "Negative": 0.000094,
              "Neutral": 0.00008,
              "Positive": 0.999611
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 52,
          "EndOffset": 58,
          "Score": 0.965462,
          "GroupScore": 1,
          "Text": "plenty",
          "Type": "QUANTITY",
          "MentionSentiment": {
            "Sentiment": "NEUTRAL",
            "SentimentScore": {
              "Mixed": 0,
              "Negative": 0,
              "Neutral": 1,
              "Positive": 0
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 62,
          "EndOffset": 70,
          "Score": 0.998353,
          "GroupScore": 1,
          "Text": "toppings",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "NEUTRAL",
            "SentimentScore": {
              "Mixed": 0,
              "Negative": 0,
              "Neutral": 0.999964,
              "Positive": 0.000036
            }
          }
        }
      ]
    }
  ],
  "File": "TargetSentimentInputDocs.txt",
  "Line": 1
}
{
  "Entities": [
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 4,
          "EndOffset": 10,
          "Score": 1,
          "GroupScore": 1,
          "Text": "burger",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "POSITIVE",
            "SentimentScore": {
              "Mixed": 0.001515,
              "Negative": 0.000822,
              "Neutral": 0.000243,
              "Positive": 0.99742
            }
          }
        },
        {
          "BeginOffset": 36,
          "EndOffset": 38,
          "Score": 0.999843,
          "GroupScore": 0.999661,
          "Text": "it",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "NEGATIVE",
            "SentimentScore": {
              "Mixed": 0,
              "Negative": 0.999996,
              "Neutral": 0.000004,
              "Positive": 0
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 53,
          "EndOffset": 60,
          "Score": 1,
          "GroupScore": 1,
          "Text": "service",
          "Type": "ATTRIBUTE",
          "MentionSentiment": {
            "Sentiment": "NEUTRAL",
            "SentimentScore": {
              "Mixed": 0.000033,
              "Negative": 0.000089,
              "Neutral": 0.993325,
              "Positive": 0.006553
            }
          }
        }
      ]
    }
  ],
  "File": "TargetSentimentInputDocs.txt",
  "Line": 2
}
  }
```

# 구문 분석
<a name="how-syntax"></a>

구문 분석을 사용하여 문서의 단어를 파싱하고 문서 내 각 단어의 품사 또는 구문 함수를 반환합니다. 문서에서 명사, 동사, 형용사 등을 식별할 수 있습니다. 이 정보를 사용하여 문서 내용을 더 잘 이해하고 문서 내 단어 간의 관계를 이해할 수 있습니다.

예를 들어, 문서에서 명사를 찾은 다음 해당 명사와 관련된 동사를 찾을 수 있습니다. “할머니가 소파를 옮기셨어요”와 같은 문장에서는 “할머니”와 “소파”라는 명사와 “옮기셨어요”라는 동사를 볼 수 있습니다. 이 정보를 사용하여 텍스트에서 관심이 있는 단어 조합을 분석하는 애플리케이션을 만들 수 있습니다.

분석을 시작하기 위해 Amazon Comprehend는 원본 텍스트를 구문 분석하여 텍스트에서 개별 단어를 찾습니다. 텍스트를 구문 분석한 후 각 단어에 원본 텍스트에서 차지하는 품사가 할당됩니다.

Amazon Comprehend는 다음과 같은 품사를 식별할 수 있습니다.


| 토큰 | 품사 | 
| --- | --- | 
| ADJ | 형용사 일반적으로 명사를 변형시키는 단어입니다. | 
| ADP | 부치사 전치사 또는 후치사 구의 머리말입니다. | 
| ADV | 부사 일반적으로 동사를 변형시키는 단어입니다. 형용사 및 기타 부사를 수정할 수도 있습니다. | 
| AUX | 조동사 동사구의 동사에 수반되는 기능어입니다. | 
| CCONJ | 조정 접속사 조정 접속사는 한 문장의 단어, 구 또는 절을 서로 종속시키지 않고 연결합니다. | 
| CONJ | 접속사 접속사는 문장의 단어, 구 또는 절을 연결합니다. | 
| DET | 한정사 특정 명사구를 지정하는 관사 및 기타 단어입니다. | 
| INTJ | 감탄사 감탄사 또는 감탄사의 일부로 사용되는 단어입니다. | 
| NOUN | 명사 사람, 장소, 사물, 동물 또는 아이디어를 지칭하는 단어입니다. | 
| NUM | 숫자 숫자를 표현하는 단어(일반적으로 한정사, 형용사 또는 대명사)입니다. | 
| O | 기타 품사 범주를 지정할 수 없는 단어입니다. | 
| PART | 불변화사 다른 단어나 구와 연관되어 의미를 부여하는 기능어입니다.  | 
| PRON | 대명사 명사나 명사구를 대체하는 단어입니다. | 
| PROPN | 고유 명사특정 개인, 장소 또는 사물의 이름을 나타내는 명사입니다. | 
| PUNCT | 문장 부호 텍스트를 구분하는 알파벳이 아닌 문자입니다. | 
| SCONJ | 종속 접속사 종속 조항을 문장에 연결하는 접속사입니다. 종속 접속사의 예로는 “because”가 있습니다. | 
| SYM | Symbol달러 기호(\$1) 또는 수학 기호와 같은 단어 모양의 엔터티입니다. | 
| VERB | 동사사건과 행동을 나타내는 단어입니다. | 

품사에 대한 자세한 내용은 *범용 종속성* 웹사이트의 [범용 POS 태그](http://universaldependencies.org/u/pos/)를 참조하세요.

작업은 텍스트에서 해당 단어가 나타내는 품사와 단어를 식별하는 토큰을 반환합니다. 각 토큰은 소스 텍스트에 있는 단어를 나타냅니다. 소스에서 단어의 위치, 텍스트에서 해당 단어가 차지하는 품사, 품사가 올바르게 식별되었다는 Amazon Comprehend의 신뢰성, 원본 텍스트에서 파싱된 단어를 제공합니다.

다음은 구문 토큰 목록의 구조입니다. 문서의 각 단어에 대해 하나의 구문 토큰이 생성됩니다.

```
{
   "SyntaxTokens": [ 
      { 
         "BeginOffset": number,
         "EndOffset": number,
         "PartOfSpeech": { 
            "Score": number,
            "Tag": "string"
         },
         "Text": "string",
         "TokenId": number
      }
   ]
}
```

각 토큰은 다음 정보를 제공합니다.
+ `BeginOffset` 및 `EndOffset` —입력 텍스트에서 단어의 위치를 제공합니다.
+ `PartOfSpeech`—두 가지 정보를 제공합니다. 하나는 품사를 식별하는 `Tag`이고 다른 하나는 품사가 올바르게 식별되었다는 Amazon Comprehend Syntax의 신뢰도를 나타내는 `Score`입니다.
+ `Text`—식별된 단어를 제공합니다.
+ `TokenId`—토큰의 식별자를 제공합니다. 식별자는 토큰 목록에서 토큰의 위치입니다.

# Amazon Comprehend 사용자 정의
<a name="concepts-custom"></a>

기계 교육 기반 NLP 솔루션을 구축하는 데 필요한 기술이 없어도 특정 요구 사항에 맞게 Amazon Comprehend를 사용자 정의할 수 있습니다. Comprehend 사용자 지정은 자동 기계 학습, 즉 AutoML을 사용해 사용자 대신 사용자가 제공한 학습 데이터를 통해 사용자 지정 NLP 모델을 구축합니다.

**입력 문서 처리** – Amazon Comprehend는 사용자 지정 분류 및 사용자 지정 개체 인식을 위한 원스텝 문서 처리를 지원합니다. 예를 들어, 일반 텍스트 문서와 반정형 문서(예: PDF 문서, Microsoft Word 문서, 이미지)를 혼합하여 사용자 정의 분석 작업에 입력할 수 있습니다. 자세한 내용은 [문서 처리](idp.md)를 참조하십시오.

**사용자 정의 분류** — 사용자 정의 분류 모델(분류기)을 생성하여 문서를 고유한 범주로 구성할 수 있습니다. 각 분류 레이블에 해당 레이블을 가장 잘 나타내는 문서 세트를 제공하여 분류기를 학습시키십시오. 일단 학습되면 레이블이 지정되지 않은 여러 문서 세트에 분류기를 사용할 수 있습니다. 콘솔을 사용하여 코드 없는 경험을 하거나 최신 AWS SDK를 설치할 수 있습니다. 자세한 내용은 [사용자 지정 분류](how-document-classification.md)를 참조하십시오.

**사용자 지정 개체 인식** – 텍스트를 분석하여 특정 용어와 명사 기반 구문을 분석할 수 있는 사용자 지정 개체 인식 모델(인식기)을 만들 수 있습니다. 정책 번호나 고객 에스컬레이션을 암시하는 문구와 같은 용어를 추출하도록 인식기를 학습시킬 수 있습니다. 모델을 학습시키려면 개체 목록과 해당 개체를 포함하는 문서 세트를 제공해야 합니다. 모델을 학습시킨 후에는 모델을 대상으로 분석 작업을 제출하여 사용자 지정 개체를 추출할 수 있습니다. 자세한 내용은 [사용자 지정 개체 인식](custom-entity-recognition.md)을 참조하십시오.

# 주제 모델링
<a name="topic-modeling"></a>

**참고**  
Amazon Comprehend 주제 모델링, 이벤트 감지 및 프롬프트 안전 분류 기능은 2026년 4월 30일부터 신규 고객에게 더 이상 제공되지 않습니다. 새 계정에서 이러한 기능을 사용하려면이 날짜 이전에 사용하세요. 지난 12개월 동안 이러한 기능을 사용한 계정에는 조치가 필요하지 않습니다. 자세한 내용은 [Amazon Comprehend 기능 가용성 변경](comprehend-availability-change.md) 단원을 참조하십시오.

Amazon Comprehend를 사용하여 문서 컬렉션의 내용을 검토하여 공통 주제를 결정할 수 있습니다. 예를 들어, Amazon Comprehend에 뉴스 기사 모음을 제공하면, 이는 스포츠, 정치 또는 엔터테인먼트와 같은 주제를 결정합니다. 문서의 텍스트에는 주석을 달 필요가 없습니다.

Amazon Comprehend는 [잠재 디리클레 할당](http://www.jmlr.org/papers/volume3/blei03a/blei03a.pdf) 기반 학습 모델을 사용하여 문서 집합의 주제를 결정합니다. 각 문서를 검토하여 단어의 문맥과 의미를 파악합니다. 전체 문서 집합에서 같은 문맥에 자주 속하는 단어 집합이 주제를 구성합니다.

단어는 문서에서 해당 주제가 얼마나 널리 사용되는지, 그리고 주제가 해당 단어와 얼마나 유사한지에 따라 문서의 주제와 연관됩니다. 특정 문서의 주제 분포에 따라 동일한 단어가 여러 문서의 다른 주제에 연결될 수 있습니다.

예를 들어, “포도당”이라는 단어는 주로 스포츠에 대해 다루는 기사에서는 “스포츠”라는 주제에 할당할 수 있고, 동일한 단어를 “의학”에 대한 기사에서는 “의학”이라는 주제에 할당할 수 있습니다.

주제와 관련된 각 단어에는 해당 단어가 주제를 정의하는 데 얼마나 도움이 되는지를 나타내는 가중치가 부여됩니다. 가중치는 전체 문서 세트에서 해당 단어가 주제의 다른 단어와 비교하여 해당 주제에서 나타나는 횟수를 나타냅니다.

가장 정확한 결과를 얻으려면 Amazon Comprehend에 사용할 수 있는 가장 큰 코퍼스를 제공해야 합니다. 최상의 결과를 얻으려면,
+ 각 주제 모델링 작업에는 최소 1,000개의 문서를 사용해야 합니다.
+ 각 문서는 3문장 이상이어야 합니다.
+ 문서가 대부분 숫자 데이터로 구성된 경우 코퍼스에서 제거해야 합니다.

주제 모델링은 비동기식 프로세스입니다. [StartTopicsDetectionJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartTopicsDetectionJob.html) 작업을 사용하여 Amazon S3 버킷에서 Amazon Comprehend에 문서 목록을 제출합니다. Amazon S3 버킷으로 응답이 전송됩니다. 입력 버킷과 출력 버킷을 모두 구성할 수 있습니다. [ListTopicsDetectionJobs](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_ListTopicsDetectionJobs.html) 작업을 사용하여 제출한 주제 모델링 작업의 목록을 가져오고 [DescribeTopicsDetectionJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DescribeTopicsDetectionJob.html) 작업을 사용하여 작업에 대한 정보를 봅니다. Amazon S3 버킷에 전달한 콘텐츠에는 고객 콘텐츠가 포함될 수 있습니다. 중요 데이터 제거에 관한 자세한 내용은 [S3 버킷을 비우려면 어떻게 해야 합니까?](https://docs.aws.amazon.com/AmazonS3/latest/userguide/empty-bucket.html) 또는 [S3 버킷을 삭제하려면 어떻게 해야 합니까?](https://docs.aws.amazon.com/AmazonS3/latest/userguide/delete-bucket.html)를 참조하세요.

문서는 UTF-8 형식 텍스트 파일이어야 합니다. 문서를 두 가지 방식으로 제출할 수 있습니다. 다음 표에 옵션이 나와 있습니다.


| 형식 | 설명 | 
| --- | --- | 
| 파일당 문서 하나 | 각 파일에는 입력 문서가 한 개씩 들어 있습니다. 이 방법은 대용량 문서 모음에 가장 적합합니다. | 
| 라인당 문서 하나 | 단일 파일을 입력합니다. 파일의 각 줄은 문서로 간주됩니다. 소셜 미디어 게시물과 같은 짧은 문서에 가장 적합합니다. 각 라인은 줄 바꿈 (LF, \$1n), 캐리지 리턴 (CR,\$1 r) 또는 둘 다 (CRLF,\$1 r\$1 n) 로 끝나야 합니다. 유니코드 줄 구분자(u\$12028)는 줄을 끝내는 데 사용할 수 없습니다. | 

자세한 정보는 [InputDataConfig](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_InputDataConfig.html) 데이터 유형을 참조하세요.

Amazon Comprehend는 문서 집합을 처리한 후, 두 개의 파일 `topic-terms.csv` 및 `doc-topics.csv`을 포함하는 압축된 아카이브를 반환합니다. 출력 파일에 대한 자세한 내용은 [OutputDataConfig](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_OutputDataConfig.html)를 참조하세요.

첫 번째 출력 파일(`topic-terms.csv`)은 컬렉션의 주제 목록입니다. 각 주제에 대해 목록에는 기본적으로 주제별 상위 용어가 가중치에 따라 포함됩니다. 예를 들어, Amazon Comprehend에 신문 기사 컬렉션을 제공하면 컬렉션의 처음 두 주제를 설명하기 위해 다음을 반환할 수 있습니다.


| Topic | Term | 가중치 | 
| --- | --- | --- | 
| 000 | 팀 | 0.118533 | 
| 000 | 게임 | 0.106072 | 
| 000 | 플레이어 | 0.031625 | 
| 000 | 시즌 | 0.023633 | 
| 000 | 플레이 | 0.021118 | 
| 000 | 야드 | 0.024454 | 
| 000 | 코치 | 0.016012 | 
| 000 | 게임 | 0.016191 | 
| 000 | 풋볼 | 0.015049 | 
| 000 | 쿼터백 | 0.014239 | 
| 001 | 컵 | 0.205236 | 
| 001 | 음식 | 0.040686 | 
| 001 | 분 | 0.036062 | 
| 001 | 추가 | 0.029697 | 
| 001 | 테이블스푼 | 0.028789 | 
| 001 | 기름 | 0.021254 | 
| 001 | 후추 | 0.022205 | 
| 001 | 티스푼 | 0.020040 | 
| 001 | 와인 | 0.016588 | 
| 001 | 설탕 | 0.015101 | 

가중치는 특정 주제의 단어에 대한 확률 분포를 나타냅니다. Amazon Comprehend는 각 주제에 대해 상위 10개 단어만 반환하므로 가중치 합계는 1.0이 되지 않습니다. 한 주제에 포함된 단어가 10개 미만인 경우, 드물긴 하지만 가중치 합계는 1.0이 됩니다.

모든 주제에서의 발생 빈도를 살펴봄으로써 구별력에 따라 단어를 정렬합니다. 일반적으로 이 값은 가중치와 동일하지만 표의 “play” 및 “yard”라는 단어와 같이 일부 경우에는 가중치와 다른 순서로 표시됩니다.

반환할 주제 수를 지정할 수 있습니다. 예를 들어, Amazon Comprehend에 25개의 주제를 반환하도록 요청하면 컬렉션에서 가장 중요한 25개의 주제를 반환합니다. Amazon Comprehend는 컬렉션에서 최대 100개의 주제를 감지할 수 있습니다. 도메인에 대한 지식을 바탕으로 주제 수를 선택합니다. 정확한 수치를 찾으려면 몇 번의 실험이 필요할 수 있습니다.

두 번째 `doc-topics.csv` 파일에는 주제와 관련된 문서 및 해당 주제와 관련된 문서 비율이 나열되어 있습니다. `ONE_DOC_PER_FILE`를 지정한 경우 문서는 파일 이름으로 식별됩니다. `ONE_DOC_PER_LINE`를 지정한 경우 문서는 파일 이름과 파일 내에서 인덱스가 0인 줄 번호로 식별됩니다. 예를 들어, Amazon Comprehend는 파일당 문서 1개를 포함하여 제출한 문서 컬렉션에 대해 다음을 반환할 수 있습니다.


| 문서 | Topic | 비율 | 
| --- | --- | --- | 
| sample-doc1 | 000 | 0.999330137 | 
| sample-doc2 | 000 | 0.998532187 | 
| sample-doc3 | 000 | 0.998384574 | 
| ... |   |   | 
| sample-docN | 000 | 3.57E-04 | 

Amazon Comprehend는 [Open database license (ODbL) v1.0](https://opendatacommons.org/licenses/odbl/1-0/)에 따라 [여기](https://github.com/michmech/lemmatization-lists)에서 제공되는 *Lemmatization Lists Dataset by MBM*의 정보를 활용합니다.

# 문서 처리 모드
<a name="concepts-processing-modes"></a>

Amazon Comprehend는 세 가지 문서 처리 모드를 지원합니다. 처리해야 하는 문서 수와 결과를 즉시 확인해야 하는 시간에 따라 모드를 선택할 수 있습니다.
+ **단일 문서 동기** — 단일 문서로 Amazon Comprehend를 호출하면 동기식 응답을 받아 애플리케이션(또는 콘솔)으로 즉시 전송합니다.
+ **다중 문서 동기** — 최대 25개의 문서 컬렉션이 포함된 Amazon Comprehend API를 호출하고 동기식 응답을 받습니다.
+ **비동기 배치** — 대규모 문서 컬렉션의 경우 문서를 Amazon S3 버킷에 넣고 비동기 작업(콘솔 또는 API 작업 사용)을 시작하여 문서를 분석합니다. Amazon Comprehend는 요청에서 지정하는 S3 버킷/폴더에 분석 결과를 저장합니다.

**Topics**
+ [

## 단일 문서 처리
](#how-single)
+ [

## 다중 문서 동기 처리
](#how-batch)
+ [

## 비동기 일괄 처리
](#how-async)

## 단일 문서 처리
<a name="how-single"></a>

단일 문서 작업은 문서 분석 결과를 애플리케이션에 직접 반환하는 동기 작업입니다. 한 번에 문서 하나에서 작동하는 대화형 애플리케이션을 생성할 때는 단일 문서 동기 작업을 사용하십시오.

동기 API 작업 사용에 대한 자세한 내용은 [내장 모델을 사용한 실시간 분석](realtime-console-analysis.md)(콘솔) 및 [API를 사용한 실시간 분석](using-api-sync.md)을 참조하세요.

## 다중 문서 동기 처리
<a name="how-batch"></a>

처리하려는 문서가 여러 개 있는 경우 `Batch*` API 작업을 사용하여 한 번에 둘 이상의 문서를 Amazon Comprehend로 보낼 수 있습니다. 각 요청에서 최대 25개의 문서를 전송할 수 있습니다. Amazon Comprehend는 요청의 각 문서에 대해 하나씩 응답 목록을 다시 보냅니다. 이러한 작업을 통해 이루어진 요청은 동기적으로 이루어집니다. 애플리케이션은 작업을 호출한 다음 서비스의 응답을 기다립니다.

`Batch*` 작업을 사용하는 것은 요청의 각 문서에 대해 단일 문서 API를 호출하는 것과 동일합니다. 이러한 API를 사용하면 애플리케이션 성능이 향상될 수 있습니다.

각 API의 입력은 처리할 문서가 포함된 JSON 구조입니다. `BatchDetectDominantLanguage`를 제외한 모든 작업에 대해서는 입력 언어를 설정해야 합니다. 각 요청에 대해 입력 언어를 하나만 설정할 수 있습니다. 예를 들어, 다음은 `BatchDetectEntities` 작업에 대한 입력입니다. 여기에는 두 개의 문서가 포함되어 있으며 영어로 되어 있습니다.

```
{
   "LanguageCode": "en",
   "TextList": [
      "I have been living in Seattle for almost 4 years",
      "It is raining today in Seattle"
   ]
}
```

`Batch*` 작업의 응답에는 `ResultList` 및 `ErrorList` 등 두 개의 목록이 있습니다. `ResultList`에는 성공적으로 처리된 각 문서에 대해 하나의 레코드가 들어 있습니다. 요청의 각 문서에 대한 결과는 문서에서 단일 문서 작업을 실행했을 때 얻게 되는 결과와 동일합니다. 각 문서의 결과에는 입력 파일의 문서 순서에 따라 색인이 지정됩니다. `BatchDetectEntities` 작업의 응답은 다음과 같습니다.

```
{
   "ResultList"  : [
      {
         "Index": 0,
         "Entities": [
            {
               "Text": "Seattle", 
               "Score": 0.95, 
               "Type": "LOCATION", 
               "BeginOffset": 22, 
               "EndOffset": 29
            },
            {
               "Text": "almost 4 years", 
               "Score": 0.89, 
               "Type": "QUANTITY", 
               "BeginOffset": 34, 
               "EndOffset": 48
            }
         ]
      },
      {
         "Index": 1,
         "Entities": [
            {
              "Text": "today",
              "Score": 0.87,
              "Type": "DATE",
              "BeginOffset": 14,
              "EndOffset": 19
            },
            {
               "Text": "Seattle",
               "Score": 0.96,
               "Type": "LOCATION",
               "BeginOffset": 23,
               "EndOffset": 30
            }
         ]
      }
   ],
   "ErrorList": []
}
```

요청에서 오류가 발생하는 경우 응답에는 오류가 포함된 문서를 식별하는 `ErrorList`가 포함됩니다. 문서는 입력 목록의 색인으로 식별됩니다. 예를 들어, `BatchDetectLanguage` 작업에 대한 다음 입력에는 처리할 수 없는 문서가 포함되어 있습니다.

```
{
   "TextList": [
     "hello friend", 
     "$$$$$$",
     "hola amigo"
   ]       
}
```

Amazon Comprehend의 응답에는 오류가 포함된 문서를 식별하는 오류 목록이 포함되어 있습니다.

```
{
    "ResultList": [
        {
          "Index": 0,
          "Languages":[
            {
              "LanguageCode":"en",
              "Score": 0.99
            }
          ]
        },
        {
          "Index": 2
          "Languages":[
            {
              "LanguageCode":"es",
              "Score": 0.82
            }
          ]
        }
    ],
    "ErrorList": [
      {
        "Index": 1,
        "ErrorCode": "InternalServerException",
        "ErrorMessage": "Unexpected Server Error. Please try again."
      }
    ]
}
```

배치 API 작업에 대한 자세한 내용은 [실시간 배치 API](using-api-sync.md#get-started-batch)를 참조하세요.

## 비동기 일괄 처리
<a name="how-async"></a>

대용량 문서 및 대규모 문서 컬렉션을 분석하려면 Amazon Comprehend 비동기 작업을 사용하십시오.

문서 컬렉션을 분석하려면 일반적으로 다음 단계를 수행합니다.

1. Amazon S3 버킷에 문서를 저장합니다.

1. 하나 이상의 분석 작업을 시작하여 문서를 분석합니다.

1. 분석 작업 진행 상황을 모니터링합니다.

1. 작업이 완료되면 S3 버킷에서 분석 결과를 검색합니다.

비동기 API 작업 사용에 대한 자세한 내용은 [콘솔을 사용한 분석 작업 실행](analysis-jobs.md)(콘솔) 및 [API를 사용한 비동기 분석 작업](api-async.md)을 참조하세요.