

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# API를 사용하여 프롬프트 제출 및 응답 생성
<a name="inference-api"></a>

Amazon Bedrock은 모델 추론을 수행하기 위해 다음 API 작업을 제공합니다.
+ [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) - 프롬프트를 제출하고 응답을 생성합니다. 요청 본문은 모델별로 다릅니다. 스트리밍 응답을 생성하려면 [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)을 사용합니다.
+ [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) - 프롬프트를 제출하고 모든 모델에 통합된 구조로 응답을 생성합니다. 모델별 요청 필드는 `additionalModelRequestFields` 필드에서 지정할 수 있습니다. 컨텍스트를 위해 시스템 프롬프트와 이전 대화를 포함할 수도 있습니다. 스트리밍 응답을 생성하려면 [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)을 사용합니다.
+ [StartAsyncInvoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_StartAsyncInvoke.html) - 프롬프트를 제출하고 나중에 검색할 수 있는 응답을 비동기적으로 생성합니다. 비디오를 생성하는 데 사용됩니다.
+ [InvokeModelWithBidirectionalStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithBidirectionalStream.html) – 
+ OpenAI Chat completions API - Amazon Bedrock에서 지원하는 모델과 함께 [OpenAI Chat completions API](https://platform.openai.com/docs/api-reference/chat/create)를 사용하여 응답을 생성합니다.

**참고**  
제한 사항은 `InvokeModel`, `InvokeModelWithResponseStream`, 및 작업에 적용됩니다`Converse``ConverseStream`. 자세한 내용은 [API 제한을](inference-api-restrictions.md) 참조하세요.

모델 추론의 경우 다음 파라미터를 결정해야 합니다.
+ 모델 ID - 추론을 위해 `modelId` 필드에 사용할 모델 또는 추론 프로파일의 ID 또는 Amazon 리소스 이름(ARN)입니다. 다음 테이블에서는 다양한 유형의 리소스에 대한 ID를 찾는 방법을 설명합니다.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/bedrock/latest/userguide/inference-api.html)
+ 요청 본문 - 모델 및 기타 구성에 대한 추론 파라미터를 포함합니다. 각 기본 모델에는 자체 추론 파라미터가 있습니다. 사용자 지정 또는 프로비저닝된 모델의 추론 파라미터는 모델을 만든 기본 모델에 따라 달라집니다. 자세한 내용은 [파운데이션 모델의 추론 요청 파라미터 및 응답 필드](model-parameters.md) 섹션을 참조하세요.

다음 주제에서 모델 간접 호출 API를 사용하는 방법을 알아보세요.

**Topics**
+ [InvokeModel을 사용하여 단일 프롬프트 제출](inference-invoke.md)
+ [OpenAI Chat Completions API를 사용하여 모델 간접 호출](inference-chat-completions.md)
+ [Converse API 작업과 대화 수행](conversation-inference.md)
+ [API 제한](inference-api-restrictions.md)