기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
API 호환성
Amazon Bedrock은 각각 서로 다른 통합 패턴 및 사용 사례에 맞게 설계된 세 가지 런타임 APIs 지원합니다.
패밀리 호출:는 동기식 단일 응답 호출을 InvokeModel 처리합니다.는 응답을 실시간 스트림으로 InvokeModelWithResponseStream 반환합니다.는 대화형 애플리케이션에 대한 전이중 스트리밍을 InvokeModelWithBidirectionalStream 활성화합니다.는 장기 실행 요청을 비동기적으로 AsyncInvoke 제출하고 출력을 Amazon S3에 저장합니다.
Converse family: Converse는 동기식 멀티턴 대화를 위해 모델에 구애받지 않는 통합 인터페이스를 제공합니다. ConverseStream는 스트리밍 출력과 동일한 경험을 제공합니다.
OpenAI 호환 패밀리:는 OpenAI Chat Completions 인터페이스를 ChatCompletions 구현하여 변경 사항을 최소화하면서 Bedrock에서 기존 OpenAI 기반 통합을 실행할 수 있습니다. Responses API는 OpenAI 응답 인터페이스를 구현하여 기본 제공 도구 사용 및 대화 기록 관리를 통한 상태 저장 에이전트 상호 작용을 지원합니다.
이제 각 모델에서 지원하는 APIs 목록을 살펴보겠습니다.
AI21
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| Jamba 1.5 Large* |
|
|
|
|
| Jamba 1.5 Mini* |
|
|
|
|
Amazon
Anthropic
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| Claude 3 Haiku* |
|
|
|
|
| Claude 3.5 Haiku* |
|
|
|
|
| Claude Haiku 4.5* |
|
|
|
|
| Claude Opus 4.1* |
|
|
|
|
| Claude Opus 4.5* |
|
|
|
|
| Claude Opus 4.6* |
|
|
|
|
| Claude Sonnet 4* |
|
|
|
|
| Claude Sonnet 4.5* |
|
|
|
|
| Claude Sonnet 4.6* |
|
|
|
|
Cohere
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| Command R* |
|
|
|
|
| Command R+* |
|
|
|
|
| Embed English |
|
|
|
|
| Embed Multilingual |
|
|
|
|
| 임베드 v4 |
|
|
|
|
| Rerank 3.5 |
|
|
|
|
DeepSeek
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| DeepSeek V3.2* |
|
|
|
|
| DeepSeek-R1* |
|
|
|
|
| DeepSeek-V3.1* |
|
|
|
|
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| Gemma 3 12B IT* |
|
|
|
|
| Gemma 3 27B PT* |
|
|
|
|
| Gemma 3 4B IT* |
|
|
|
|
Meta
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| Llama 3 70B 지침* |
|
|
|
|
| Llama 3 8B 지침* |
|
|
|
|
| Llama 3.1 405B 지침 |
|
|
|
|
| Llama 3.1 70B Instruct* |
|
|
|
|
| Llama 3.1 8B 지침* |
|
|
|
|
| Llama 3.2 11B 지침* |
|
|
|
|
| Llama 3.2 1B 지침* |
|
|
|
|
| Llama 3.2 3B 지침* |
|
|
|
|
| Llama 3.2 90B 지침* |
|
|
|
|
| Llama 3.3 70B 지침* |
|
|
|
|
| Llama 4 Maverick 17B 지침* |
|
|
|
|
| Llama 4 Scout 17B 지침* |
|
|
|
|
MiniMax
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| MiniMax M2* |
|
|
|
|
| MiniMax M2.1* |
|
|
|
|
| MiniMax M2.5* |
|
|
|
|
Mistral
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| Devstral 2 123B* |
|
|
|
|
| Magistral Small 2509* |
|
|
|
|
| 미니스트럴 14B 3.0* |
|
|
|
|
| 미니스트럴 3 8B* |
|
|
|
|
| 미니스트럴 3B* |
|
|
|
|
| Mistral 7B 지침* |
|
|
|
|
| Mistral Large* |
|
|
|
|
| Mistral Large 3* |
|
|
|
|
| Mistral Small* |
|
|
|
|
| Mixtral 8x7B Instruct* |
|
|
|
|
| Pixtral Large* |
|
|
|
|
| Voxtral Mini 3B 2507* |
|
|
|
|
| Voxtral Small 24B 2507* |
|
|
|
|
달샷
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| 김기 K2 Thinking* |
|
|
|
|
| 키미 K2.5* |
|
|
|
|
NVIDIA
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| NVIDIA Nemotron Nano 9B v2* |
|
|
|
|
| NVIDIA Nemotron Nano 12B v2 VL BF16* |
|
|
|
|
| Nemotron Nano 3 30B* |
|
|
|
|
| NVIDIA Nemotron 3 슈퍼 120B* |
|
|
|
|
OpenAI
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| GPT OSS 보호 120B* |
|
|
|
|
| GPT OSS 보호 20B* |
|
|
|
|
| gpt-oss-120b* |
|
|
|
|
| gpt-oss-20b* |
|
|
|
|
쿠엔
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| Qwen3 235B A22B 2507* |
|
|
|
|
| Qwen3 32B* |
|
|
|
|
| Qwen3 Coder 480B A35B 지침* |
|
|
|
|
| Qwen3 Coder 다음* |
|
|
|
|
| Qwen3 다음 80B A3B* |
|
|
|
|
| Qwen3 VL 235B A22B* |
|
|
|
|
| Qwen3-Coder-30B-A3B-Instruct* |
|
|
|
|
안정성
TwelveLabs
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| Marengo 임베드 3.0 |
|
|
|
|
| Marengo 임베드 v2.7 |
|
|
|
|
| Pegasus v1.2 |
|
|
|
|
라이터
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| 팔미라 비전 7B |
|
|
|
|
| Palmyra X4* |
|
|
|
|
| Palmyra X5* |
|
|
|
|
Z.AI
| 모델 이름 | 간접 호출 | Converse | 채팅 완료 | 응답 |
|---|---|---|---|---|
| GLM 4.7* |
|
|
|
|
| GLM 4.7 플래시* |
|
|
|
|
| GLM 5* |
|
|
|
|
참고
* 스트리밍 지원: 별표(*)로 표시된 모델은 응답을 실시간 스트림으로 반환InvokeModelWithResponseStream하는 도 지원합니다.
StartAsyncInvoke를 지원하는 모델
StartAsyncInvoke는 호출자가 모델 호출 요청을 제출하고 모델이 처리를 완료할 때까지 기다리지 않고 즉시 invocationArn을 다시 수신할 수 있는 Amazon Bedrock 런타임 API입니다. 작업은 백그라운드에서 실행되며, 출력은 완료되면 호출자가 지정한 S3 버킷에 기록됩니다. 그런 다음 호출자는 컴패니언 GetAsyncInvoke 및 ListAsyncInvokes APIs. 이 패턴은 대규모 또는 지연 시간에 민감하지 않은 입력, 특히 비디오, 오디오 및 대량 임베딩 생성과 관련된 워크로드를 위해 특별히 구축되었으며,이 경우 개방형 동기 연결을 유지하는 것은 실용적이지 않습니다.
이를 지원하는 모델 측면에서 다음 모델은 StartAsyncInvoke를 지원합니다.
-
TwelveLabs Marengo Embed 2.7(twelvelabs.marengo-embed-2-7-v1:0) - 비디오 및 오디오 입력에 필요합니다. InvokeModel은 텍스트 및 이미지만 처리합니다.
-
TwelveLabs Marengo Embed 3.0(twelvelabs.marengo-embed-3-0-v1:0) - 동일한 패턴, 대규모 비디오/오디오에 필요한 비동기화
-
Amazon Nova Reel(amazon.nova-reel-v1:0 및 v1:1) - 비디오 생성은 전적으로 비동기식이며 출력은 S3에 있습니다.
-
Amazon Nova 멀티모달 임베딩(amazon.nova-2-multimodal-embeddings-v1:0) - 25MB base64 인코딩보다 큰 비디오 입력에는 비동기화가 필요하며 텍스트, 이미지 및 문서 입력에는 동기화를 사용할 수 있습니다.
InvokeModelWithBidirectionalStream
InvokeModelWithBidirectionalStream는 호출자와 모델 간에 영구 전이중 채널을 설정하여 오디오 데이터가 양방향으로 동시에 연속적으로 흐를 수 있도록 하는 Amazon Bedrock 런타임 API입니다. request-then-response 패턴을 따르는 표준 InvokeModel 또는 InvokeModelWithResponseStream APIs와 달리이 API는 세션 기간 동안 연결을 열어 두어 모델이 수신 오디오가 도착할 때 이를 처리하고 생성된 스피치를 거의 실시간으로 스트리밍할 수 있도록 하며, 완전한 발화가 완료될 때까지 기다리지 않습니다. 상호 작용은 세 단계로 구성됩니다. 세션 초기화(클라이언트가 구성 이벤트를 전송하여 스트림을 설정하는 경우), 오디오 스트리밍(캡처된 오디오가 인코딩되어 연속 이벤트 스트림으로 전송되는 경우), 및 응답 스트리밍(모델이 사용자 음성 및 합성된 오디오 출력의 텍스트 트랜스크립션을 동시에 반환하는 경우).는 Amazon Bedrock API 키와 함께 사용할 수 InvokeModelWithBidirectionalStream 없으며 표준 AWS 자격 증명 기반 인증이 필요합니다. 다른 Bedrock 런타임 작업에 비해 더 복잡한 세션 수명 주기를 반영합니다.
다음 모델은이 API를 지원합니다.
-
Amazon Nova Sonic 패밀리: amazon.nova-sonic-v1:0과 amazon.nova-2-sonic-v1:0 모두 이를 유일한 간접 호출 경로로 사용합니다. speech-to-speech 아키텍처에는 기본적으로 InvokeModel과 Converse가 제공할 수 없는 라이브 양방향 채널이 필요하기 때문입니다.