기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon Bedrock 엔드포인트 및 할당량
AWS 서비스에 프로그래밍 방식으로 연결하려면 endpoint. AWS services를 사용합니다.이 서비스는 서비스가 지원하는 일부 또는 모든 AWS 리전에서 IPv4 엔드포인트, 듀얼 스택 엔드포인트 및 FIPS 엔드포인트와 같은 엔드포인트 유형을 제공합니다. 일부 서비스는 글로벌 엔드포인트를 제공합니다. 자세한 내용은 AWS 서비스 엔드포인트 단원을 참조하십시오.
한도라고도 하는 서비스 할당량은 AWS 계정의 최대 서비스 리소스 또는 작업 수입니다. 자세한 내용은 AWS 서비스 할당량 단원을 참조하십시오.
다음은 이 서비스에 대한 서비스 엔드포인트 및 서비스 할당량입니다.
Amazon Bedrock 서비스 엔드포인트
Amazon Bedrock 컨트롤 플레인 API
다음 표에는 Amazon Bedrock에서 관리, 학습 및 배포 모델에 대해 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock API 작업에 다음 엔드포인트를 사용하세요.
| 리전 이름 | 리전 | 엔드포인트 | 프로토콜 |
|---|---|---|---|
| 미국 동부(오하이오) | us-east-2 |
bedrock.us-east-2.amazonaws.com bedrock-fips.us-east-2.amazonaws.com |
HTTPS HTTPS |
| 미국 동부(버지니아 북부) | us-east-1 |
bedrock.us-east-1.amazonaws.com bedrock-fips.us-east-1.amazonaws.com |
HTTPS HTTPS |
| 미국 서부(캘리포니아 북부) | us-west-1 |
bedrock.us-west-1.amazonaws.com bedrock-fips.us-west-1.amazonaws.com |
HTTPS HTTPS |
| 미국 서부(오리곤) | us-west-2 |
bedrock.us-west-2.amazonaws.com bedrock-fips.us-west-2.amazonaws.com |
HTTPS HTTPS |
| 아프리카(케이프타운) | af-south-1 | bedrock.af-south-1.amazonaws.com | HTTPS |
| 아시아 태평양(하이데라바드) | ap-south-2 | bedrock.ap-south-2.amazonaws.com | HTTPS |
| 아시아 태평양(자카르타) | ap-southeast-3 | bedrock.ap-southeast-3.amazonaws.com | HTTPS |
| 아시아 태평양(말레이시아) | ap-southeast-5 | bedrock.ap-southeast-5.amazonaws.com | HTTPS |
| 아시아 태평양(멜버른) | ap-southeast-4 | bedrock.ap-southeast-4.amazonaws.com | HTTPS |
| 아시아 태평양(뭄바이) | ap-south-1 | bedrock.ap-south-1.amazonaws.com | HTTPS |
| 아시아 태평양(오사카) | ap-northeast-3 | bedrock.ap-northeast-3.amazonaws.com | HTTPS |
| 아시아 태평양(서울) | ap-northeast-2 | bedrock.ap-northeast-2.amazonaws.com | HTTPS |
| 아시아 태평양(싱가포르) | ap-southeast-1 | bedrock.ap-southeast-1.amazonaws.com | HTTPS |
| 아시아 태평양(시드니) | ap-southeast-2 | bedrock.ap-southeast-2.amazonaws.com | HTTPS |
| 아시아 태평양(타이베이) | ap-east-2 | bedrock.ap-east-2.amazonaws.com | HTTPS |
| 아시아 태평양(태국) | ap-southeast-7 | bedrock.ap-southeast-7.amazonaws.com | HTTPS |
| 아시아 태평양(도쿄) | ap-northeast-1 | bedrock.ap-northeast-1.amazonaws.com | HTTPS |
| 캐나다(중부) | ca-central-1 |
bedrock.ca-central-1.amazonaws.com bedrock-fips.ca-central-1.amazonaws.com |
HTTPS HTTPS |
| 캐나다 서부(캘거리) | ca-west-1 |
bedrock.ca-west-1.amazonaws.com bedrock-fips.ca-west-1.amazonaws.com |
HTTPS HTTPS |
| 유럽(프랑크푸르트) | eu-central-1 | bedrock.eu-central-1.amazonaws.com | HTTPS |
| 유럽(아일랜드) | eu-west-1 | bedrock.eu-west-1.amazonaws.com | HTTPS |
| 유럽(런던) | eu-west-2 | bedrock.eu-west-2.amazonaws.com | HTTPS |
| 유럽(밀라노) | eu-south-1 | bedrock.eu-south-1.amazonaws.com | HTTPS |
| 유럽(파리) | eu-west-3 | bedrock.eu-west-3.amazonaws.com | HTTPS |
| 유럽(스페인) | eu-south-2 | bedrock.eu-south-2.amazonaws.com | HTTPS |
| 유럽(스톡홀름) | eu-north-1 | bedrock.eu-north-1.amazonaws.com | HTTPS |
| 유럽(취리히) | eu-central-2 | bedrock.eu-central-2.amazonaws.com | HTTPS |
| 이스라엘(텔아비브) | il-central-1 | bedrock.il-central-1.amazonaws.com | HTTPS |
| 멕시코(중부) | mx-central-1 | bedrock.mx-central-1.amazonaws.com | HTTPS |
| 중동(바레인) | me-south-1 | bedrock.me-south-1.amazonaws.com | HTTPS |
| 중동(UAE) | me-central-1 | bedrock.me-central-1.amazonaws.com | HTTPS |
| 남아메리카(상파울루) | sa-east-1 | bedrock.sa-east-1.amazonaws.com | HTTPS |
| AWS GovCloud(미국 동부) | us-gov-east-1 |
bedrock.us-gov-east-1.amazonaws.com bedrock-fips.us-gov-east-1.amazonaws.com |
HTTPS HTTPS |
| AWS GovCloud(미국 서부) | us-gov-west-1 |
bedrock.us-gov-west-1.amazonaws.com bedrock-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS |
Amazon Bedrock 런타임 API
다음 표에는 Amazon Bedrock가 Amazon Bedrock에서 호스팅된 모델에 대한 추론 요청 생성을 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock 런타임 API 작업에 다음 엔드포인트를 사용하세요.
| 리전 이름 | 리전 | 엔드포인트 | 프로토콜 |
|---|---|---|---|
| 미국 동부(오하이오) | us-east-2 |
bedrock-runtime.us-east-2.amazonaws.com bedrock-runtime-fips.us-east-2.amazonaws.com |
HTTPS HTTPS |
| 미국 동부(버지니아 북부) | us-east-1 |
bedrock-runtime.us-east-1.amazonaws.com bedrock-runtime-fips.us-east-1.amazonaws.com |
HTTPS HTTPS |
| 미국 서부(오리건) | us-west-2 |
bedrock-runtime.us-west-2.amazonaws.com bedrock-runtime-fips.us-west-2.amazonaws.com |
HTTPS HTTPS |
| 아시아 태평양(하이데라바드) | ap-south-2 | bedrock-runtime.ap-south-2.amazonaws.com | HTTPS |
| 아시아 태평양(뭄바이) | ap-south-1 | bedrock-runtime.ap-south-1.amazonaws.com | HTTPS |
| 아시아 태평양(오사카) | ap-northeast-3 | bedrock-runtime.ap-northeast-3.amazonaws.com | HTTPS |
| 아시아 태평양(서울) | ap-northeast-2 | bedrock-runtime.ap-northeast-2.amazonaws.com | HTTPS |
| 아시아 태평양(싱가포르) | ap-southeast-1 | bedrock-runtime.ap-southeast-1.amazonaws.com | HTTPS |
| 아시아 태평양(시드니) | ap-southeast-2 | bedrock-runtime.ap-southeast-2.amazonaws.com | HTTPS |
| 아시아 태평양(도쿄) | ap-northeast-1 | bedrock-runtime.ap-northeast-1.amazonaws.com | HTTPS |
| 캐나다(중부) | ca-central-1 |
bedrock-runtime.ca-central-1.amazonaws.com bedrock-runtime-fips.ca-central-1.amazonaws.com |
HTTPS HTTPS |
| 유럽(프랑크푸르트) | eu-central-1 | bedrock-runtime.eu-central-1.amazonaws.com | HTTPS |
| 유럽(아일랜드) | eu-west-1 | bedrock-runtime.eu-west-1.amazonaws.com | HTTPS |
| 유럽(런던) | eu-west-2 | bedrock-runtime.eu-west-2.amazonaws.com | HTTPS |
| 유럽(밀라노) | eu-south-1 | bedrock-runtime.eu-south-1.amazonaws.com | HTTPS |
| 유럽(파리) | eu-west-3 | bedrock-runtime.eu-west-3.amazonaws.com | HTTPS |
| 유럽(스페인) | eu-south-2 | bedrock-runtime.eu-south-2.amazonaws.com | HTTPS |
| 유럽(스톡홀름) | eu-north-1 | bedrock-runtime.eu-north-1.amazonaws.com | HTTPS |
| 유럽(취리히) | eu-central-2 | bedrock-runtime.eu-central-2.amazonaws.com | HTTPS |
| 남아메리카(상파울루) | sa-east-1 | bedrock-runtime.sa-east-1.amazonaws.com | HTTPS |
| AWS GovCloud(미국 동부) | us-gov-east-1 |
bedrock-runtime.us-gov-east-1.amazonaws.com bedrock-runtime-fips.us-gov-east-1.amazonaws.com |
HTTPS HTTPS |
| AWS GovCloud(미국 서부) | us-gov-west-1 |
bedrock-runtime.us-gov-west-1.amazonaws.com bedrock-runtime-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS |
Amazon Bedrock 빌드 API용 에이전트
다음 표에는 Amazon Bedrock Agents가 에이전트 및 지식 기반을 생성하고 관리하기 위해 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock Agents API 작업에 다음 엔드포인트를 사용하세요.
| 리전 이름 | 리전 | 엔드포인트 | 프로토콜 |
|---|---|---|---|
| 미국 동부(버지니아 북부) | us-east-1 | bedrock-agent.us-east-1.amazonaws.com | HTTPS |
| bedrock-agent-fips.us-east-1.amazonaws.com | HTTPS | ||
| 미국 서부(오레곤) | us-west-2 | bedrock-agent.us-west-2.amazonaws.com | HTTPS |
| bedrock-agent-fips.us-west-2.amazonaws.com | HTTPS | ||
| 아시아 태평양(싱가포르) | ap-southeast-1 | bedrock-agent.ap-southeast-1.amazonaws.com | HTTPS |
| 아시아 태평양(시드니) | ap-southeast-2 | bedrock-agent.ap-southeast-2.amazonaws.com | HTTPS |
| 아시아 태평양(도쿄) | ap-northeast-1 | bedrock-agent.ap-northeast-1.amazonaws.com | HTTPS |
| 아시아 태평양(서울) | ap-northeast-2 | bedrock-agent.ap-northeast-2.amazonaws.com | HTTPS |
| 캐나다(중부) | ca-central-1 | bedrock-agent.ca-central-1.amazonaws.com | HTTPS |
| 유럽(프랑크푸르트) | eu-central-1 | bedrock-agent.eu-central-1.amazonaws.com | HTTPS |
| 유럽(아일랜드) | eu-west-1 | bedrock-agent.eu-west-1.amazonaws.com | HTTPS |
| 유럽(런던) | eu-west-2 | bedrock-agent.eu-west-2.amazonaws.com | HTTPS |
| 유럽(파리) | eu-west-3 | bedrock-agent.eu-west-3.amazonaws.com | HTTPS |
| 아시아 태평양(뭄바이) | ap-south-1 | bedrock-agent.ap-south-1.amazonaws.com | HTTPS |
| 남아메리카(상파울루) | sa-east-1 | bedrock-agent.sa-east-1.amazonaws.com | HTTPS |
Amazon Bedrock 런타임 API용 에이전트
다음 표에는 Agents for Amazon Bedrock가 에이전트 직접 호출 및 지식 기반 쿼리를 위해 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Agents for Amazon Bedrock 런타임 API 작업에 다음 엔드포인트를 사용하세요.
| 리전 이름 | 리전 | 엔드포인트 | 프로토콜 |
|---|---|---|---|
| 미국 동부(버지니아 북부) | us-east-1 | bedrock-agent-runtime.us-east-1.amazonaws.com | HTTPS |
| bedrock-agent-runtime-fips.us-east-1.amazonaws.com | HTTPS | ||
| 미국 서부(오레곤) | us-west-2 | bedrock-agent-runtime.us-west-2.amazonaws.com | HTTPS |
| bedrock-agent-runtime-fips.us-west-2.amazonaws.com | HTTPS | ||
| 아시아 태평양(싱가포르) | ap-southeast-1 | bedrock-agent-runtime.ap-southeast-1.amazonaws.com | HTTPS |
| 아시아 태평양(시드니) | ap-southeast-2 | bedrock-agent-runtime.ap-southeast-2.amazonaws.com | HTTPS |
| 아시아 태평양(도쿄) | ap-northeast-1 | bedrock-agent-runtime.ap-northeast-1.amazonaws.com | HTTPS |
| 아시아 태평양(서울) | ap-northeast-2 | bedrock-agent-runtime.ap-northeast-2.amazonaws.com | HTTPS |
| 캐나다(중부) | ca-central-1 | bedrock-agent-runtime.ca-central-1.amazonaws.com | HTTPS |
| 유럽(프랑크푸르트) | eu-central-1 | bedrock-agent-runtime.eu-central-1.amazonaws.com | HTTPS |
| 유럽(파리) | eu-west-3 | bedrock-agent-runtime.eu-west-3.amazonaws.com | HTTPS |
| 유럽(아일랜드) | eu-west-1 | bedrock-agent-runtime.eu-west-1.amazonaws.com | HTTPS |
| 유럽(런던) | eu-west-2 | bedrock-agent-runtime.eu-west-2.amazonaws.com | HTTPS |
| 아시아 태평양(뭄바이) | ap-south-1 | bedrock-agent-runtime.ap-south-1.amazonaws.com | HTTPS |
| 남아메리카(상파울루) | sa-east-1 | bedrock-agent-runtime.sa-east-1.amazonaws.com | HTTPS |
Amazon Bedrock 데이터 자동화 API
다음 표에는 Amazon Bedrock용 데이터 자동화에서 지원하는 리전별 엔드포인트 목록이 나와 있습니다. runtime이라는 단어를 사용하는 엔드포인트는 블루프린트 및 프로젝트를 직접 호출하여 파일에서 정보를 추출합니다. Amazon Bedrock 데이터 자동화 런타임 API 작업에 다음 엔드포인트를 사용하세요. runtime이라는 단어가 없는 엔드포인트는 추출 지침을 제공하기 위해 블루프린트 및 프로젝트를 생성하는 데 사용됩니다. Amazon Bedrock 데이터 자동화 API 빌드 타임 작업에 다음 엔드포인트를 사용하세요.
| 리전 이름 | 리전 | 엔드포인트 | 프로토콜 |
|---|---|---|---|
| 미국 동부(버지니아 북부) | us-east-1 |
bedrock-data-automation.us-east-1.amazonaws.com bedrock-data-automation-runtime.us-east-1.api.aws bedrock-data-automation-runtime.us-east-1.amazonaws.com bedrock-data-automation.us-east-1.api.aws bedrock-data-automation-fips.us-east-1.amazonaws.com bedrock-data-automation-runtime-fips.us-east-1.api.aws bedrock-data-automation-runtime-fips.us-east-1.amazonaws.com bedrock-data-automation-fips.us-east-1.api.aws |
HTTPS HTTPS HTTPS HTTPS HTTPS HTTPS HTTPS HTTPS |
| 미국 서부(오리곤) | us-west-2 |
bedrock-data-automation.us-west-2.amazonaws.com bedrock-data-automation-runtime.us-west-2.api.aws bedrock-data-automation-runtime.us-west-2.amazonaws.com bedrock-data-automation.us-west-2.api.aws bedrock-data-automation-fips.us-west-2.amazonaws.com bedrock-data-automation-runtime-fips.us-west-2.api.aws bedrock-data-automation-runtime-fips.us-west-2.amazonaws.com bedrock-data-automation-fips.us-west-2.api.aws |
HTTPS HTTPS HTTPS HTTPS HTTPS HTTPS HTTPS HTTPS |
| 아시아 태평양(뭄바이) | ap-south-1 |
bedrock-data-automation.ap-south-1.amazonaws.com bedrock-data-automation-runtime.ap-south-1.amazonaws.com |
HTTPS HTTPS |
| 아시아 태평양(시드니) | ap-southeast-2 |
bedrock-data-automation.ap-southeast-2.amazonaws.com bedrock-data-automation-runtime.ap-southeast-2.amazonaws.com |
HTTPS HTTPS |
| 유럽(프랑크푸르트) | eu-central-1 |
bedrock-data-automation.eu-central-1.amazonaws.com bedrock-data-automation-runtime.eu-central-1.amazonaws.com |
HTTPS HTTPS |
| 유럽(아일랜드) | eu-west-1 |
bedrock-data-automation.eu-west-1.amazonaws.com bedrock-data-automation-runtime.eu-west-1.amazonaws.com |
HTTPS HTTPS |
| 유럽(런던) | eu-west-2 |
bedrock-data-automation.eu-west-2.amazonaws.com bedrock-data-automation-runtime.eu-west-2.amazonaws.com |
HTTPS HTTPS |
| AWS GovCloud(미국 서부) | us-gov-west-1 |
bedrock-data-automation.us-gov-west-1.amazonaws.com bedrock-data-automation-runtime.us-gov-west-1.amazonaws.com bedrock-data-automation-fips.us-gov-west-1.amazonaws.com bedrock-data-automation-runtime-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS HTTPS HTTPS |
Amazon Bedrock 서비스 할당량
작은 정보
Amazon Bedrock에는 많은 수의 할당량이 있으므로 아래 표를 사용하는 대신 콘솔을 사용하여 서비스 할당량을 보는 것이 좋습니다. Amazon Bedrock 할당량
| 이름 | 기본값 | 조정 가능 | 설명 |
|---|---|---|---|
| (고급 프롬프트 최적화) 계정당 활성 작업 | 지원되는 각 리전: 20 | 아니요 | 계정당 활성 고급 프롬프트 최적화(APO) 작업의 최대 수입니다. |
| (고급 프롬프트 최적화) 계정당 비활성 작업 | 지원되는 각 리전: 5,000개 | 아니요 | 계정당 비활성 고급 프롬프트 최적화(APO) 작업의 최대 수입니다. |
| (자동 추론) 정책의 주석 | 지원되는 각 리전: 10 | 아니요 | 자동 추론 정책의 최대 주석 수입니다. |
| (자동 추론) 초당 CancelAutomatedReasoningPolicyBuildWorkflow 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 CancelAutomatedReasoningPolicyBuildWorkflow API 요청 수입니다. |
| (자동 추론) 정책당 동시 빌드 | 지원되는 각 리전: 2 | 아니요 | 자동 추론 정책당 최대 동시 빌드 수입니다. |
| (자동 추론) 계정당 동시 정책 빌드 | 지원되는 각 리전: 5 | 아니요 | 한 계정에서 동시 자동 추론 정책 빌드의 최대 수입니다. |
| (자동 추론) 초당 CreateAutomatedReasoningPolicy 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 CreateAutomatedReasoningPolicy API 요청 수입니다. |
| (자동 추론) 초당 CreateAutomatedReasoningPolicyTestCase 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 CreateAutomatedReasoningPolicyTestCase API 요청 수입니다. |
| (자동 추론) 초당 CreateAutomatedReasoningPolicyVersion 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 CreateAutomatedReasoningPolicyVersion API 요청 수입니다. |
| (자동 추론) 초당 DeleteAutomatedReasoningPolicy 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 DeleteAutomatedReasoningPolicy API 요청 수입니다. |
| (자동 추론) 초당 DeleteAutomatedReasoningPolicyBuildWorkflow 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 DeleteAutomatedReasoningPolicyBuildWorkflow API 요청 수입니다. |
| (자동 추론) 초당 DeleteAutomatedReasoningPolicyTestCase 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 DeleteAutomatedReasoningPolicyTestCase API 요청 수입니다. |
| (자동 추론) 초당 ExportAutomatedReasoningPolicyVersion 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 ExportAutomatedReasoningPolicyVersion API 요청 수입니다. |
| (자동 추론) 초당 GetAutomatedReasoningPolicy 요청 | 지원되는 각 리전: 10개 | 예 |
초당 최대 GetAutomatedReasoningPolicy API 요청 수입니다. |
| (자동 추론) 초당 GetAutomatedReasoningPolicyAnnotations 요청 | 지원되는 각 리전: 10개 | 예 |
초당 최대 GetAutomatedReasoningPolicyAnnotations API 요청 수입니다. |
| (자동 추론) 초당 GetAutomatedReasoningPolicyBuildWorkflow 요청 | 지원되는 각 리전: 10개 | 예 |
초당 최대 GetAutomatedReasoningPolicyBuildWorkflow API 요청 수입니다. |
| (자동 추론) 초당 GetAutomatedReasoningPolicyBuildWorkflowResultAssets 요청 | 지원되는 각 리전: 10개 | 예 |
초당 최대 GetAutomatedReasoningPolicyBuildWorkflowResultAssets API 요청 수입니다. |
| (자동 추론) 초당 GetAutomatedReasoningPolicyNextScenario 요청 | 지원되는 각 리전: 10개 | 예 |
초당 최대 GetAutomatedReasoningPolicyNextScenario API 요청 수입니다. |
| (자동 추론) 초당 GetAutomatedReasoningPolicyTestCase 요청 | 지원되는 각 리전: 10개 | 예 |
초당 최대 GetAutomatedReasoningPolicyTestCase API 요청 수입니다. |
| (자동 추론) 초당 GetAutomatedReasoningPolicyTestResult 요청 | 지원되는 각 리전: 10개 | 예 |
초당 최대 GetAutomatedReasoningPolicyTestResult API 요청 수입니다. |
| (자동 추론) 초당 ListAutomatedReasoningPolicies 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 ListAutomatedReasoningPolicies API 요청 수입니다. |
| (자동 추론) 초당 ListAutomatedReasoningPolicyBuildWorkflows 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 ListAutomatedReasoningPolicyBuildWorkflows API 요청 수입니다. |
| (자동 추론) 초당 ListAutomatedReasoningPolicyTestCases 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 ListAutomatedReasoningPolicyTestCases API 요청 수입니다. |
| (자동 추론) 초당 ListAutomatedReasoningPolicyTestResults 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 ListAutomatedReasoningPolicyTestResults API 요청 수입니다. |
| (자동 추론) 계정당 정책 | 지원되는 각 리전: 100 | 아니요 | 한 계정의 최대 자동 추론 정책 수입니다. |
| (자동 추론) 정책의 규칙 | 지원되는 각 리전: 500개 | 아니요 | 자동 추론 정책의 최대 규칙 수입니다. |
| (자동 추론) 소스 문서 크기(MB) | 지원되는 각 리전: 5 | 아니요 | 자동 추론 정책을 생성하기 위한 최대 소스 문서 크기(MB)입니다. |
| (자동 추론) 소스 문서 토큰 | 지원되는 각 리전: 122,880 | 아니요 | 자동 추론 정책을 생성할 때 소스 문서에 허용되는 최대 토큰 수입니다. |
| (자동 추론) 초당 StartAutomatedReasoningPolicyBuildWorkflow 요청 | 각 지원되는 지역: 1 | 예 |
초당 최대 StartAutomatedReasoningPolicyBuildWorkflow API 요청 수입니다. |
| (자동 추론) 초당 StartAutomatedReasoningPolicyTestWorkflow 요청 | 각 지원되는 지역: 1 | 예 |
초당 최대 StartAutomatedReasoningPolicyTestWorkflow API 요청 수입니다. |
| (자동 추론) 정책당 테스트 | 지원되는 각 리전: 100 | 아니요 | 자동 추론 정책당 최대 테스트 수입니다. |
| (자동 추론) 정책당 유형 | 지원되는 각 리전: 50 | 아니요 | 자동 추론 정책의 최대 유형 수입니다. |
| (자동 추론) 초당 UpdateAutomatedReasoningPolicy 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 UpdateAutomatedReasoningPolicy API 요청 수입니다. |
| (자동 추론) 초당 UpdateAutomatedReasoningPolicyAnnotations 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 UpdateAutomatedReasoningPolicyAnnotations API 요청 수입니다. |
| (자동 추론) 초당 UpdateAutomatedReasoningPolicyTestCase 요청 | 지원되는 각 리전: 5개 | 예 |
초당 최대 UpdateAutomatedReasoningPolicyTestCase API 요청 수입니다. |
| (자동 추론) 정책의 유형당 값 | 지원되는 각 리전: 50 | 아니요 | 자동 추론 정책에서 유형당 값의 최대 수입니다. |
| (자동 추론) 정책의 변수 | 지원되는 각 리전: 200 | 아니요 | 자동 추론 정책의 최대 변수 수입니다. |
| (자동 추론) 정책당 버전 | 지원되는 각 리전: 1,000 | 아니요 | 자동 추론 정책당 최대 버전 수입니다. |
| (데이터 자동화) (콘솔) 최대 문서 파일 크기(MB) | 지원되는 각 리전: 200 | 아니요 | 콘솔의 최대 파일 크기 |
| (데이터 자동화) (콘솔) 문서 파일당 최대 페이지 수 | 지원되는 각 리전: 20 | 아니요 | 콘솔에서 문서당 최대 페이지 수 |
| (데이터 자동화) CreateBlueprint - 계정당 최대 블루프린트 수 | 지원되는 각 리전: 350 | 예 |
계정당 최대 블루프린트 수 |
| (데이터 자동화) CreateBlueprintVersion - 블루프린트당 최대 블루프린트 버전 수 | 지원되는 각 리전: 10개 | 예 |
블루프린트당 최대 버전 수 |
| (데이터 자동화) 필드의 설명 길이(문자) | 지원되는 각 리전: 300 | 아니요 | 필드의 최대 설명 길이(문자) |
| (데이터 자동화) InvokeDataAutomation(동기화) - 이미지 - 최대 요청 수 |
us-east-1: 200 us-west-2: 200 각각의 지원되는 다른 리전: 100 |
예 |
이미지 모달리티에 대한 분당 최대 InvokeDataAutomation 요청 수 |
| (데이터 자동화) InvokeDataAutomationAsync - 오디오 - 최대 동시 작업 수 |
us-east-1: 20 us-west-2: 20 각각의 지원되는 다른 리전: 2 |
예 |
오디오에 대해 열린 데이터 자동화 비동기 간접 호출 작업의 최대 수 |
| (데이터 자동화) InvokeDataAutomationAsync - 문서 - 최대 동시 작업 수 |
us-east-1: 25 us-west-2: 25 각각의 지원되는 다른 지역: 5 |
예 |
문서에 대해 열린 데이터 자동화 비동기 간접 호출 작업의 최대 수 |
| (데이터 자동화) InvokeDataAutomationAsync - 이미지 - 최대 동시 작업 수 |
us-east-1: 20 us-west-2: 20 각각의 지원되는 다른 지역: 5 |
예 |
이미지에 대해 열린 데이터 자동화 비동기 간접 호출 작업의 최대 수 |
| (데이터 자동화) InvokeDataAutomationAsync - 열린 작업의 최대 수 | 지원되는 각 리전: 1,800 | 아니요 | 이미지에 대해 열린 데이터 자동화 비동기 간접 호출 작업의 최대 수 |
| (데이터 자동화) InvokeDataAutomationAsync - 비디오 - 최대 동시 작업 수 |
us-east-1: 20 us-west-2: 20 지원되는 다른 각 리전: 3 |
예 |
비디오에 대해 열린 데이터 자동화 비동기 간접 호출 작업의 최대 수 |
| (데이터 자동화) 최대 오디오 샘플 속도(Hz) | 지원되는 각 리전: 48,000 | 아니요 | 최대 오디오 샘플 속도 |
| (데이터 자동화) 프로젝트당 최대 블루프린트(오디오) | 지원되는 각 리전: 1 | 아니요 | 오디오에 대한 프로젝트당 최대 블루프린트 수 |
| (데이터 자동화) 프로젝트당 최대 블루프린트(문서) | 지원되는 각 리전: 40개 | 아니요 | 문서에 대한 프로젝트당 최대 블루프린트 수 |
| (데이터 자동화) 프로젝트당 최대 블루프린트(이미지) | 지원되는 각 리전: 1 | 아니요 | 이미지에 대한 프로젝트당 최대 블루프린트 수 |
| (데이터 자동화) 프로젝트당 최대 블루프린트(비디오) | 지원되는 각 리전: 1 | 아니요 | 비디오에 대한 프로젝트당 최대 블루프린트 수 |
| (데이터 자동화) 최대 JSON 블루프린트 크기(문자) | 지원되는 각 리전: 100,000개 | 아니요 | JSON의 최대 크기(문자) |
| (데이터 자동화) 필드 계층 구조의 최대 수준 | 지원되는 각 리전: 1 | 아니요 | 필드 계층 구조의 최대 수준 수 |
| (데이터 자동화) 문서당 최대 페이지 수 | 지원되는 각 리전: 3,000 | 아니요 | 문서당 최대 페이지 수 |
| (데이터 자동화) 최대 해상도 | 지원되는 각 리전: 8,000 | 아니요 | 이미지의 최대 해상도 |
| (데이터 자동화) 최대 오디오 파일 크기(MB) | 지원되는 각 리전: 2,048개 | 아니요 | 오디오의 최대 파일 크기 |
| (데이터 자동화) 최대 오디오 길이(분) | 지원되는 각 리전: 240 | 아니요 | 오디오의 최대 길이(분) |
| (데이터 자동화) 최대 문서 파일 크기(MB) | 지원되는 각 리전: 500개 | 아니요 | 최대 파일 크기 |
| (데이터 자동화) 최대 이미지 파일 크기(MB) | 지원되는 각 리전: 5 | 아니요 | 이미지의 최대 파일 크기 |
| (데이터 자동화) 추론 시작 요청당 최대 블루프린트 수(오디오) | 지원되는 각 리전: 1 | 아니요 | 추론 시작 요청의 최대 인라인 블루프린트 수 |
| (데이터 자동화) 추론 시작 요청당 최대 블루프린트 수(문서) | 지원되는 각 리전: 10 | 아니요 | 추론 시작 요청의 최대 인라인 블루프린트 수 |
| (데이터 자동화) 추론 시작 요청당 최대 블루프린트 수(이미지) | 지원되는 각 리전: 1 | 아니요 | 추론 시작 요청의 최대 인라인 블루프린트 수 |
| (데이터 자동화) 추론 시작 요청당 최대 블루프린트 수(비디오) | 지원되는 각 리전: 1 | 아니요 | 추론 시작 요청의 최대 인라인 블루프린트 수 |
| (데이터 자동화) 블루프린트당 최대 목록 필드 수 | 지원되는 각 리전: 15 | 아니요 | 블루프린트당 최대 목록 필드 수 |
| (데이터 자동화) 최대 비디오 파일 크기(MB) | 지원되는 각 리전: 10,240 | 아니요 | 비디오의 최대 파일 크기 |
| (데이터 자동화) 최대 비디오 길이(분) | 지원되는 각 리전: 240 | 아니요 | 비디오의 최대 길이(분) |
| (데이터 자동화) 최소 오디오 샘플 속도(Hz) | 지원되는 각 리전: 8,000 | 아니요 | 최소 오디오 샘플 속도 |
| (데이터 자동화) 최소 오디오 길이(밀리초) | 지원되는 각 리전: 500개 | 아니요 | 오디오의 최소 길이(밀리초) |
| (평가) 동시 자동 모델 평가 작업 수 | 지원되는 각 리전: 20 | 아니요 | 현재 리전의 이 계정에서 한 번에 지정할 수 있는 자동 모델 평가 작업의 최대 수입니다. |
| (평가) 인간 작업자를 사용하는 동시 모델 평가 작업 수 | 지원되는 각 리전: 10 | 아니요 | 현재 리전의 이 계정에서 한 번에 지정할 수 있는 인간 작업자를 사용하는 모델 평가 작업의 최대 수입니다. |
| (평가) 사용자 지정 지표 수 | 지원되는 각 리전: 10 | 아니요 | 인간 작업자를 사용하는 모델 평가 작업에서 지정할 수 있는 사용자 지정 지표의 최대 수입니다. |
| (평가) 인적 기반 모델 평가 작업의 사용자 지정 프롬프트 데이터세트 수 | 지원되는 각 리전: 1 | 아니요 | 현재 리전에서 이 계정의 인적 기반 모델 평가 작업에서 지정할 수 있는 사용자 지정 프롬프트 데이터세트의 최대 수입니다. |
| (평가) 작업당 데이터세트 수 | 지원되는 각 리전: 5 | 아니요 | 자동 모델 평가 작업에서 지정할 수 있는 최대 데이터세트 수입니다. 여기에는 사용자 지정 프롬프트 데이터세트와 기본 제공 프롬프트 데이터세트가 모두 포함됩니다. |
| (평가) 평가 작업 수 | 지원되는 각 리전: 5,000개 | 아니요 | 현재 리전의 이 계정에서 생성할 수 있는 모델 평가의 최대 수입니다. |
| (평가) 데이터세트당 지표 수 | 지원되는 각 리전: 3 | 아니요 | 자동 모델 평가 작업에서 데이터세트당 지정할 수 있는 최대 지표 수입니다. 여기에는 사용자 지정 지표와 기본 제공 지표가 모두 포함됩니다. |
| (평가) 인간 작업자를 사용하는 모델 평가 작업의 모델 수 | 지원되는 각 리전: 2 | 아니요 | 인간 작업자를 사용하는 모델 평가 작업에서 지정할 수 있는 모델의 최대 수입니다. |
| (평가) 자동 모델 평가 작업의 모델 수 | 지원되는 각 리전: 1 | 아니요 | 자동 모델 평가 작업에서 지정할 수 있는 최대 모델 수입니다. |
| (평가) 사용자 지정 프롬프트 데이터세트의 프롬프트 수 | 지원되는 각 리전: 1,000 | 아니요 | 사용자 지정 프롬프트 데이터세트에 포함될 수 있는 최대 프롬프트 수입니다. |
| (평가) 프롬프트 크기 | 지원되는 각 리전: 4 | 아니요 | 사용자 지정 프롬프트 데이터세트에서 개별 프롬프트의 최대 크기(KB)입니다. |
| (평가) 작업자의 작업 시간 | 지원되는 각 리전: 30개 | 아니요 | 작업자가 작업을 완료하는 데 사용할 수 있는 최대 시간(일)입니다. |
| (흐름) 흐름당 에이전트 노드 | 지원되는 각 리전: 20 | 아니요 | 최대 에이전트 노드 수입니다. |
| (흐름) 흐름당 수집기 노드 | 지원되는 각 리전: 1 | 아니요 | 최대 수집기 노드 수입니다. |
| (흐름) 흐름당 조건 노드 | 지원되는 각 리전: 5 | 아니요 | 최대 조건 노드 수입니다. |
| (흐름) 조건 노드당 조건 | 지원되는 각 리전: 5 | 아니요 | 조건 노드당 최대 조건 수입니다. |
| (흐름) 초당 CreateFlow 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 CreateFlow 요청 수입니다. |
| (흐름) 초당 CreateFlowAlias 요청 수 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 CreateFlowAlias 요청 수입니다. |
| (흐름) 초당 CreateFlowVersion 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 CreateFlowVersion 요청 수입니다. |
| (흐름) 초당 DeleteFlow 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 DeleteFlow 요청 수입니다. |
| (흐름) 초당 DeleteFlowAlias 요청 수 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 DeleteFlowAlias 요청 수입니다. |
| (흐름) 초당 DeleteFlowVersion 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 DeleteFlowVersion 요청 수입니다. |
| (흐름) 흐름당 흐름 별칭 | 지원되는 각 리전: 10 | 아니요 | 최대 흐름 별칭 수입니다. |
| (흐름) 계정당 흐름 실행 | 지원되는 각 리전: 1,000 | 예 |
계정당 최대 흐름 실행 수입니다. |
| (흐름) 흐름당 흐름 버전 | 지원되는 각 리전: 10 | 아니요 | 최대 흐름 버전 수입니다. |
| (흐름) 계정당 흐름 | 지원되는 각 리전: 100 | 예 |
계정당 최대 흐름 수입니다. |
| (흐름) 초당 GetFlow 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 GetFlow 요청 수입니다. |
| (흐름) 초당 GetFlowAlias 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 GetFlowAlias 요청 수입니다. |
| (흐름) 초당 GetFlowVersion 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 GetFlowVersion 요청 수입니다. |
| (흐름) 흐름당 인라인 코드 노드 | 지원되는 각 리전: 5 | 아니요 | 흐름당 최대 인라인 코드 노드 수입니다. |
| (흐름) 흐름당 입력 노드 | 지원되는 각 리전: 1 | 아니요 | 최대 흐름 입력 노드 수입니다. |
| (흐름) 흐름당 반복기 노드 | 지원되는 각 리전: 1 | 아니요 | 최대 반복기 노드 수입니다. |
| (흐름) 흐름당 지식 기반 노드 | 지원되는 각 리전: 20 | 아니요 | 최대 지식 기반 노드 수입니다. |
| (흐름) 흐름당 Lambda 함수 노드 | 지원되는 각 리전: 20 | 아니요 | 최대 Lambda 함수 노드 수입니다. |
| (흐름) 흐름당 Lex 노드 | 지원되는 각 리전: 5 | 아니요 | 최대 Lex 노드 수입니다. |
| (흐름) 초당 ListFlowAliases 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 ListFlowAliases 요청 수입니다. |
| (흐름) 초당 ListFlowVersions 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 ListFlowVersions 요청 수입니다. |
| (흐름) 초당 ListFlows 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 ListFlows 요청 수입니다. |
| (흐름) 흐름당 출력 노드 | 지원되는 각 리전: 20 | 아니요 | 최대 흐름 출력 노드 수입니다. |
| (흐름) 초당 PrepareFlow 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 PrepareFlow 요청 수입니다. |
| (흐름) 흐름당 프롬프트 노드 | 지원되는 각 리전: 20개 | 예 |
최대 프롬프트 노드 수입니다. |
| (흐름) 흐름당 S3 검색 노드 | 지원되는 각 리전: 10 | 아니요 | 최대 S3 검색 노드 수입니다. |
| (흐름) 흐름당 S3 스토리지 노드 | 지원되는 각 리전: 10 | 아니요 | 최대 S3 스토리지 노드 수입니다. |
| (흐름) 흐름당 총 노드 | 지원되는 각 리전: 40개 | 아니요 | 흐름의 최대 노드 수입니다. |
| (흐름) 초당 UpdateFlow 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 UpdateFlow 요청 수입니다. |
| (흐름) 초당 UpdateFlowAlias 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 UpdateFlowAlias 요청 수입니다. |
| (흐름) 초당 ValidateFlowDefinition 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 ValidateFlowDefinition 요청 수입니다. |
| (가드레일) 가드레일당 자동 추론 정책 | 지원되는 각 리전: 2 | 아니요 | 가드레일당 최대 자동 추론 정책 수입니다. |
| (가드레일) 컨텍스트 근거 쿼리 길이(텍스트 단위) | 지원되는 각 리전: 1 | 아니요 | 컨텍스트 근거에 대한 쿼리의 최대 길이(텍스트 단위) |
| (가드레일) 컨텍스트 근거 응답 길이(텍스트 단위) | 지원되는 각 리전: 5 | 아니요 | 컨텍스트 근거에 대한 응답의 최대 길이(텍스트 단위) |
| (가드레일) 컨텍스트 근거 소스 길이(텍스트 단위) |
us-east-1: 100 us-west-2: 100 각각의 지원되는 다른 리전: 50 |
아니요 | 컨텍스트 근거에 대한 근거 소스의 최대 길이(텍스트 단위) |
| (가드레일) 주제당 예제 문구 | 지원되는 각 리전: 5 | 아니요 | 주제당 포함할 수 있는 최대 주제 예제 수 |
| (가드레일) 계정당 가드레일 | 지원되는 각 리전: 100 | 아니요 | 계정의 최대 가드레일 수 |
| (가드레일) 온디맨드 ApplyGuardrail 콘텐츠 필터 정책 초당 텍스트 단위 |
us-east-1: 200 us-west-2: 200 각각의 지원되는 다른 리전: 25 |
예 |
콘텐츠 필터 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수 |
| (가드레일) 온디맨드 ApplyGuardrail 콘텐츠 필터 정책 초당 텍스트 단위(표준) |
us-east-1: 200 us-west-2: 200 각각의 지원되는 다른 리전: 25 |
예 |
콘텐츠 필터 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수입니다. 이는 표준 콘텐츠 정책 모델에 적용됩니다. |
| (가드레일) 온디맨드 ApplyGuardrail 거부된 주제 정책 초당 텍스트 단위 |
us-east-1: 50 us-west-2: 50 각각의 지원되는 다른 리전: 25 |
예 |
거부된 주제 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수 |
| (가드레일) 온디맨드 ApplyGuardrail 거부된 주제 정책 초당 텍스트 단위(표준) |
us-east-1: 200 us-west-2: 200 각각의 지원되는 다른 리전: 25 |
예 |
거부된 주제 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수입니다. 이는 표준 주제 정책 모델에 적용됩니다. |
| (가드레일) 온디맨드 ApplyGuardrail 민감한 정보 필터 정책 초당 텍스트 단위 |
us-east-1: 200 us-west-2: 200 각각의 지원되는 다른 리전: 25 |
예 |
민감한 정보 필터 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수 |
| (가드레일) 온디맨드 ApplyGuardrail 단어 필터 정책 초당 텍스트 단위 |
us-east-1: 200 us-west-2: 200 각각의 지원되는 다른 리전: 25 |
예 |
단어 필터 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수 |
| (가드레일) 온디맨드 ApplyGuardrail 컨텍스트 근거 정책 초당 텍스트 단위 | 지원되는 각 리전: 106 | 예 |
컨텍스트 근거 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수 |
| (가드레일) 초당 온디맨드 ApplyGuardrail 요청 |
us-east-1: 50 us-west-2: 50 각각의 지원되는 다른 리전: 25 |
예 |
초당 허용되는 최대 ApplyGuardrail API 직접 호출 수 |
| (가드레일) 민감한 정보 필터의 정규식 엔터티 | 지원되는 각 리전: 10 | 아니요 | 민감한 정보 정책에 포함할 수 있는 가드레일 필터 정규식의 최대 수 |
| (가드레일) 정규식 길이(문자) | 지원되는 각 리전: 500개 | 아니요 | 가드레일 필터 정규식의 최대 길이(문자) |
| (가드레일) 가드레일당 주제 | 지원되는 각 리전: 30개 | 아니요 | 가드레일 주제 정책 전체에서 정의할 수 있는 최대 주제 수 |
| (가드레일) 가드레일당 버전 | 지원되는 각 리전: 20 | 아니요 | 가드레일이 사용할 수 있는 최대 버전 수 |
| (가드레일) 단어 길이(문자) | 지원되는 각 리전: 100 | 아니요 | 차단된 단어 목록에서 단어의 최대 길이(문자) |
| (가드레일) 단어 정책당 단어 | 지원되는 각 리전: 10,000개 | 아니요 | 차단된 단어 목록에 포함할 수 있는 최대 단어 수 |
| (지식 기반) 계정당 동시 IngestKnowledgeBaseDocuments 및 DeleteKnowledgeBaseDocuments 요청 | 지원되는 각 리전: 10 | 아니요 | 계정에서 동시에 실행할 수 있는 IngestKnowledgeBaseDocuments 및 DeleteKnowledgeBaseDocuments 요청의 최대 수입니다. |
| (지식 기반) 계정당 동시 수집 작업 | 지원되는 각 리전: 5 | 아니요 | 계정에서 동시에 실행할 수 있는 최대 수집 작업 수입니다. |
| (지식 기반) 데이터 소스당 동시 수집 작업 | 지원되는 각 리전: 1 | 아니요 | 데이터 소스에서 동시에 실행할 수 있는 최대 수집 작업 수입니다. |
| (지식 기반) 지식 기반당 동시 수집 작업 | 지원되는 각 리전: 1 | 아니요 | 지식 기반에서 동시에 실행할 수 있는 최대 수집 작업 수입니다. |
| (지식 기반) 초당 CreateDataSource 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 CreateDataSource API 요청 수입니다. |
| (지식 기반) 초당 CreateKnowledgeBase 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 CreateKnowledgeBase API 요청 수입니다. |
| (지식 기반) 지식 기반당 데이터 소스 | 지원되는 각 리전: 5 | 아니요 | 지식 기반당 최대 데이터 소스 수입니다. |
| (지식 기반) 초당 DeleteDataSource 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 DeleteDataSource API 요청 수입니다. |
| (지식 기반) 초당 DeleteKnowledgeBase 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 DeleteKnowledgeBase API 요청 수입니다. |
| (지식 기반) 초당 DeleteKnowledgeBaseDocuments 요청 | 지원되는 각 리전: 5 | 아니요 | 초당 최대 DeleteKnowledgeBaseDocuments API 요청 수입니다. |
| (지식 기반) 수집 작업당 추가 또는 업데이트할 파일 | 지원되는 각 리전: 5,000,000 | 아니요 | 수집 작업당 수집할 수 있는 신규 및 업데이트된 파일의 최대 수입니다. |
| (지식 기반) 수집 작업당 삭제할 파일 | 지원되는 각 리전: 5,000,000 | 아니요 | 수집 작업당 삭제할 수 있는 최대 파일 수입니다. |
| (지식 기반) IngestKnowledgeBaseDocuments 작업당 수집할 파일 | 지원되는 각 리전: 25 | 아니요 | IngestKnowledgeBaseDocuments 요청당 수집할 수 있는 최대 문서 수입니다. |
| (지식 기반) 초당 GenerateQuery 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 GenerateQuery API 요청 수입니다. |
| (지식 기반) 초당 GetDataSource 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 GetDataSource API 요청 수입니다. |
| (지식 기반) 초당 GetIngestionJob 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 GetIngestionJob API 요청 수입니다. |
| (지식 기반) 초당 GetKnowledgeBase 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 GetKnowledgeBase API 요청 수입니다. |
| (지식 기반) 초당 GetKnowledgeBaseDocuments 요청 | 지원되는 각 리전: 5 | 아니요 | 초당 최대 GetKnowledgeBaseDocuments API 요청 수입니다. |
| (지식 기반) 초당 IngestKnowledgeBaseDocuments 요청 | 지원되는 각 리전: 5 | 아니요 | 초당 최대 IngestKnowledgeBaseDocuments API 요청 수입니다. |
| (지식 기반) IngestKnowledgeBaseDocuments 총 페이로드 크기 | 지원되는 각 리전: 6개 | 아니요 | IngestKnowledgeBaseDocuments 요청에서 총 페이로드의 최대 크기(MB)입니다. |
| (지식 기반) 수집 작업 파일 크기 | 지원되는 각 리전: 50 | 아니요 | 수집 작업에서 파일의 최대 크기(MB)입니다. |
| (지식 기반) 수집 작업 크기 | 지원되는 각 리전: 100 | 아니요 | 수집 작업의 최대 크기(GB)입니다. |
| (지식 기반) 계정당 지식 기반 | 지원되는 각 리전: 100 | 아니요 | 계정당 최대 지식 기반 수입니다. |
| (지식 기반) 초당 ListDataSources 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 ListDataSources API 요청 수입니다. |
| (지식 기반) 초당 ListIngestionJobs 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 ListIngestionJobs API 요청 수입니다. |
| (지식 기반) 초당 ListKnowledgeBaseDocuments 요청 | 지원되는 각 리전: 5 | 아니요 | 초당 최대 ListKnowledgeBaseDocuments API 요청 수입니다. |
| (지식 기반) 초당 ListKnowledgeBases 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 ListKnowledgeBases API 요청 수입니다. |
| (지식 기반) BDA 파서의 최대 파일 수 | 지원되는 각 리전: 1,000 | 아니요 | Amazon Bedrock Data Automation을 파서로 사용할 수 있는 최대 파일 수입니다. |
| (지식 기반) 파운데이션 모델을 파서로 사용할 수 있는 최대 파일 수 | 지원되는 각 리전: 1,000 | 아니요 | 파운데이션 모델을 파서로 사용할 수 있는 최대 파일 수입니다. |
| (지식 기반) 초당 Rerank 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 Rerank API 요청 수입니다. |
| (지식 기반) 초당 Retrieve 요청 | 지원되는 각 리전: 20 | 아니요 | 초당 최대 Retrieve API 요청 수입니다. |
| (지식 기반) 초당 RetrieveAndGenerate 요청 | 지원되는 각 리전: 20 | 아니요 | 초당 최대 RetrieveAndGenerate API 요청 수입니다. |
| (지식 기반) 초당 RetrieveAndGenerateStream 요청 | 지원되는 각 리전: 20 | 아니요 | 초당 최대 RetrieveAndGenerateStream API 요청 수입니다. |
| (지식 기반) 초당 StartIngestionJob 요청 | 지원되는 각 리전: 0.1 | 아니요 | 초당 최대 StartIngestionJob API 요청 수입니다. |
| (지식 기반) 초당 UpdateDataSource 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 UpdateDataSource API 요청 수입니다. |
| (지식 기반) 초당 UpdateKnowledgeBase 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 UpdateKnowledgeBase API 요청 수입니다. |
| (지식 기반) 사용자 쿼리 크기 | 지원되는 각 리전: 1,000 | 아니요 | 사용자 쿼리의 최대 크기(문자)입니다. |
| (모델 사용자 지정) 계정당 사용자 지정 모델 | 지원되는 각 리전: 100 | 예 |
한 계정의 최대 사용자 지정 모델 수입니다. |
| (모델 사용자 지정) 진행 중인 사용자 지정 모델 배포 | 지원되는 각 지역: 2 | 예 |
진행 중인 사용자 지정 모델 배포의 최대 수 |
| (모델 사용자 지정) 증류 사용자 지정 작업의 최대 입력 파일 크기 | 지원되는 각 리전: 2개기가바이트 | 아니요 | 증류 사용자 지정 작업의 최대 입력 파일 크기입니다. |
| (모델 사용자 지정) 증류 사용자 지정 작업의 최대 줄 길이 | 지원되는 각 리전: 16KB | 아니요 | 증류 사용자 지정 작업을 위한 입력 파일의 최대 줄 길이입니다. |
| (모델 사용자 지정) 증류 사용자 지정 작업의 최대 프롬프트 수 | 지원되는 각 리전: 15,000개 | 아니요 | 증류 사용자 지정 작업에 필요한 최대 프롬프트 수입니다. |
| (모델 사용자 지정) Amazon Nova Canvas 미세 조정 작업의 최대 훈련 레코드 수 | 지원되는 각 리전: 10,000 | 예 |
Amazon Nova Canvas 미세 조정 작업에 허용되는 최대 레코드 수입니다. |
| (모델 사용자 지정) Amazon Nova Micro V1 증류 사용자 지정 작업의 최대 학생 모델 미세 조정 컨텍스트 길이 | 지원되는 각 리전: 32,000 | 아니요 | Amazon Nova Micro V1 증류 사용자 지정 작업의 최대 학생 모델 미세 조정 컨텍스트 길이입니다. |
| (모델 사용자 지정) Amazon Nova V1 증류 사용자 지정 작업의 최대 학생 모델 미세 조정 컨텍스트 길이 | 지원되는 각 리전: 32,000 | 아니요 | Amazon Nova V1 증류 사용자 지정 작업의 최대 학생 모델 미세 조정 컨텍스트 길이입니다. |
| (모델 사용자 지정) Anthropic Claude 3 haiku 20240307 V1 증류 사용자 지정 작업의 최대 학생 모델 미세 조정 컨텍스트 길이 | 지원되는 각 리전: 32,000 | 아니요 | Anthropic Claude 3 haiku 20240307 V1 증류 사용자 지정 작업의 최대 학생 모델 미세 조정 컨텍스트 길이입니다. |
| (모델 사용자 지정) Llama 3.1 70B Instruct V1 증류 사용자 지정 작업의 최대 학생 모델 미세 조정 컨텍스트 길이 | 지원되는 각 리전: 16,000 | 아니요 | Llama 3.1 70B Instruct V1 증류 사용자 지정 작업의 최대 학생 모델 미세 조정 컨텍스트 길이입니다. |
| (모델 사용자 지정) Llama 3.1 8B Instruct V1 증류 사용자 지정 작업의 최대 학생 모델 미세 조정 컨텍스트 길이 | 지원되는 각 리전: 32,000 | 아니요 | Llama 3.1 8B Instruct V1 증류 사용자 지정 작업의 최대 학생 모델 미세 조정 컨텍스트 길이입니다. |
| (모델 사용자 지정) 증류 사용자 지정 작업의 최소 프롬프트 수 | 지원되는 각 리전: 100 | 아니요 | 증류 사용자 지정 작업에 필요한 최소 프롬프트 수입니다. |
| (모델 사용자 지정) 예약된 사용자 지정 작업 | 지원되는 각 리전: 10 | 아니요 | 예약된 사용자 지정 작업의 최대 수입니다. |
| (모델 사용자 지정) Amazon Nova Lite에서 분당 온디맨드 사용자 지정 모델 배포 요청의 합계 | 지원되는 각 리전: 2,000 | 아니요 | Amazon Nova Lite에서 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 제출된 분당 입력 및 출력 온디맨드 사용자 지정 모델 배포 요청의 합계 |
| (모델 사용자 지정) Amazon Nova Micro에서 분당 온디맨드 사용자 지정 모델 배포 요청의 합계 | 지원되는 각 리전: 2,000 | 아니요 | Amazon Nova Micro에서 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 제출된 분당 입력 및 출력 온디맨드 사용자 지정 모델 배포 요청의 합계 |
| (모델 사용자 지정) Amazon Nova Pro에서 분당 온디맨드 사용자 지정 모델 배포 요청의 합계 | 지원되는 각 리전: 200 | 아니요 | Amazon Nova Pro에서 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 제출된 분당 입력 및 출력 온디맨드 사용자 지정 모델 배포 요청의 합계 |
| (모델 사용자 지정) Meta Llama 3.3 70B Instruct에서 분당 온디맨드 사용자 지정 모델 배포 요청의 합계 | 지원되는 각 리전: 400 | 아니요 | Meta Llama 3.3 70B Instruct에서 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 제출된 분당 입력 및 출력 온디맨드 사용자 지정 모델 배포 요청의 합계 |
| (모델 사용자 지정) Amazon Nova Lite에서 일일 온디맨드 사용자 지정 모델 배포 토큰의 합계 | 지원되는 각 리전: 5,760,000,000 | 아니요 | Amazon Nova Lite에서 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 제출된 일일 입력 및 출력 온디맨드 사용자 지정 모델 배포 토큰의 합계 |
| (모델 사용자 지정) Amazon Nova Micro에서 일일 온디맨드 사용자 지정 모델 배포 토큰의 합계 | 지원되는 각 리전: 5,760,000,000 | 아니요 | Amazon Nova Micro에서 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 제출된 일일 입력 및 출력 온디맨드 사용자 지정 모델 배포 토큰의 합계 |
| (모델 사용자 지정) Amazon Nova Pro에서 일일 온디맨드 사용자 지정 모델 배포 토큰의 합계 | 지원되는 각 리전: 1,152,000,000 | 아니요 | Amazon Nova Pro에서 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 제출된 일일 입력 및 출력 온디맨드 사용자 지정 모델 배포 토큰의 합계 |
| (모델 사용자 지정) Meta Llama 3.3 70B Instruct에서 일일 온디맨드 사용자 지정 모델 배포 토큰의 합계 | 지원되는 각 리전: 432,000,000 | 아니요 | Meta Llama 3.3 70B Instruct에서 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 제출된 일일 입력 및 출력 온디맨드 사용자 지정 모델 배포 토큰의 합계 |
| (모델 사용자 지정) Amazon Nova Lite에서 분당 온디맨드 사용자 지정 모델 배포 토큰의 합계 | 지원되는 각 리전: 4,000,000 | 아니요 | Amazon Nova Lite에서 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 제출된 분당 입력 및 출력 온디맨드 사용자 지정 모델 배포 토큰의 합계 |
| (모델 사용자 지정) Amazon Nova Micro에서 분당 온디맨드 사용자 지정 모델 배포 토큰의 합계 | 지원되는 각 리전: 4,000,000 | 아니요 | Amazon Nova Micro에서 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 제출된 분당 입력 및 출력 온디맨드 사용자 지정 모델 배포 토큰의 합계 |
| (모델 사용자 지정) Amazon Nova Pro에서 분당 온디맨드 사용자 지정 모델 배포 토큰의 합계 | 지원되는 각 리전: 800,000 | 아니요 | Amazon Nova Pro에서 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 제출된 분당 입력 및 출력 온디맨드 사용자 지정 모델 배포 토큰의 합계 |
| (모델 사용자 지정) Meta Llama 3.3 70B Instruct에서 분당 온디맨드 사용자 지정 모델 배포 토큰의 합계 | 지원되는 각 지역: 300,000 | 아니요 | Meta Llama 3.3 70B Instruct에서 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 제출된 분당 입력 및 출력 온디맨드 사용자 지정 모델 배포 토큰의 합계 |
| (모델 사용자 지정) Amazon Nova Lite 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 20개,000 | 예 |
Amazon Nova Lite 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Amazon Nova Micro 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 20개,000 | 예 |
Amazon Nova Micro 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Amazon Nova Pro 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Amazon Nova Pro 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Claude 3 Haiku v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Claude 3 Haiku 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Claude 3-5-Haiku v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Claude 3-5-Haiku 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Meta Llama 2 13B v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 2 13B 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Meta Llama 2 70B v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 2 70B 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Meta Llama 3.1 70B Instruct v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 3.1 70B Instruct 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Meta Llama 3.1 8B Instruct v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 3.1 8B Instruct 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Meta Llama 3.2 11B Instruct v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 3.2 11B Instruct 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Meta Llama 3.2 1B Instruct v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 3.2 1B Instruct 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Meta Llama 3.2 3B Instruct v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 3.2 3B Instruct 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Meta Llama 3.2 90B Instruct v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 3.2 90B Instruct 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Meta Llama 3.3 70B Instruct v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 3.3 70B Instruct 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Titan Image Generator G1 V1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Titan Image Generator 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Titan Image Generator G1 V2 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Titan Image Generator V2 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Titan Multimodal Embeddings G1 v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 50,000 | 예 |
Titan Multimodal Embeddings 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Titan Text G1 - Express v1 지속적인 사전 훈련 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 100,000 | 예 |
Titan Text Express 지속적인 사전 훈련 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Titan Text G1 - Express v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Titan Text Express 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Titan Text G1 - Lite v1 지속적인 사전 훈련 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 100,000 | 예 |
Titan Text Lite 지속적인 사전 훈련 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Titan Text G1 - Lite v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Titan Text Lite 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) Titan Text G1 - Premier v1 미세 조정 작업에서 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 20개,000 | 예 |
Titan Text Premier 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합산 수입니다. |
| (모델 사용자 지정) 총 사용자 지정 모델 배포 수 | 지원되는 각 리전: 10개 | 예 |
총 사용자 지정 모델 배포 수 |
| (프롬프트 관리) 초당 CreatePrompt 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 CreatePrompt 요청 수입니다. |
| (프롬프트 관리) 초당 CreatePromptVersion 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 CreatePromptVersion 요청 수입니다. |
| (프롬프트 관리) 초당 DeletePrompt 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 DeletePrompt 요청 수입니다. |
| (프롬프트 관리) 초당 GetPrompt 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 GetPrompt 요청 수입니다. |
| (프롬프트 관리) 초당 ListPrompts 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 ListPrompts 요청 수입니다. |
| (프롬프트 관리) 계정당 프롬프트 | 지원되는 각 리전: 500 | 예 |
최대 프롬프트 수입니다. |
| (프롬프트 관리) 초당 UpdatePrompt 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 UpdatePrompt 요청 수입니다. |
| (프롬프트 관리) 프롬프트당 버전 | 지원되는 각 리전: 10 | 아니요 | 프롬프트당 최대 버전 수입니다. |
| 에이전트당 API | 지원되는 각 리전: 11 | 예 |
에이전트에 추가할 수 있는 최대 API 수입니다. |
| 에이전트당 작업 그룹 | 지원되는 각 리전: 20개 | 예 |
에이전트에 추가할 수 있는 최대 작업 그룹 수입니다. |
| 에이전트당 에이전트 공동 작업자 | 지원되는 각 리전: 1,000 | 예 |
에이전트에 추가할 수 있는 최대 공동 작업자 에이전트 수입니다. |
| 계정당 에이전트 | 지원되는 각 리전: 1,000 | 예 |
한 계정의 최대 에이전트 수입니다. |
| 초당 AssociateAgentKnowledgeBase 요청 | 지원되는 각 리전: 6개 | 아니요 | 초당 최대 AssociateAgentKnowledgeBase API 요청 수입니다. |
| 에이전트당 연결된 별칭 | 지원되는 각 리전: 10 | 아니요 | 에이전트와 연결할 수 있는 최대 별칭 수입니다. |
| 에이전트당 관련 지식 기반 | 지원되는 각 지역: 2 | 예 |
에이전트와 연결할 수 있는 최대 지식 기반 수입니다. |
| Amazon Nova 2 멀티모달 임베딩 V1의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Amazon Nova 2 멀티모달 임베딩 V1에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Amazon Nova Premier의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Amazon Nova Premier의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Claude 3 Haiku의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Claude 3 Haiku의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Claude 3 Opus의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Claude 3 Opus의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Claude 3 Sonnet의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Claude 3 Sonnet의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Claude 3.5 Haiku의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Claude 3.5 Haiku의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Claude 3.5 Sonnet의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Claude 3.5 Sonnet의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Claude 3.5 Sonnet v2의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Claude 3.5 Sonnet v2의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Claude 3.7 Sonnet의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Claude 3.7 Sonnet의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Claude Sonnet 4의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Claude Sonnet 4의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Llama 3.1 405B Instruct의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Llama 3.1 405B Instruct의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Llama 3.1 70B Instruct의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Llama 3.1 70B Instruct의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Llama 3.1 8B Instruct의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Llama 3.1 8B Instruct의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Llama 3.2 11B Instruct의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Llama 3.2 11B Instruct의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Llama 3.2 1B Instruct의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Llama 3.2 1B Instruct의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Llama 3.2 3B Instruct의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Llama 3.2 3B Instruct의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Llama 3.2 90B Instruct의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Llama 3.2 90B Instruct의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Llama 3.3 70B Instruct의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Llama 3.3 70B Instruct의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Llama 4 Maverick의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Llama 4 Maverick의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Llama 4 Scout의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Llama 4 Scout의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Mistral Large 2(24.07)의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Mistral Large 2(24.07)의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Mistral Small의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Mistral Small의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Nova 2 Lite의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Nova 2 Lite에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Nova Lite V1의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Nova Lite V1의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Nova Micro V1의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Nova Micro V1의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Nova Pro V1의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Nova Pro V1의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| OpenAI GPT OSS 120b의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | OpenAI GPT OSS 120b의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| OpenAI GPT OSS 20b의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | OpenAI GPT OSS 20b의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Titan Multimodal Embeddings G1의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Titan Multimodal Embeddings G1의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Claude Haiku 4.5의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Claude Haiku 4.5에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Claude Opus 4.5(GB)의 배치 추론 입력 파일 크기 | 지원되는 각 리전: 1 | 아니요 | Claude Opus 4.5에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| DeepSeek v3의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | DeepSeek v3의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Qwen3 235B의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Qwen3 235B의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Qwen3 32B의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Qwen3 32B의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Qwen3 Coder 30B의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Qwen3 Coder 30B의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Qwen3 Coder 480B의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Qwen3 Coder 480B의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Sonnet 4.5의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Sonnet 4.5에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Titan Text Embeddings V2의 배치 추론 입력 파일 크기(GB) | 지원되는 각 리전: 1 | 아니요 | Titan Text Embeddings V2의 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다. |
| Amazon Nova 2 멀티모달 임베딩 V1의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 100 | 아니요 | Amazon Nova 2 멀티모달 임베딩 V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Amazon Nova Premier의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Amazon Nova Premier의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Claude 3 Haiku의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Claude 3 Haiku의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Claude 3 Opus의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Claude 3 Opus의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Claude 3 Sonnet의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Claude 3 Sonnet의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Claude 3.5 Haiku의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Claude 3.5 Haiku의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Claude 3.5 Sonnet의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Claude 3.5 Sonnet의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Claude 3.5 Sonnet v2의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Claude 3.5 Sonnet v2의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Claude 3.7 Sonnet의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5개 | 예 |
Claude 3.7 Sonnet의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Claude Sonnet 4의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5개 | 예 |
Claude Sonnet 4의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Llama 3.1 405B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Llama 3.1 405B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Llama 3.1 70B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Llama 3.1 70B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Llama 3.1 8B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Llama 3.1 8B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Llama 3.2 11B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Llama 3.2 11B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Llama 3.2 1B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Llama 3.2 1B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Llama 3.2 3B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Llama 3.2 3B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Llama 3.2 90B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Llama 3.2 90B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Llama 3.3 70B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Llama 3.3 70B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Llama 4 Maverick의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Llama 4 Maverick의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Llama 4 Scout의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Llama 4 Scout의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Mistral Large 2(24.07)의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Mistral Large 2(24.07)의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Mistral Small의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Mistral Small의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Nova Lite V1의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Nova Lite V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Nova Micro V1의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Nova Micro V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Nova Pro V1의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 100 | 아니요 | Nova Pro V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| OpenAI GPT OSS 120b의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | OpenAI GPT OSS 120b의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| OpenAI GPT OSS 20b의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | OpenAI GPT OSS 20b의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Titan Multimodal Embeddings G1의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Titan Multimodal Embeddings G1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Claude Haiku 4.5의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Claude Haiku 4.5의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Claude Opus 4.5의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Claude Opus 4.5의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| DeepSeek v3의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | DeepSeek v3의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Qwen3 235B의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Qwen3 235B의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Qwen3 32B의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Qwen3 32B의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Qwen3 Coder 30B의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Qwen3 Coder 30B의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Qwen3 Coder 480B의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Qwen3 Coder 480B의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Sonnet 4.5의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Sonnet 4.5의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| Titan Text Embeddings V2의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 아니요 | Titan Text Embeddings V2의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
| 에이전트의 문자 지침 | 지원되는 각 리전: 20,000 | 아니요 | 에이전트에 대한 지침의 최대 문자 수입니다. |
| 동시 모델 가져오기 작업 | 지원되는 각 리전: 1 | 아니요 | 동시에 진행 중인 모델 가져오기 작업의 최대 수입니다. |
| 초당 CreateAgent 요청 | 지원되는 각 리전: 6개 | 아니요 | 초당 최대 CreateAgent API 요청 수입니다. |
| 초당 CreateAgentActionGroup 요청 | 지원되는 각 리전: 12 | 아니요 | 초당 최대 CreateAgentActionGroup API 요청 수입니다. |
| 초당 CreateAgentAlias 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 CreateAgentAlias API 요청 수입니다. |
| Anthropic Claude 3.5 Haiku의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 2,000 | 아니요 | 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude 3.5 Sonnet V2의 분당 교차 리전 모델 추론 요청 |
us-west-2: 500 각각의 지원되는 다른 리전: 100 |
아니요 | Anthropic Claude 3.5 Sonnet V2에서 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude 3.5 Haiku의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 4,000,000 | 예 |
1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Anthropic Claude 3.5 Haiku의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude 3.5 Sonnet V2의 분당 교차 리전 모델 추론 토큰 |
us-west-2: 4,000,000 지원되는 다른 각 리전: 800,000 |
예 |
Anthropic Claude 3.5 Sonnet V2에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Amazon Nova 2 Lite에 대한 분당 리전 간 모델 추론 요청 | 지원되는 각 리전: 2,000 | 아니요 | Amazon Nova 2 Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova 2 Omni에 대한 분당 리전 간 모델 추론 요청 | 지원되는 각 리전: 2,000 | 아니요 | Amazon Nova 2 Omni에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova 2 Pro 미리 보기에 대한 분당 리전 간 모델 추론 요청 | 지원되는 각 리전: 100 | 아니요 | Amazon Nova 2 Pro 미리 보기에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova Lite의 분당 교차 리전 모델 추론 요청 |
us-east-1: 4,000 us-east-2: 4,000 us-west-1: 4,000 us-west-2: 4,000 지원되는 다른 각 리전: 400 |
아니요 | Amazon Nova Lite에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova Micro의 분당 교차 리전 모델 추론 요청 |
us-east-1: 4,000 us-east-2: 4,000 us-west-2: 4,000 지원되는 다른 각 리전: 400 |
아니요 | Amazon Nova Micro에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova Premier V1의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 500개 | 아니요 | Amazon Nova Premier V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova Pro의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 500개 | 아니요 | Amazon Nova Pro에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude 3 Haiku의 분당 교차 리전 모델 추론 요청 |
us-east-1: 2,000 us-west-2: 2,000 ap-northeast-1: 400 ap-southeast-1: 400 각각의 지원되는 다른 리전: 800 |
아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Haiku에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude 3 Opus의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 100 | 아니요 | Anthropic Claude 3 Opus에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude 3 Sonnet의 분당 교차 리전 모델 추론 요청 |
us-east-1: 1,000 us-west-2: 1,000 각각의 지원되는 다른 리전: 200 |
아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Sonnet에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude 3.5 Sonnet의 분당 교차 리전 모델 추론 요청 |
us-west-2: 500 ap-northeast-1: 40 ap-southeast-1: 40 eu-central-1: 40 eu-west-1: 40 eu-west-3: 40 각각의 지원되는 다른 리전: 100 |
아니요 | Anthropic Claude 3.5 Sonnet에서 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude 3.7 Sonnet V1의 분당 교차 리전 모델 추론 요청 |
us-east-1: 250 us-east-2: 250 us-west-2: 250 eu-central-1: 100 eu-north-1: 100 eu-west-1: 100 eu-west-3: 100 각각의 지원되는 다른 리전: 50회 |
아니요 | Anthropic Claude 3.7 Sonnet V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Haiku 4.5의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 125 | 예 |
Anthropic Claude Haiku 4.5에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Opus 4 V1의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 200 | 아니요 | Anthropic Claude Opus 4 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Opus 4.1의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 50 | 아니요 | Anthropic Claude Opus 4.1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Opus 4.5에 대한 분당 리전 간 모델 추론 요청 | 지원되는 각 리전: 125 | 예 |
Anthropic Claude Opus 4.5에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Sonnet 4 V1의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 200 | 예 |
Anthropic Claude Sonnet 4 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Sonnet 4 V1 1M Context Length의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 5개 | 예 |
Anthropic Claude Sonnet 4 V1 1M Context Length에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Sonnet 4.5 V1의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 200 | 예 |
Anthropic Claude Sonnet 4.5 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Sonnet 4.5 V1 1M Context Length의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 5개 | 예 |
Anthropic Claude Sonnet 4.5 V1 1M Context Length에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Cohere Embed V4의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 2,000 | 아니요 | Cohere Embed V4에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| DeepSeek R1 V1의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 200 | 아니요 | DeepSeek R1 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 3.1 405B Instruct의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | Meta Llama 3.1 405B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 3.1 70B Instruct의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | Meta Llama 3.1 70B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 3.1 8B Instruct의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 1,600 | 아니요 | Meta Llama 3.1 8B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 3.2 1B Instruct의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 1,600 | 아니요 | Meta Llama 3.2 1B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 3.2 3B Instruct의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 1,600 | 아니요 | Meta Llama 3.2 3B Instruct에서 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합산 합계를 고려합니다. |
| Meta Llama 3.3 70B Instruct의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | Meta Llama 3.3 70B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 4 Maverick V1의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | Meta Llama 4 Maverick V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 4 Scout V1의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | Meta Llama 4 Scout V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Mistral Pixtral Large 25.02 V1의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Mistral Pixtral Large 25.02 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Conservative Upscale의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 4 | 아니요 | Stable Image Conservative Upscale에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Control Sketch의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 20 | 아니요 | Stable Image Control Sketch에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Control Structure의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 20 | 아니요 | Stable Image Control Structure에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Creative Upscale의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 4 | 아니요 | Stable Image Creative Upscale에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Erase Object의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 20 | 아니요 | Stable Image Erase Object에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Fast Upscale의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 20 | 아니요 | Stable Image Fast Upscale에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Inpaint의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 20 | 아니요 | Stable Image Inpaint에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Outpaint의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 4 | 아니요 | Stable Image Outpaint에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Remove Background의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 20 | 아니요 | Stable Image Remove Background에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Search and Recolor의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 20 | 아니요 | Stable Image Search and Recolor에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Search and Replace의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 20 | 아니요 | Stable Image Search and Replace에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Style Guide의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 20 | 아니요 | Stable Image Style Guide에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Style Transfer의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 20 | 아니요 | Stable Image Style Transfer에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Twelve Labs Marengo의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 200 | 아니요 | Twelve Labs Marengo에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Twelve Labs Pegasus의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 120 | 예 |
Twelve Labs Pegasus에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| TwelveLabs Marengo Embed 3.0에 대한 분당 리전 간 모델 추론 요청 | 지원되는 각 리전: 1,000 | 예 |
TwelveLabs Marengo Embed 3.0에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Writer AI Palmyra X4 V1의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Writer AI Palmyra X4 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Writer AI Palmyra X5 V1의 분당 교차 리전 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Writer AI Palmyra X5 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova 2 Lite에 대한 분당 리전 간 모델 추론 토큰 | 지원되는 각 리전: 8,000,000 | 예 |
Amazon Nova 2 Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova 2 Omni에 대한 분당 리전 간 모델 추론 토큰 | 지원되는 각 리전: 8,000,000 | 예 |
Amazon Nova 2 Omni에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova 2 Pro 미리 보기에 대한 분당 리전 간 모델 추론 토큰 | 지원되는 각 리전: 1,000,000 | 예 |
Amazon Nova 2 Pro 미리 보기에서 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova Lite의 분당 교차 리전 모델 추론 토큰 |
us-east-1: 8,000,000 us-east-2: 8,000,000 us-west-1: 8,000,000 us-west-2: 8,000,000 지원되는 다른 각 리전: 400,000 |
예 |
Amazon Nova Lite에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova Micro의 분당 교차 리전 모델 추론 토큰 |
us-east-1: 8,000,000 us-east-2: 8,000,000 us-west-2: 8,000,000 지원되는 다른 각 리전: 400,000 |
예 |
Amazon Nova Micro에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova Premier V1의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 2,000,000 | 예 |
Amazon Nova Premier V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova Pro의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 2,000,000 | 예 |
Amazon Nova Pro에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude 3 Haiku의 분당 교차 리전 모델 추론 토큰 |
us-east-1: 4,000,000 us-west-2: 4,000,000 ap-northeast-1: 400,000 ap-southeast-1: 400,000 지원되는 다른 각 리전: 600,000 |
예 |
1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Anthropic Claude 3 Haiku의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude 3 Opus의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 800,000 | 예 |
Anthropic Claude 3 Opus에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude 3 Sonnet의 분당 교차 리전 모델 추론 토큰 |
us-east-1: 2,000,000 us-west-2: 2,000,000 지원되는 다른 각 리전: 400,000 |
예 |
1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Anthropic Claude 3 Sonnet의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude 3.5 Sonnet의 분당 교차 리전 모델 추론 토큰 |
us-west-2: 4,000,000 ap-northeast-1: 400,000 ap-southeast-1: 400,000 eu-central-1: 400,000 eu-west-1: 400,000 eu-west-3: 400,000 지원되는 다른 각 리전: 800,000 |
예 |
Anthropic Claude 3.5 Sonnet에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude 3.7 Sonnet V1의 분당 교차 리전 모델 추론 토큰 |
us-east-1: 1,000,000 us-east-2: 1,000,000 us-west-2: 1,000,000 eu-central-1: 100,000 eu-north-1: 100,000 eu-west-1: 100,000 eu-west-3: 100,000 지원되는 다른 각 리전: 50,000 |
예 |
Anthropic Claude 3.7 Sonnet V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Haiku 4.5의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 500,000개 | 예 |
Anthropic Claude Haiku 4.5에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Opus 4 V1의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 200,000개 | 예 |
Anthropic Claude Opus 4 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Opus 4.1의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 500,000개 | 예 |
Anthropic Claude Opus 4.1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Opus 4.5에 대한 분당 리전 간 모델 추론 토큰 | 지원되는 각 리전: 250,000개 | 예 |
Anthropic Claude Opus 4.5에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Sonnet 4 V1의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 200,000개 | 예 |
Anthropic Claude Sonnet 4 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Sonnet 4 V1 1M Context Length의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 1,000,000 | 예 |
Anthropic Claude Sonnet 4 V1 1M Context Length에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Sonnet 4.5 V1의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 200,000개 | 예 |
Anthropic Claude Sonnet 4.5 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Sonnet 4.5 V1 1M Context Length의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 1,000,000 | 예 |
Anthropic Claude Sonnet 4.5 V1 1M Context Length에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Cohere Embed V4의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 예 |
Cohere Embed V4에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| DeepSeek R1 V1의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 200,000개 | 예 |
DeepSeek R1 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.1 405B Instruct의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 800,000 | 예 |
Meta Llama 3.1 405B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.1 70B Instruct의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 600,000 | 예 |
Meta Llama 3.1 70B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.1 8B Instruct의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 600,000 | 예 |
Meta Llama 3.1 8B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.2 1B Instruct의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 600,000 | 예 |
Meta Llama 3.2 1B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.2 3B Instruct의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 600,000 | 예 |
Meta Llama 3.2 3B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.3 70B Instruct의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 600,000 | 예 |
Meta Llama 3.3 70B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 4 Maverick V1의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 600,000 | 예 |
Meta Llama 4 Maverick V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 4 Scout V1의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 600,000 | 예 |
Meta Llama 4 Scout V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Mistral Pixtral Large 25.02 V1의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 80,000 | 예 |
Mistral Pixtral Large 25.02 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Writer AI Palmyra X4 V1의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 150,000 | 예 |
Writer AI Palmyra X4 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Writer AI Palmyra X5 V1의 분당 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 150,000 | 예 |
Writer AI Palmyra X5 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| 계정당 생성 중 상태인 사용자 지정 모델 | 지원되는 각 지역: 2 | 예 |
생성 중 상태인 사용자 지정 모델의 최대 수입니다. |
| 초당 DeleteAgent 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 DeleteAgent API 요청 수입니다. |
| 초당 DeleteAgentActionGroup 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 DeleteAgentActionGroup API 요청 수입니다. |
| 초당 DeleteAgentAlias 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 DeleteAgentAlias API 요청 수입니다. |
| 초당 DeleteAgentVersion 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 DeleteAgentVersion API 요청 수입니다. |
| 초당 DisassociateAgentKnowledgeBase 요청 | 지원되는 각 리전: 4 | 아니요 | 초당 최대 DisassociateAgentKnowledgeBase API 요청 수입니다. |
| 에이전트당 활성화된 작업 그룹 | 지원되는 각 리전: 15 | 예 |
에이전트에 활성화할 수 있는 최대 작업 그룹 수입니다. |
| 추론 프로파일당 엔드포인트 | 지원되는 각 리전: 5 | 아니요 | 추론 프로파일의 최대 엔드포인트 수입니다. 엔드포인트는 모델과 모델에 대한 간접 호출 요청이 전송되는 리전에 의해 정의됩니다. |
| 초당 GetAgent 요청 | 지원되는 각 리전: 15 | 아니요 | 초당 최대 GetAgent API 요청 수입니다. |
| 초당 GetAgentActionGroup 요청 | 지원되는 각 리전: 20 | 아니요 | 초당 최대 GetAgentActionGroup API 요청 수입니다. |
| 초당 GetAgentAlias 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 GetAgentAlias API 요청 수입니다. |
| 초당 GetAgentKnowledgeBase 요청 | 지원되는 각 리전: 15 | 아니요 | 초당 최대 GetAgentKnowledgeBase API 요청 수입니다. |
| 초당 GetAgentVersion 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 GetAgentVersion API 요청 수입니다. |
| Amazon Nova 2 Lite에 대한 분당 글로벌 리전 간 모델 추론 요청 | 지원되는 각 리전: 2,000 | 예 |
Amazon Nova 2 Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 글로벌 리전 간 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova 2 Omni에 대한 분당 글로벌 리전 간 모델 추론 요청 | 지원되는 각 리전: 2,000 | 예 |
Amazon Nova 2 Omni에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 글로벌 리전 간 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova 2 Pro 미리 보기에 대한 분당 글로벌 리전 간 모델 추론 요청 | 지원되는 각 리전: 100 | 예 |
Amazon Nova 2 Pro 미리 보기에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 글로벌 리전 간 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Haiku 4.5의 분당 글로벌 교차 리전 모델 추론 요청 | 지원되는 각 리전: 250개 | 예 |
Anthropic Claude Haiku 4.5에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Opus 4.5에 대한 분당 글로벌 리전 간 모델 추론 요청 | 지원되는 각 리전: 250개 | 예 |
Anthropic Claude Opus 4.5에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 글로벌 리전 간 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Sonnet 4 V1의 분당 글로벌 교차 리전 모델 추론 요청 | 지원되는 각 리전: 200 | 예 |
Anthropic Claude Sonnet 4 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Sonnet 4.5 V1의 분당 글로벌 교차 리전 모델 추론 요청 | 지원되는 각 리전: 200 | 예 |
Anthropic Claude Sonnet 4.5 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Sonnet 4.5 V1 1M Context Length의 분당 글로벌 교차 리전 모델 추론 요청 | 지원되는 각 리전: 5개 | 예 |
Anthropic Claude Sonnet 4.5 V1 1M Context Length에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Cohere Embed V4의 분당 글로벌 교차 리전 모델 추론 요청 | 지원되는 각 리전: 2,000 | 예 |
Cohere Embed V4에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova 2 Lite에 대한 일일 글로벌 리전 간 모델 추론 토큰 | 지원되는 각 리전: 11,520,000,000 | 아니요 | Amazon Nova 2 Lite에 대해 하루에 모델 추론을 위해 제출할 수 있는 글로벌 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova 2 Omni에 대한 일일 글로벌 리전 간 모델 추론 토큰 | 지원되는 각 리전: 11,520,000,000 | 아니요 | Amazon Nova 2 Omni에 대해 하루에 모델 추론을 위해 제출할 수 있는 글로벌 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova 2 Pro 미리 보기에 대한 일일 글로벌 리전 간 모델 추론 토큰 | 지원되는 각 리전: 1,440,000,000 | 아니요 | Amazon Nova 2 Pro 미리 보기에서 하루에 모델 추론을 위해 제출할 수 있는 글로벌 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Haiku 4.5의 일일 글로벌 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 1,440,000,000 | 아니요 | Anthropic Claude Haiku 4.5에서 하루 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Opus 4.5에 대한 일일 글로벌 리전 간 모델 추론 토큰 | 지원되는 각 리전: 720,000,000 | 아니요 | Anthropic Claude Opus 4.5에 대해 하루에 모델 추론을 위해 제출할 수 있는 글로벌 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Sonnet 4 V1의 일일 글로벌 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 288,000,000 | 아니요 | Anthropic Claude Sonnet 4 V1에서 하루 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Sonnet 4.5 V1의 일일 글로벌 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 720,000,000 | 아니요 | Anthropic Claude Sonnet 4.5 V1에서 하루 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Sonnet 4.5 V1 1M Context Length의 일일 글로벌 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 1,440,000,000 | 아니요 | Anthropic Claude Sonnet 4.5 V1 1M Context Length에서 하루 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Cohere Embed V4의 일일 글로벌 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 432,000,000 | 아니요 | Cohere Embed V4에서 하루 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova 2 Lite에 대한 분당 글로벌 리전 간 모델 추론 토큰 | 지원되는 각 리전: 8,000,000 | 예 |
Amazon Nova 2 Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 글로벌 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova 2 Omni에 대한 분당 글로벌 리전 간 모델 추론 토큰 | 지원되는 각 리전: 8,000,000 | 예 |
Amazon Nova 2 Omni에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 글로벌 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova 2 Pro 미리 보기에 대한 분당 글로벌 리전 간 모델 추론 토큰 | 지원되는 각 리전: 1,000,000 | 예 |
Amazon Nova 2 Pro 미리 보기에서 1분 동안 모델 추론을 위해 제출할 수 있는 글로벌 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Haiku 4.5의 분당 글로벌 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 1,000,000 | 예 |
Anthropic Claude Haiku 4.5에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Opus 4.5에 대한 분당 글로벌 리전 간 모델 추론 토큰 | 지원되는 각 리전: 500,000개 | 예 |
Anthropic Claude Opus 4.5에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 글로벌 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Sonnet 4 V1의 분당 글로벌 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 200,000개 | 예 |
Anthropic Claude Sonnet 4 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Sonnet 4.5 V1의 분당 글로벌 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 500,000개 | 예 |
Anthropic Claude Sonnet 4.5 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Sonnet 4.5 V1 1M Context Length의 분당 글로벌 교차 리전 모델 추론 토큰 | 지원되는 각 리전: 1,000,000 | 예 |
Anthropic Claude Sonnet 4.5 V1 1M Context Length에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Cohere Embed V4의 분당 글로벌 교차 리전 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 예 |
Cohere Embed V4에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 글로벌 교차 리전 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| 계정당 가져온 모델 | 지원되는 각 리전: 3 | 예 |
한 계정의 최대 가져온 모델 수입니다. |
| 계정당 추론 프로파일 | 지원되는 각 리전: 1,000 | 예 |
한 계정의 최대 추론 프로파일 수입니다. |
| 초당 ListAgentActionGroups 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 ListAgentActionGroups API 요청 수입니다. |
| 초당 ListAgentAliases 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 ListAgentAliases API 요청 수입니다. |
| 초당 ListAgentKnowledgeBases 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 ListAgentKnowledgeBases API 요청 수입니다. |
| 초당 ListAgentVersions 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 ListAgentVersions API 요청 수입니다. |
| 초당 ListAgents 요청 | 지원되는 각 리전: 10 | 아니요 | 초당 최대 ListAgents API 요청 수입니다. |
| Amazon Nova 2 멀티모달 임베딩 V1에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Amazon Nova 2 멀티모달 임베딩 V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Amazon Nova Premier의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Amazon Nova Premier에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Claude 3 Haiku의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Claude 3 Haiku에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Claude 3 Opus의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Claude 3 Opus에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Claude 3 Sonnet의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Claude 3 Sonnet에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Claude 3.5 Haiku의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Claude 3.5 Haiku에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Claude 3.5 Sonnet의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Claude 3.5 Sonnet에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Claude 3.5 Sonnet v2의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Claude 3.5 Sonnet v2에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Claude 3.7 Sonnet의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Claude 3.7 Sonnet에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Claude Haiku 4.5에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Claude Haiku 4.5에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Claude Opus 4.5에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Claude Opus 4.5에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Claude Sonnet 4의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Claude Sonnet 4에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| DeepSeek v3의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | DeepSeek v3에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Llama 3.1 405B Instruct의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Llama 3.1 405B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Llama 3.1 70B Instruct의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Llama 3.1 70B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Llama 3.1 8B Instruct의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Llama 3.1 8B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Llama 3.2 11B Instruct의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Llama 3.2 11B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Llama 3.2 1B Instruct의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Llama 3.2 1B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Llama 3.2 3B Instruct의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Llama 3.2 3B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Llama 3.2 90B Instruct의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Llama 3.2 90B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Llama 3.3 70B Instruct의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Llama 3.3 70B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Llama 4 Maverick의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Llama 4 Maverick에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Llama 4 Scout의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Llama 4 Scout에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Mistral Large 2(24.07)의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Mistral Large 2(24.07)에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Mistral Small의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Mistral Small에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Nova 2 Lite에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Nova 2 Lite에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Nova Lite V1의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Nova Lite V1에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Nova Micro V1의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Nova Micro V1에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Nova Pro V1의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Nova Pro V1에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| OpenAI GPT OSS 120b의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | OpenAI GPT OSS 120b에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| OpenAI GPT OSS 20b의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | OpenAI GPT OSS 20b에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Qwen3 235B의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Qwen3 235B에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Qwen3 32B의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Qwen3 32B에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Qwen3 Coder 30B의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Qwen3 Coder 30B에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Qwen3 Coder 480B의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Qwen3 Coder 480B에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Sonnet 4.5에 대한 배치 추론 작업당 최소 레코드 수입니다. | 지원되는 각 리전: 100 | 아니요 | Sonnet 4.5에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Titan Multimodal Embeddings G1의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Titan Multimodal Embeddings G1에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Titan Text Embeddings V2의 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 아니요 | Titan Text Embeddings V2에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최소 레코드 수입니다. |
| Amazon Nova 2 Lite의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 5,760,000,000 | 아니요 | Amazon Nova 2 Lite의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Amazon Nova 2 Omni의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 5,760,000,000 | 아니요 | Amazon Nova 2 Omni의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Amazon Nova 2 Pro 미리 보기의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 720,000,000 | 아니요 | Amazon Nova 2 Pro 미리 보기의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Amazon Nova Premier V1에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 1,440,000,000 | 아니요 | Amazon Nova Premier V1의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Anthropic Claude 3.7 Sonnet V1에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 720,000,000 | 아니요 | Anthropic Claude 3.7 Sonnet V1의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Anthropic Claude Haiku 4.5에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 360,000,000 | 아니요 | Anthropic Claude Haiku 4.5의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Anthropic Claude Opus 4 V1에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000 | 아니요 | Anthropic Claude Opus 4 V1의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Anthropic Claude Opus 4.1에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 360,000,000 | 아니요 | Anthropic Claude Opus 4.1의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Anthropic Claude Opus 4.5의 일일 모델 호출 최대 토큰 수(교차 리전 호출의 경우 두 배) | 지원되는 각 리전: 180,000,000 | 아니요 | Anthropic Claude Opus 4.5의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Anthropic Claude Sonnet 4 V1에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000 | 아니요 | Anthropic Claude Sonnet 4 V1의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Anthropic Claude Sonnet 4 V1 1M Context Length에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 720,000,000 | 아니요 | Anthropic Claude Sonnet 4 V1 1M Context Length의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Anthropic Claude Sonnet 4.5 V1에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000 | 아니요 | Anthropic Claude Sonnet 4.5 V1의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Anthropic Claude Sonnet 4.5 V1 1M Context Length에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 720,000,000 | 아니요 | Anthropic Claude Sonnet 4.5 V1 1M Context Length의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Cohere Embed V4에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 216,000,000 | 아니요 | Cohere Embed V4의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| DeepSeek R1 V1에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000 | 아니요 | DeepSeek R1 V1의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| DeepSeek V3 V1에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | DeepSeek V3 V1의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| GPT OSS Safeguard 120B의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | GPT OSS Safeguard 120B의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| GPT OSS Safeguard 20B의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | GPT OSS Safeguard 20B에 대한 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Gemma 3 12B의 일일 모델 호출 최대 토큰 수(교차 리전 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Gemma 3 12B에 대한 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Gemma 3 27B의 일일 모델 호출 최대 토큰 수(교차 리전 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Gemma 3 27B에 대한 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Gemma 3 4B의 일일 모델 호출 최대 토큰 수(교차 리전 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Gemma 3 4B에 대한 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Kimi K2 Thinking의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Kimi K2 Thinking의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Magistral Small 1.2의 일일 모델 호출 최대 토큰 수(교차 리전 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Magistral Small 1.2의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| 미니맥스 M2의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | 미니맥스 M2의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| 미니스트럴 14B 3.0의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | 미니스트럴 14B 3.0의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| 미니스트럴 3B 3.0의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | 미니스트럴 3B 3.0의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| 미니스트럴 8B 3.0의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | 미니스트럴 8B 3.0의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Mistral Large 3의 일일 모델 호출 최대 토큰 수(교차 리전 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Mistral Large 3의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| NVIDIA Nemotron Nano 2의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | NVIDIA Nemotron Nano 2의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| NVIDIA Nemotron Nano 2 VL의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | NVIDIA Nemotron Nano 2 VL의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| OpenAI GPT OSS 120B에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | OpenAI GPT OSS 120B의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| OpenAI GPT OSS 20B에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | OpenAI GPT OSS 20B의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Qwen3 235B a22b 2507 V1에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Qwen3 235B a22b 2507 V1의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Qwen3 32B V1에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Qwen3 32B V1의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Qwen3 Coder 30B a3b V1에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Qwen3 Coder 30B a3b V1의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Qwen3 Coder 480B a35b V1에 대한 일일 모델 간접 호출 최대 토큰(교차 리전 직접 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Qwen3 Coder 480B a35b V1의 모델 추론을 위한 일일 최대 토큰 수입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Qwen3 Next 80B A3B의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Qwen3 Next 80B A3B의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Qwen3 VL 235B A22B의 일일 모델 호출 최대 토큰 수(리전 간 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Qwen3 VL 235B A22B의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Voxtral Mini 1.0의 일일 모델 호출 최대 토큰 수(교차 리전 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Voxtral Mini 1.0의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| Voxtral Small 1.0의 일일 모델 호출 최대 토큰 수(교차 리전 호출의 경우 두 배) | 지원되는 각 리전: 144,000,000,000 | 아니요 | Voxtral Small 1.0의 모델 추론을 위한 일일 최대 토큰입니다. Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합계를 합산합니다. 교차 리전 직접 호출의 경우 두 배가 되며, 승인된 TPM 증가의 경우에는 적용되지 않습니다. |
| 기본 모델의 약정 없는 프로비저닝된 처리량 모델 단위 | 지원되는 각 리전: 0 | 예 |
기본 모델의 약정 없는 프로비저닝된 처리량으로 배포할 수 있는 최대 모델 단위 수 |
| 사용자 지정 모델의 약정 없는 프로비저닝된 처리량 모델 단위 | 지원되는 각 리전: 0 | 예 |
사용자 지정 모델의 약정 없는 프로비저닝된 처리량으로 배포할 수 있는 최대 모델 단위 수 |
| AI21 Labs Jurassic-2 Mid의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
AI21 Labs Jurassic-2 Mid의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| AI21 Labs Jurassic-2 Ultra의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
AI21 Labs Jurassic-2 Ultra의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Nova 2 Lite V1.0 256K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Nova 2 Lite V1.0 256K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
| Amazon Nova Canvas의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Nova Canvas의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Titan Embeddings G1 - Text의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Embeddings G1 - Text의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Titan Image Generator G1의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Image Generator G1의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Titan Image Generator G2의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Image Generator G2의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Titan Lite V1 4K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Text Lite V1 4K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Titan Multimodal Embeddings G1의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Multimodal Embeddings G1의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Titan Text Embeddings V2의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Text Embeddings V2의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Titan Text G1 - Express 8K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Text G1 - Express 8K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Titan Text Premier V1 32K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Text Premier V1 32K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3 Haiku 200K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3 Haiku 200K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3 Haiku 48K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3 Haiku 48K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3 Sonnet 200K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3 Sonnet 200K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3 Sonnet 28K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3 Sonnet 28K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3.5 Haiku 16K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Haiku 16K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3.5 Haiku 200K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Haiku 200K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3.5 Haiku 64K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Haiku 64K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3.5 Sonnet 18K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Sonnet 18K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3.5 Sonnet 200K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Sonnet 200K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3.5 Sonnet 51K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Sonnet 51K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3.5 Sonnet V2 18K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Sonnet V2 18K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3.5 Sonnet V2 200K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Sonnet V2 200K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3.5 Sonnet V2 51K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Sonnet V2 51K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3.7 V1.0 Sonnet 18K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.7 V1.0 Sonnet 18K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3.7 V1.0 Sonnet 200K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.7 V1.0 Sonnet 200K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude 3.7 V1.0 Sonnet 51K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.7 V1.0 Sonnet 51K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude Instant V1 100K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude Instant V1 100K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude V2 100K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude V2 100K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude V2 18K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude V2 18K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude V2.1 18K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude V2.1 18K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Anthropic Claude V2.1 200K의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude V2.1 200K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Cohere Command의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Cohere Command의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Cohere Command Light의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Cohere Command Light의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Cohere Command R의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Cohere Command R 128k의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Cohere Command R Plus의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Cohere Command R Plus 128k의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Cohere Embed English의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Cohere Embed English의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Cohere Embed Multilingual의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Cohere Embed Multilingual의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 2 13B의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 2 13B의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 2 70B의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 2 70B의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 2 Chat 13B의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 2 Chat 13B의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 2 Chat 70B의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 2 Chat 70B의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 3 70B Instruct의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 3 70B Instruct의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 3 8B Instruct의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 3 8B Instruct의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 3.1 70B Instruct의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 3.1 70B Instruct의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 3.1 8B Instruct의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 3.1 8B Instruct의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 3.2 11B Instruct의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 3.2 11B Instruct의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 3.2 1B Instruct의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 3.2 1B Instruct의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 3.2 3B Instruct의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 3.2 3B Instruct의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 3.2 90B Instruct의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 3.2 90B Instruct의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Mistral Large 2407의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Mistral Large 2407의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Mistral Small의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Mistral Small의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Stability.ai Stable Diffusion XL 0.8의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Stability.ai Stable Diffusion XL 0.8의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Stability.ai Stable Diffusion XL 1.0의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Stability.ai Stable Diffusion XL 1.0의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Nova Micro에 대한 128k 컨텍스트 길이 변형의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Nova Micro에 대한 128k 컨텍스트 길이 변형의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Nova Lite에 대한 24k 컨텍스트 길이 변형의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Nova Lite에 대한 24k 컨텍스트 길이 변형의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Nova Micro에 대한 24k 컨텍스트 길이 변형의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Nova Micro에 대한 24k 컨텍스트 길이 변형의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Nova Pro에 대한 24k 컨텍스트 길이 변형의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Nova Pro에 대한 24k 컨텍스트 길이 변형의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Nova Lite에 대한 300k 컨텍스트 길이 변형의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Nova Lite에 대한 300k 컨텍스트 길이 변형의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Amazon Nova Pro에 대한 300k 컨텍스트 길이 변형의 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Nova Pro에 대한 300k 컨텍스트 길이 변형의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 4 Scout 17B Instruct 10M에 대해 생성된 약정 있는 프로비저닝된 처리량 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 4 Scout 17B Instruct 10M에 대해 생성된 약정 있는 프로비저닝된 처리량에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Llama 4 Scout 17B Instruct 128K에 대해 생성된 약정 있는 프로비저닝된 처리량 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 4 Scout 17B Instruct 128K에 대해 생성된 약정 있는 프로비저닝된 처리량에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Maverick 4 Scout 17B Instruct 128K에 대해 생성된 약정 있는 프로비저닝된 처리량 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 4 Maverick 17B Instruct 128K에 대해 생성된 약정 있는 프로비저닝된 처리량에 할당할 수 있는 최대 모델 단위 수입니다. |
| Meta Maverick 4 Scout 17B Instruct 1M에 대해 생성된 약정 있는 프로비저닝된 처리량 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 4 Maverick 17B Instruct 1M에 대해 생성된 약정 있는 프로비저닝된 처리량에 할당할 수 있는 최대 모델 단위 수입니다. |
| 기본 모델 Amazon Nova 2 Lite V1.0 256K용으로 생성된 프로비저닝된 처리량에 대한 커밋 없음 모델 단위 | 지원되는 각 리전: 0 | 아니요 | 약정 없이 기본 모델 Amazon Nova 2 Lite V1.0 256K에 대해 생성된 프로비저닝된 처리량에 할당할 수 있는 최대 모델 유닛 수 |
| 사용자 지정 모델 Amazon Nova 2 Lite V1.0 256K용으로 생성된 프로비저닝된 처리량에 대한 커밋 없음 모델 단위 | 지원되는 각 리전: 0 | 아니요 | 약정 없이 사용자 지정 모델 Amazon Nova 2 Lite V1.0 256K에 대해 생성된 프로비저닝된 처리량에 할당할 수 있는 최대 모델 단위 수입니다. |
| 계정당 사용자 지정 프롬프트 라우터 수 | 지원되는 각 리전: 500개 | 아니요 | 리전별 계정당 생성할 수 있는 사용자 지정 프롬프트 라우터의 최대 수입니다. |
| Meta Llama 3.1 405B Instruct의 분당 온디맨드 지연 시간 최적화 모델 추론 요청 | 지원되는 각 리전: 100 | 아니요 | Meta Llama 3.1 405B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 지연 시간 최적화 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Meta Llama 3.1 70B Instruct의 분당 온디맨드 지연 시간 최적화 모델 추론 요청 | 지원되는 각 리전: 100 | 아니요 | Meta Llama 3.1 70B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 지연 시간 최적화 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Meta Llama 3.1 405B Instruct의 분당 온디맨드 지연 시간 최적화 모델 추론 토큰 | 지원되는 각 리전: 40,000 | 아니요 | Meta Llama 3.1 405B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 지연 시간 최적화 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.1 70B Instruct의 분당 온디맨드 지연 시간 최적화 모델 추론 토큰 | 지원되는 각 리전: 40,000 | 아니요 | Meta Llama 3.1 70B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 지연 시간 최적화 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova 2 Multimodal Embeddings V1의 온디맨드 InvokeModel 비동기 동시 요청 | 지원되는 각 리전: 30개 | 아니요 | Amazon Nova 2 Multimodal Embeddings V1에 대해 제출할 수 있는 비동기 동시 모델 추론 요청의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| TwelveLabs Marengo Embed 3.0에 대한 온디맨드 InvokeModel 비동기 동시 요청 | 지원되는 각 리전: 10개 | 예 |
TwelveLabs Marengo Embed 3.0에 대해 제출할 수 있는 최대 비동기 동시 모델 추론 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Amazon Nova 2 Sonic에 대한 온디맨드 InvokeModel 동시 요청 | 지원되는 각 리전: 20 | 아니요 | Amazon Nova 2 Sonic에 대해 제출할 수 있는 동시 모델 추론 요청의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Amazon Nova Reel1.0의 온디맨드 InvokeModel 동시 요청 | 지원되는 각 리전: 10 | 아니요 | Amazon Nova Reel 1.0에 대해 제출할 수 있는 동시 모델 추론 요청의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Amazon Nova Reel1.1의 온디맨드 InvokeModel 동시 요청 | 지원되는 각 리전: 3 | 아니요 | Amazon Nova Reel 1.1에 대해 제출할 수 있는 동시 모델 추론 요청의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Amazon Nova Sonic의 온디맨드 InvokeModel 동시 요청 | 지원되는 각 리전: 20 | 아니요 | Amazon Nova Sonic의 모델 추론을 위해 제출할 수 있는 최대 동시 요청 수입니다. |
| Twelve Labs Marengo의 온디맨드 InvokeModel 동시 요청 | 지원되는 각 리전: 30개 | 아니요 | Twelve Labs Marengo의 모델 추론을 위해 제출할 수 있는 최대 동시 InvokeModel 요청 수입니다. |
| Twelve Labs Pegasus의 온디맨드 InvokeModel 동시 요청 | 지원되는 각 지역: 30개 | 예 |
Twelve Labs Pegasus의 모델 추론을 위해 제출할 수 있는 최대 동시 InvokeModel 요청 수입니다. |
| Anthropic Claude 3.5 Haiku의 분당 온디맨드 지연 시간 최적화 모델 추론 요청 | 지원되는 각 리전: 100 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다(지연 시간 최적화가 구성된 경우). |
| Anthropic Claude 3.5 Haiku의 분당 온디맨드 지연 시간 최적화 모델 추론 토큰 | 각각 지원되는 리전: 500,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Anthropic Claude 3.5 Haiku의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다(지연 시간 최적화가 구성된 경우). |
| Luma Ray V2의 온디맨드 모델 추론 동시 요청 | 지원되는 각 리전: 1 | 아니요 | Luma Ray V2의 모델 추론을 위해 제출할 수 있는 최대 동시 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| AI21 Labs Jamba 1.5 Large의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 100 | 아니요 | AI21 Labs Jamba 1.5 Large에서 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및 InvokeModel에 대한 요청의 합산 합계를 고려합니다. |
| AI21 Labs Jamba 1.5 Mini의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 100 | 아니요 | AI21 Labs Jamba 1.5 Mini에서 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및 InvokeModel에 대한 요청의 합산 합계를 고려합니다. |
| AI21 Labs Jamba Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 100 | 아니요 | AI21 Labs Jamba Instruct에서 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및 InvokeModel에 대한 요청의 합산 합계를 고려합니다. |
| AI21 Labs Jurassic-2 Mid의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | AI21 Labs Jurassic-2 Mid에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| AI21 Labs Jurassic-2 Ultra의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 100 | 아니요 | AI21 Labs Jurassic-2 Ultra에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Amazon Nova 2 Multimodal Embeddings V1의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 2,000 | 아니요 | Amazon Nova 2 Multimodal Embeddings V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova Canvas의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 100 | 아니요 | Amazon Nova Canvas에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Amazon Nova Lite의 분당 온디맨드 모델 추론 요청 |
us-east-1: 2,000 eu-west-2: 2,000 각각의 지원되는 다른 리전: 200 |
아니요 | Amazon Nova Lite에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova Micro의 분당 온디맨드 모델 추론 요청 |
us-east-1: 2,000 eu-west-2: 2,000 각각의 지원되는 다른 리전: 200 |
아니요 | Amazon Nova Micro에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Nova Pro의 분당 온디맨드 모델 추론 요청 | 각 지원되는 리전: 250명 | 아니요 | Amazon Nova Pro에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Rerank 1.0의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 200 | 아니요 | Amazon Rerank 1.0에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Amazon Titan Image Generator G1의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 60개 | 아니요 | Amazon Titan Image Generator G1에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Amazon Titan Image Generator G1 V2의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 60개 | 아니요 | Amazon Titan Image Generator G1 V2에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Amazon Titan Multimodal Embeddings G1의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 2,000 | 아니요 | Amazon Titan Multimodal Embeddings G1에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Amazon Titan Text Embeddings의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 2,000 | 아니요 | Amazon Titan Text Embeddings에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Amazon Titan Text Embeddings V2의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 6,000 | 아니요 | Amazon Titan Text Embeddings V2에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Amazon Titan Text Express의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Express에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Amazon Titan Text Lite의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Lite에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Amazon Titan Text Premier의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 100 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Premier에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude 3 Haiku의 분당 온디맨드 모델 추론 요청 |
us-east-1: 1,000 us-west-2: 1,000 ap-northeast-1: 200 ap-southeast-1: 200 지원되는 다른 각 리전: 400 |
아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Haiku에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude 3 Opus의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 50 | 아니요 | Anthropic Claude 3 Opus에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude 3 Sonnet의 분당 온디맨드 모델 추론 요청 |
us-east-1: 500 us-west-2: 500 각각의 지원되는 다른 리전: 100 |
아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Sonnet에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude 3.5 Haiku의 분당 온디맨드 모델 추론 요청 |
us-west-1: 400 각각의 지원되는 다른 리전: 1,000 |
아니요 | Anthropic Claude 3.5 Haiku에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude 3.5 Sonnet의 분당 온디맨드 모델 추론 요청 |
us-east-1: 50 us-east-2: 50 us-west-2: 250 ap-northeast-2: 50 ap-south-1: 50 ap-southeast-2: 50 각각의 지원되는 다른 리전: 20 |
아니요 | Anthropic Claude 3.5 Sonnet에서 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude 3.5 Sonnet V2의 분당 온디맨드 모델 추론 요청 |
us-west-2: 250 각각의 지원되는 다른 리전: 50회 |
아니요 | Anthropic Claude 3.5 Sonnet V2에서 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude 3.7 Sonnet V1의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 125 | 아니요 | Anthropic Claude 3.7 Sonnet V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Anthropic Claude Instant의 분당 온디맨드 모델 추론 요청 |
us-east-1: 1,000 us-west-2: 1,000 지원되는 다른 각 리전: 400 |
아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude Instant에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude V2의 분당 온디맨드 모델 추론 요청 |
us-east-1: 500 us-west-2: 500 각각의 지원되는 다른 리전: 100 |
아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude V2에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Cohere Command의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Cohere Command Light의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command Light에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Cohere Command R의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command R 128k에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Cohere Command R Plus의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command R Plus 128k에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Cohere Embed English의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 2,000 | 아니요 | Cohere Embed English에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Cohere Embed Multilingual의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 2,000 | 아니요 | Cohere Embed Multilingual에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Cohere Embed V4의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 1,000 | 아니요 | Cohere Embed V4에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Cohere Rerank 3.5의 분당 온디맨드 모델 추론 요청 | 각 지원되는 리전: 250명 | 아니요 | Cohere Rerank 3.5에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| DeepSeek V3 V1의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | DeepSeek V3 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| GPT OSS Safeguard 120B에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | GPT OSS Safeguard 120B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| GPT OSS Safeguard 20B에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | GPT OSS Safeguard 20B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Gemma 3 12B에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Gemma 3 12B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Gemma 3 27B에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Gemma 3 27B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Gemma 3 4B에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Gemma 3 4B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Kimi K2 Thinking에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다K2. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Magistral Small 1.2에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Magistral Small 1.2에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 2 13B의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 13B에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Meta Llama 2 70B의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 70B에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Meta Llama 2 Chat 13B의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 Chat 13B에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Meta Llama 2 Chat 70B의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 Chat 70B에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Meta Llama 3 70B Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | Meta Llama 3 70B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 3 8B Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | Meta Llama 3 8B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 3.1 405B Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 200 | 아니요 | Meta Llama 3.1 405B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 3.1 70B Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | Meta Llama 3.1 70B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 3.1 8B Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | Meta Llama 3.1 8B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 3.2 11B Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | Meta Llama 3.2 11B Instruct에서 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합산 합계를 고려합니다. |
| Meta Llama 3.2 1B Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | Meta Llama 3.2 1B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Meta Llama 3.2 3B Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | Meta Llama 3.2 3B Instruct에서 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합산 합계를 고려합니다. |
| Meta Llama 3.2 90B Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | Meta Llama 3.2 90B Instruct에서 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합산 합계를 고려합니다. |
| Meta Llama 3.3 70B Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | Meta Llama 3.3 70B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| 미니맥스 M2에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | 미니맥스 M2에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| 미니스트럴 14B 3.0에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | 미니스트럴 14B 3.0에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| 미니스트럴 3B 3.0에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | 미니스트럴 3B 3.0에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| 미니스트럴 8B 3.0에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | 미니스트럴 8B 3.0에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Mistral 7B Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 800 | 아니요 | Mistral mistral-7b-instruct-v0에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Mistral AI Mistral Small의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | Mistral AI Mistral Small에서 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 직접 호출할 수 있는 최대 횟수입니다. |
| Mistral Large의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | Mistral mistral-large-2402-v1에서 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 직접 호출할 수 있는 최대 횟수입니다. |
| Mistral Large 2407의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | Mistral Large 2407에서 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합산 합계를 고려합니다. |
| Mistral Large 3에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Mistral Large 3에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Mistral Mixtral 8x7b Instruct의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | 아니요 | Mistral mixtral-8x7b-v0에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| NVIDIA Nemotron Nano 2에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | NVIDIA Nemotron Nano 2에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| NVIDIA Nemotron Nano 2 VL에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | NVIDIA Nemotron Nano 2 VL에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| OpenAI GPT OSS 120B의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | OpenAI GPT OSS 120B에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| OpenAI GPT OSS 20B의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | OpenAI GPT OSS 20B에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Qwen3 235B a22b 2507 V1의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Qwen3 235B a22b 2507 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Qwen3 32B V1의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Qwen3 32B V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Qwen3 Coder 30B a3b V1의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Qwen3 Coder 30B a3b V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Qwen3 Coder 480B a35b V1의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Qwen3 Coder 480B a35b V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Qwen3 Next 80B A3B에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Qwen3 Next 80B A3B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Qwen3 VL 235B A22B에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Qwen3 VL 235B A22B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stability.ai Stable Diffusion 3 Large의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 15 | 아니요 | Stability.ai Stable Diffusion 3 Large에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Stability.ai Stable Diffusion 3 Medium의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 60개 | 아니요 | Stability.ai Stable Diffusion 3 Medium에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Stability.ai Stable Diffusion 3.5 Large의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 15 | 아니요 | Stability.ai Stable Diffusion 3.5 Large에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Stability.ai Stable Diffusion XL 0.8의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 60개 | 아니요 | Stability.ai Stable Diffusion XL 0.8에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Stability.ai Stable Diffusion XL 1.0의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 60개 | 아니요 | Stability.ai Stable Diffusion XL 1.0에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Stability.ai Stable Image Core의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 90 | 아니요 | Stability.ai Stable Image Core에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Stability.ai Stable Image Ultra의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Stability.ai Stable Image Ultra에서 1분 동안 InvokeModel을 직접 호출할 수 있는 최대 횟수입니다. |
| Stable Image Conservative Upscale의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 2 | 아니요 | Stable Image Conservative Upscale에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Control Sketch의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Stable Image Control Sketch에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Control Structure의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Stable Image Control Structure에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Creative Upscale의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 2 | 아니요 | Stable Image Creative Upscale에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Erase Object의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Stable Image Erase Object에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Fast Upscale의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Stable Image Fast Upscale에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Inpaint의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Stable Image Inpaint에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Outpaint의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 2 | 아니요 | Stable Image Outpaint에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Remove Background의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Stable Image Remove Background에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Search and Recolor의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Stable Image Search and Recolor에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Search and Replace의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Stable Image Search and Replace에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Style Guide의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Stable Image Style Guide에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Stable Image Style Transfer의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10 | 아니요 | Stable Image Style Transfer에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Twelve Labs Marengo의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 100 | 아니요 | Twelve Labs Marengo에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Twelve Labs Pegasus의 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 60개 | 예 |
Twelve Labs Pegasus에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| TwelveLabs Marengo Embed 3.0에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 500 | 예 |
TwelveLabs Marengo Embed 3.0에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Voxtral Mini 1.0에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Voxtral Mini 1.0에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| Voxtral Small 1.0에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 10,000개 | 아니요 | Voxtral Small 1.0에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 이 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream 작업에 대한 총 요청 수를 나타냅니다. |
| AI21 Labs Jamba 1.5 Large의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | AI21 Labs Jamba 1.5 Large에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및 InvokeModel에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| AI21 Labs Jamba 1.5 Mini의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | AI21 Labs Jamba 1.5 Mini에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및 InvokeModel에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| AI21 Labs Jamba Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | AI21 Labs Jamba Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및 InvokeModel에 대한 토큰의 합산 합계를 고려합니다. |
| AI21 Labs Jurassic-2 Mid의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 AI21 Labs Jurassic-2 Mid에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| AI21 Labs Jurassic-2 Ultra의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 AI21 Labs Jurassic-2 Ultra에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Amazon Nova Lite의 분당 온디맨드 모델 추론 토큰 |
us-east-1: 4,000,000 eu-west-2: 4,000,000 지원되는 다른 각 리전: 200,000 |
아니요 | Amazon Nova Lite에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova Micro의 분당 온디맨드 모델 추론 토큰 |
us-east-1: 4,000,000 eu-west-2: 4,000,000 지원되는 다른 각 리전: 200,000 |
아니요 | Amazon Nova Micro에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Nova Pro의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 1,000,000 | 아니요 | Amazon Nova Pro에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Titan Image Generator G1의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 2,000 | 아니요 | Amazon Titan Image Generator G1에서 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다. |
| Amazon Titan Image Generator G1 V2의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 2,000 | 아니요 | Amazon Titan Image Generator G1 V2에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Titan Multimodal Embeddings G1의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Amazon Titan Multimodal Embeddings G1에서 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다. |
| Amazon Titan Text Embeddings의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Amazon Titan Text Embeddings에서 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다. |
| Amazon Titan Text Embeddings V2의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Amazon Titan Text Embeddings V2에서 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다. |
| Amazon Titan Text Express의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Amazon Titan Text Express의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Titan Text Lite의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Amazon Titan Text Lite의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Amazon Titan Text Premier의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Amazon Titan Text Premier의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude 3 Haiku의 분당 온디맨드 모델 추론 토큰 |
us-east-1: 2,000,000 us-west-2: 2,000,000 ap-northeast-1: 200,000 ap-southeast-1: 200,000 지원되는 다른 각 리전: 300,000 |
아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Anthropic Claude 3 Haiku의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude 3 Opus의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 400,000 | 아니요 | Anthropic Claude 3 Opus에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude 3 Sonnet의 분당 온디맨드 모델 추론 토큰 |
us-east-1: 1,000,000 us-west-2: 1,000,000 지원되는 다른 각 리전: 200,000 |
아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Anthropic Claude 3 Sonnet의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude 3.5 Haiku의 분당 온디맨드 모델 추론 토큰 |
us-west-1: 300,000 지원되는 다른 각 리전: 2,000,000 |
아니요 | Anthropic Claude 3.5 Haiku에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude 3.5 Sonnet의 분당 온디맨드 모델 추론 토큰 |
us-east-1: 400,000 us-east-2: 400,000 us-west-2: 2,000,000 ap-northeast-2: 400,000 ap-south-1: 400,000 ap-southeast-2: 400,000 지원되는 다른 각 리전: 200,000 |
아니요 | Anthropic Claude 3.5 Sonnet에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude 3.5 Sonnet V2의 분당 온디맨드 모델 추론 토큰 |
us-west-2: 2,000,000 지원되는 다른 각 리전: 400,000 |
아니요 | Anthropic Claude 3.5 Sonnet V2에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Anthropic Claude 3.7 Sonnet V1의 분당 온디맨드 모델 추론 토큰 | 각각 지원되는 리전: 500,000 | 아니요 | Anthropic Claude 3.7 Sonnet V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude Instant의 분당 온디맨드 모델 추론 토큰 |
us-east-1: 1,000,000 us-west-2: 1,000,000 지원되는 다른 각 리전: 300,000 |
아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Anthropic Claude Instant의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Anthropic Claude V2의 분당 온디맨드 모델 추론 토큰 |
us-east-1: 500,000 us-west-2: 500,000 지원되는 다른 각 리전: 200,000 |
아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Anthropic Claude V2의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Cohere Command의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Cohere Command의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Cohere Command Light의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 직접 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command Light에 대한 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합산 합계를 고려합니다. |
| Cohere Command R의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Cohere Command R 128k의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Cohere Command R Plus의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Cohere Command R Plus 128k의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Cohere Embed English의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Cohere Embed English에서 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다. |
| Cohere Embed Multilingual의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Cohere Embed Multilingual에서 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다. |
| Cohere Embed V4의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 150,000 | 아니요 | Cohere Embed V4에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| DeepSeek V3 V1의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | DeepSeek V3 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| GPT OSS Safeguard 120B에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | GPT OSS Safeguard 120B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| GPT OSS Safeguard 20B에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | GPT OSS Safeguard 20B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Gemma 3 12B에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Gemma 3 12B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Gemma 3 27B에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Gemma 3 27B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Gemma 3 4B에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Gemma 3 4B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Kimi K2 Thinking에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Kimi K2 Thinking에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Magistral Small 1.2에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Magistral Small 1.2에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 2 13B의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Meta Llama 2 13B의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 2 70B의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Meta Llama 2 70B의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 2 Chat 13B의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Meta Llama 2 Chat 13B의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 2 Chat 70B의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Meta Llama 2 Chat 70B의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3 70B Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Meta Llama 3 70B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3 8B Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Meta Llama 3 8B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.1 405B Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 400,000 | 아니요 | Meta Llama 3.1 405B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.1 70B Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Meta Llama 3.1 70B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.1 8B Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Meta Llama 3.1 8B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.2 11B Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Meta Llama 3.2 11B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.2 1B Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Meta Llama 3.2 1B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.2 3B Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Meta Llama 3.2 3B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.2 90B Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Meta Llama 3.2 90B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합산 합계를 고려합니다. |
| Meta Llama 3.3 70B Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Meta Llama 3.3 70B Instruct에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| 미니맥스 M2에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | 미니맥스 M2의 경우 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| 미니스트럴 14B 3.0의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | 미니스트럴 14B 3.0의 경우 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| 미니스트럴 3B 3.0의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | 미니스트럴 3B 3.0의 경우 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| 미니스트럴 8B 3.0에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | 미니스트럴 8B 3.0의 경우 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Mistral AI Mistral 7B Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Mistral AI Mistral 7B Instruct의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Mistral AI Mistral Large의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Mistral AI Mistral Large의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Mistral AI Mistral Small의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Mistral AI Mistral Small의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Mistral AI Mixtral 8X7BB Instruct의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Mistral AI Mixtral 8X7B Instruct의 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Mistral Large 2407의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | 아니요 | Mistral Large 2407에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합산 합계를 고려합니다. |
| Mistral Large 3에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Mistral Large 3에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| NVIDIA Nemotron Nano 2의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | NVIDIA Nemotron Nano 2에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| NVIDIA Nemotron Nano 2 VL에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | NVIDIA Nemotron Nano 2 VL에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| OpenAI GPT OSS 120B의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | OpenAI GPT OSS 120B에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| OpenAI GPT OSS 20B의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | OpenAI GPT OSS 20B에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Qwen3 235B a22b 2507 V1의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Qwen3 235B a22b 2507 V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Qwen3 32B V1의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Qwen3 32B V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Qwen3 Coder 30B a3b V1의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Qwen3 Coder 30B a3b V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Qwen3 Coder 480B a35b V1의 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Qwen3 Coder 480B a35b V1에서 1분 동안 모델 추론을 위해 제출할 수 있는 최대 온디맨드 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Qwen3 Next 80B A3B에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Qwen3 Next 80B A3B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Qwen3 VL 235B A22B에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Qwen3 VL 235B A22B에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Voxtral Mini 1.0에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Voxtral Mini 1.0에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| Voxtral Small 1.0에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 100,000,000 | 아니요 | Voxtral Small 1.0에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream에 대한 모든 요청에서 입력 및 출력 토큰의 합산 합계를 고려합니다. |
| 함수당 파라미터 | 지원되는 각 리전: 5개 | 예 |
작업 그룹 함수에 포함할 수 있는 최대 파라미터 수입니다. |
| 초당 PrepareAgent 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 PrepareAgent API 요청 수입니다. |
| Amazon Nova 2 멀티모달 임베딩 V1에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Amazon Nova 2 Multimodal Embeddings V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Amazon Nova Premier의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Amazon Nova Premier에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Claude 3 Haiku의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3 Haiku에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Claude 3 Opus의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3 Opus에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Claude 3 Sonnet의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3 Sonnet에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Claude 3.5 Haiku의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.5 Haiku에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Claude 3.5 Sonnet의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.5 Sonnet에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Claude 3.5 Sonnet v2의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.5 Sonnet v2에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Claude 3.7 Sonnet의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.7 Sonnet에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Claude Haiku 4.5에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude Haiku 4.5에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Claude Opus 4.5에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude Opus 4.5에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Claude Sonnet 4의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude Sonnet 4에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| DeepSeek v3의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
DeepSeek v3에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Llama 3.1 405B Instruct의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.1 405B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Llama 3.1 70B Instruct의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.1 70B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Llama 3.1 8B Instruct의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.1 8B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Llama 3.2 11B Instruct의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 11B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Llama 3.2 1B Instruct의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 1B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Llama 3.2 3B Instruct의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 3B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Llama 3.2 90B Instruct의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 90B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Llama 3.3 70B Instruct의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.3 70B Instruct에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Llama 4 Maverick의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 4 Maverick에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Llama 4 Scout의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 4 Scout에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Mistral Large 2(24.07)의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Mistral Large 2(24.07)에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Mistral Small의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Mistral Small에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Nova 2 Lite에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Nova 2 Lite에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Nova Lite V1의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Nova Lite V1에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Nova Micro V1의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Nova Micro V1에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Nova Pro V1의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Nova Pro V1에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| OpenAI GPT OSS 120b의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
OpenAI GPT OSS 120b에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| OpenAI GPT OSS 20b의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
OpenAI GPT OSS 20b에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Qwen3 235B의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Qwen3 235B에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Qwen3 32B의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Qwen3 32B에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Qwen3 Coder 30B의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Qwen3 Coder 30B에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Qwen3 Coder 480B의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Qwen3 Coder 480B에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Sonnet 4.5에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Sonnet 4.5에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Titan Multimodal Embeddings G1의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Titan Multimodal Embeddings G1에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Titan Text Embeddings V2의 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Titan Text Embeddings V2에 대한 배치 추론 작업에서 모든 입력 파일에 대한 최대 레코드 수입니다. |
| Amazon Nova 2 멀티모달 임베딩 V1에 대한 배치 추론 작업당 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Amazon Nova 2 Multimodal Embeddings V1에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다. |
| Amazon Nova Premier의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Amazon Nova Premier에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Claude 3 Haiku의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3 Haiku에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Claude 3 Opus의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3 Opus에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Claude 3 Sonnet의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3 Sonnet에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Claude 3.5 Haiku의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.5 Haiku에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Claude 3.5 Sonnet의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.5 Sonnet에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Claude 3.5 Sonnet v2의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.5 Sonnet v2에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Claude 3.7 Sonnet의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.7 Sonnet에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Claude Haiku 4.5에 대한 배치 추론 작업당 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude Haiku 4.5의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Claude Opus 4.5에 대한 배치 추론 작업당 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude Opus 4.5의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Claude Sonnet 4의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude Sonnet 4에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| DeepSeek v3의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
DeepSeek v3에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Llama 3.1 405B Instruct의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.1 405B Instruct에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Llama 3.1 70B Instruct의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.1 70B Instruct에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Llama 3.1 8B Instruct의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.1 8B Instruct에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Llama 3.2 11B Instruct의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 11B Instruct에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Llama 3.2 1B Instruct의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 1B Instruct에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Llama 3.2 3B Instruct의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 3B Instruct에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Llama 3.2 90B Instruct의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 90B Instruct에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Llama 3.3 70B Instruct의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.3 70B Instruct에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Llama 4 Maverick의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 4 Maverick에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Llama 4 Scout의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 4 Scout에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Mistral Large 2(24.07)의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Mistral Large 2(24.07)에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Mistral Small의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Mistral Small에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Nova 2 Lite에 대한 배치 추론 작업당 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Nova 2 Lite에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다. |
| Nova Lite V1의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Nova Lite V1에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Nova Micro V1의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Nova Micro V1에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Nova Pro V1의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Nova Pro V1에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| OpenAI GPT OSS 120b의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
OpenAI GPT OSS 120b에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| OpenAI GPT OSS 20b의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
OpenAI GPT OSS 20b에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Qwen3 235B의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Qwen3 235B에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Qwen3 32B의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Qwen3 32B에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Qwen3 Coder 30B의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Qwen3 Coder 30B에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Qwen3 Coder 480B의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Qwen3 Coder 480B에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Sonnet 4.5에 대한 배치 추론 작업당 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Sonnet 4.5의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Titan Multimodal Embeddings G1의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Titan Multimodal Embeddings G1에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Titan Text Embeddings V2의 배치 추론 작업별 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Titan Text Embeddings V2에 대한 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
| Amazon Nova 2 멀티모달 임베딩 V1용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Amazon Nova 2 멀티모달 임베딩 V1의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
| Amazon Nova Premier용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Amazon Nova Premier용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Claude 3 Haiku용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3 Haiku용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Claude 3 Opus용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3 Opus용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Claude 3 Sonnet용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3 Sonnet용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Claude 3.5 Haiku용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3.5 Haiku용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Claude 3.5 Sonnet용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3.5 Sonnet용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Claude 3.5 Sonnet v2용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3.5 Sonnet v2용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Claude 3.7 Sonnet용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3.7 Sonnet용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Claude Haiku 4.5용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude Haiku 4.5용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
| Claude Opus 4.5용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude Opus 4.5용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
| Claude Sonnet 4용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude Sonnet 4용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| DeepSeek v3용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
DeepSeek v3용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Llama 3.1 405B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.1 405B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Llama 3.1 70B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.1 70B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Llama 3.1 8B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.1 8B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Llama 3.2 11B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.2 11B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Llama 3.2 1B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.2 1B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Llama 3.2 3B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.2 3B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Llama 3.2 90B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.2 90B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Llama 3.3 70B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.3 70B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Llama 4 Maverick용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 4 Maverick용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Llama 4 Scout용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 4 Scout용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Mistral Large 2(24.07)용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Mistral Large 2(24.07)용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Mistral Small용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Mistral Small용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Nova 2 Lite용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Nova 2 Lite용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
| Nova Lite V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Nova Lite V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Nova Micro V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Nova Micro V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Nova Pro V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Nova Pro V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| OpenAI GPT OSS 120b용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
OpenAI GPT OSS 120b용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| OpenAI GPT OSS 20b용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
OpenAI GPT OSS 20b용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Qwen3 235B용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Qwen3 235B용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Qwen3 32B용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Qwen3 32B용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Qwen3 Coder 30B용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Qwen3 Coder 30B용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Qwen3 Coder 480B용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Qwen3 Coder 480B용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Sonnet 4.5용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계입니다. | 지원되는 각 리전: 20개 | 예 |
Sonnet 4.5용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
| Titan Multimodal Embeddings G1용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Titan Multimodal Embeddings G1용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Titan Text Embeddings V2용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 20개 | 예 |
Titan Text Embeddings V2용 기본 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Titan Multimodal Embeddings G1용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 3 | 아니요 | Titan Multimodal Embeddings G1용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Titan Text Embeddings V2용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수의 합계 | 지원되는 각 리전: 3 | 아니요 | Titan Text Embeddings V2용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업 수와 제출된 배치 추론 작업 수 합계의 최대 수입니다. |
| Bedrock Data Automation Runtime: ListTagsForResource에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 25개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 Bedrock Data Automation Runtime: ListTagsForResource 요청의 최대 수입니다. |
| Bedrock Data Automation Runtime: TagResource에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 25개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 Bedrock Data Automation Runtime: TagResource 요청의 최대 수입니다. |
| Bedrock Data Automation Runtime: UntagResource에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 25개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 Bedrock Data Automation Runtime: UntagResource 요청의 최대 수입니다. |
| Bedrock Data Automation: ListTagsForResource에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 25개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 Bedrock Data Automation: ListTagsForResource 요청의 최대 수입니다. |
| Bedrock Data Automation: TagResource에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 25개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 Bedrock Data Automation: TagResource 요청의 최대 수입니다. |
| Bedrock Data Automation: UntagResource에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 25개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 Bedrock Data Automation: UntagResource 요청의 최대 수입니다. |
| CreateBlueprint에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 5개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 CreateBlueprint 요청의 최대 수입니다. |
| CreateBlueprintVersion에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 5개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 CreateBlueprintVersion 요청의 최대 수입니다. |
| CreateDataAutomationProject에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 5개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 CreateDataAutomationProject 요청의 최대 수입니다. |
| DeleteBlueprint에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 5개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 DeleteBlueprint 요청의 최대 수입니다. |
| DeleteDataAutomationProject에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 5개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 DeleteDataAutomationProject 요청의 최대 수입니다. |
| GetBlueprint에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 5개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 GetBlueprint 요청의 최대 수입니다. |
| GetDataAutomationProject에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 5개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 GetDataAutomationProject 요청의 최대 수입니다. |
| GetDataAutomationStatus에 대한 요율 조절 제한 | 지원되는 지역별: 초당 10개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 GetDataAutomationStatus 요청의 최대 수입니다. |
| InvokeDataAutomationAsync에 대한 요율 조절 제한 | 지원되는 지역별: 초당 10개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 InvokeDataAutomationAsync 요청의 최대 수입니다. |
| ListBlueprints에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 5개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 ListBlueprints 요청의 최대 수입니다. |
| ListDataAutomationProjects에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 5개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 ListDataAutomationProjects 요청의 최대 수입니다. |
| UpdateBlueprint에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 5개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 UpdateBlueprint 요청의 최대 수입니다. |
| UpdateDataAutomationProject에 대한 요율 조절 제한 | 지원되는 각 리전: 초당 5개 | 아니요 | 현재 리전에서 계정별로 초당 수행할 수 있는 UpdateDataAutomationProject 요청의 최대 수입니다. |
| 초당 UpdateAgent 요청 | 지원되는 각 리전: 4 | 아니요 | 초당 최대 UpdateAgent API 요청 수입니다. |
| 초당 UpdateAgentActionGroup 요청 | 지원되는 각 리전: 6개 | 아니요 | 초당 최대 UpdateAgentActionGroup API 요청 수입니다. |
| 초당 UpdateAgentAlias 요청 | 지원되는 각 리전: 2 | 아니요 | 초당 최대 UpdateAgentAlias API 요청 수입니다. |
| 초당 UpdateAgentKnowledgeBase 요청 | 지원되는 각 리전: 4 | 아니요 | 초당 최대 UpdateAgentKnowledgeBase API 요청 수입니다. |
참고
다음 단계에 따라 계정에 할당량 증가를 요청할 수 있습니다.
-
할당량이 예로 표시된 경우 Service Quotas 사용 설명서의 할당량 증가 요청 단계에 따라 할당량을 조정할 수 있습니다.
-
할당량이 아니요로 표시된 경우 할당량을 늘리는 것을 고려하고 있다면 제안 증가 양식
을 통해 요청을 제출할 수 있습니다. -
모든 모델에 대해 다음 할당량에 대한 증가를 함께 요청할 수 없습니다.
-
${model}에 대한 분당 크로스 리전 InvokeModel 토큰 -
${model}에 대한 분당 크로스 리전 InvokeModel 요청 -
${model}에 대한 분당 온디맨드 InvokeModel 토큰 -
${model}에 대한 분당 온디맨드 InvokeModel 요청
이러한 할당량의 조합에 대한 증가를 요청하려면 Service Quotas 사용 설명서의 할당량 증가 요청의 단계에 따라
${model}할당량에 대한 분당 크로스 리전 InvokeModel 토큰 증가를 요청하세요. 이렇게 하면 지원 팀이 연락하여 다른 3가지 할당량을 늘릴 수 있는 옵션도 제공합니다. 수요가 압도적인 관계로, 기존에 할당된 할당량을 소비하는 트래픽을 생성하는 고객에게 우선 순위가 부여됩니다. 이 조건을 충족하지 않으면 요청이 거부될 수 있습니다. -