本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
Amazon Bedrock 端点和配额
要以编程方式连接到 AWS 服务,请使用终端节点。 AWS 服务在该服务支持的部分或全部 AWS 区域提供以下终端节点类型: IPv4 终端节点、双栈终端节点和 FIPS 终端节点。部分服务提供全局端点。有关更多信息,请参阅 AWS 服务终端节点。
服务配额,也称为限制,是您的 AWS 账户的最大服务资源或操作数量。有关更多信息,请参阅 AWS 服务限额。
以下是该服务的服务端点和服务限额。
Amazon Bedrock 服务端点
亚马逊 Bedrock 控制飞机 APIs
下表提供了 Amazon Bedrock 支持用于管理、训练和部署模型的特定于区域的端点列表。使用这些端点进行 Amazon Bedrock API 操作。
| 区域名称 | 区域 | 端点 | 协议 |
|---|---|---|---|
| 美国东部(俄亥俄州) | us-east-2 |
bedrock.us-east-2.amazonaws.com bedrock-fips.us-east-2.amazonaws.com |
HTTPS HTTPS |
| 美国东部(弗吉尼亚州北部) | us-east-1 |
bedrock.us-east-1.amazonaws.com bedrock-fips.us-east-1.amazonaws.com |
HTTPS HTTPS |
| 美国西部(北加利福尼亚) | us-west-1 |
bedrock.us-west-1.amazonaws.com bedrock-fips.us-west-1.amazonaws.com |
HTTPS HTTPS |
| 美国西部(俄勒冈州) | us-west-2 |
bedrock.us-west-2.amazonaws.com bedrock-fips.us-west-2.amazonaws.com |
HTTPS HTTPS |
| 非洲(开普敦) | af-south-1 | bedrock.af-south-1.amazonaws.com | HTTPS |
| 亚太地区(海得拉巴) | ap-south-2 | bedrock.ap-south-2.amazonaws.com | HTTPS |
| 亚太地区(雅加达) | ap-southeast-3 | bedrock.ap-southeast-3.amazonaws.com | HTTPS |
| 亚太地区(马来西亚) | ap-southeast-5 | bedrock.ap-southeast-5.amazonaws.com | HTTPS |
| 亚太地区(墨尔本) | ap-southeast-4 | bedrock.ap-southeast-4.amazonaws.com | HTTPS |
| 亚太地区(孟买) | ap-south-1 | bedrock.ap-south-1.amazonaws.com | HTTPS |
| 亚太地区(新西兰) | ap-southeast-6 | bedrock.ap-southeast-6.amazonaws.com | HTTPS |
| 亚太地区(大阪) | ap-northeast-3 | bedrock.ap-northeast-3.amazonaws.com | HTTPS |
| 亚太地区(首尔) | ap-northeast-2 | bedrock.ap-northeast-2.amazonaws.com | HTTPS |
| 亚太地区(新加坡) | ap-southeast-1 | bedrock.ap-southeast-1.amazonaws.com | HTTPS |
| 亚太地区(悉尼) | ap-southeast-2 | bedrock.ap-southeast-2.amazonaws.com | HTTPS |
| 亚太地区(台北) | ap-east-2 | bedrock.ap-east-2.amazonaws.com | HTTPS |
| 亚太地区(泰国) | ap-southeast-7 | bedrock.ap-southeast-7.amazonaws.com | HTTPS |
| 亚太地区(东京) | ap-northeast-1 | bedrock.ap-northeast-1.amazonaws.com | HTTPS |
| 加拿大(中部) | ca-central-1 |
bedrock.ca-central-1.amazonaws.com bedrock-fips.ca-central-1.amazonaws.com |
HTTPS HTTPS |
| 加拿大西部(卡尔加里) | ca-west-1 |
bedrock.ca-west-1.amazonaws.com bedrock-fips.ca-west-1.amazonaws.com |
HTTPS HTTPS |
| 欧洲地区(法兰克福) | eu-central-1 | bedrock.eu-central-1.amazonaws.com | HTTPS |
| 欧洲地区(爱尔兰) | eu-west-1 | bedrock.eu-west-1.amazonaws.com | HTTPS |
| 欧洲地区(伦敦) | eu-west-2 | bedrock.eu-west-2.amazonaws.com | HTTPS |
| 欧洲地区(米兰) | eu-south-1 | bedrock.eu-south-1.amazonaws.com | HTTPS |
| 欧洲地区(巴黎) | eu-west-3 | bedrock.eu-west-3.amazonaws.com | HTTPS |
| 欧洲(西班牙) | eu-south-2 | bedrock.eu-south-2.amazonaws.com | HTTPS |
| 欧洲地区(斯德哥尔摩) | eu-north-1 | bedrock.eu-north-1.amazonaws.com | HTTPS |
| 欧洲(苏黎世) | eu-central-2 | bedrock.eu-central-2.amazonaws.com | HTTPS |
| 以色列(特拉维夫) | il-central-1 | bedrock.il-central-1.amazonaws.com | HTTPS |
| 墨西哥(中部) | mx-central-1 | bedrock.mx-central-1.amazonaws.com | HTTPS |
| 中东(巴林) | me-south-1 | bedrock.me-south-1.amazonaws.com | HTTPS |
| 中东(阿联酋) | me-central-1 | bedrock.me-central-1.amazonaws.com | HTTPS |
| 南美洲(圣保罗) | sa-east-1 | bedrock.sa-east-1.amazonaws.com | HTTPS |
| AWS GovCloud (美国东部) | us-gov-east-1 |
bedrock.us-gov-east-1.amazonaws.com bedrock-fips.us-gov-east-1.amazonaws.com |
HTTPS HTTPS |
| AWS GovCloud (美国西部) | us-gov-west-1 |
bedrock.us-gov-west-1.amazonaws.com bedrock-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS |
亚马逊 Bedrock 运行时 APIs
下表提供了 Amazon Bedrock 支持的特定于区域的端点列表,用于针对 Amazon Bedrock 中托管的模型发出推理请求。使用这些端点进行 Amazon Bedrock 运行时 API 操作。
| 区域名称 | 区域 | 端点 | 协议 |
|---|---|---|---|
| 美国东部(俄亥俄州) | us-east-2 |
bedrock-runtime.us-east-2.amazonaws.com bedrock-runtime-fips.us-east-2.amazonaws.com |
HTTPS HTTPS |
| 美国东部(弗吉尼亚州北部) | us-east-1 |
bedrock-runtime.us-east-1.amazonaws.com bedrock-runtime-fips.us-east-1.amazonaws.com |
HTTPS HTTPS |
| 美国西部(俄勒冈州) | us-west-2 |
bedrock-runtime.us-west-2.amazonaws.com bedrock-runtime-fips.us-west-2.amazonaws.com |
HTTPS HTTPS |
| 亚太地区(海得拉巴) | ap-south-2 | bedrock-runtime.ap-south-2.amazonaws.com | HTTPS |
| 亚太地区(孟买) | ap-south-1 | bedrock-runtime.ap-south-1.amazonaws.com | HTTPS |
| 亚太地区(大阪) | ap-northeast-3 | bedrock-runtime.ap-northeast-3.amazonaws.com | HTTPS |
| 亚太地区(首尔) | ap-northeast-2 | bedrock-runtime.ap-northeast-2.amazonaws.com | HTTPS |
| 亚太地区(新加坡) | ap-southeast-1 | bedrock-runtime.ap-southeast-1.amazonaws.com | HTTPS |
| 亚太地区(悉尼) | ap-southeast-2 | bedrock-runtime.ap-southeast-2.amazonaws.com | HTTPS |
| 亚太地区(东京) | ap-northeast-1 | bedrock-runtime.ap-northeast-1.amazonaws.com | HTTPS |
| 加拿大(中部) | ca-central-1 |
bedrock-runtime.ca-central-1.amazonaws.com bedrock-runtime-fips.ca-central-1.amazonaws.com |
HTTPS HTTPS |
| 欧洲地区(法兰克福) | eu-central-1 | bedrock-runtime.eu-central-1.amazonaws.com | HTTPS |
| 欧洲地区(爱尔兰) | eu-west-1 | bedrock-runtime.eu-west-1.amazonaws.com | HTTPS |
| 欧洲地区(伦敦) | eu-west-2 | bedrock-runtime.eu-west-2.amazonaws.com | HTTPS |
| 欧洲地区(米兰) | eu-south-1 | bedrock-runtime.eu-south-1.amazonaws.com | HTTPS |
| 欧洲地区(巴黎) | eu-west-3 | bedrock-runtime.eu-west-3.amazonaws.com | HTTPS |
| 欧洲(西班牙) | eu-south-2 | bedrock-runtime.eu-south-2.amazonaws.com | HTTPS |
| 欧洲地区(斯德哥尔摩) | eu-north-1 | bedrock-runtime.eu-north-1.amazonaws.com | HTTPS |
| 欧洲(苏黎世) | eu-central-2 | bedrock-runtime.eu-central-2.amazonaws.com | HTTPS |
| 南美洲(圣保罗) | sa-east-1 | bedrock-runtime.sa-east-1.amazonaws.com | HTTPS |
| AWS GovCloud (美国东部) | us-gov-east-1 |
bedrock-runtime.us-gov-east-1.amazonaws.com bedrock-runtime-fips.us-gov-east-1.amazonaws.com |
HTTPS HTTPS |
| AWS GovCloud (美国西部) | us-gov-west-1 |
bedrock-runtime.us-gov-west-1.amazonaws.com bedrock-runtime-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS |
Amazon Bedrock 构建时的代理 APIs
下表提供了 Amazon Bedrock 代理支持用于创建和管理代理和知识库的特定于区域的端点列表。使用这些端点进行 Amazon Bedrock 代理 API 操作。
| 区域名称 | 区域 | 端点 | 协议 |
|---|---|---|---|
| 美国东部 (弗吉尼亚北部) | us-east-1 | bedrock-agent.us-east-1.amazonaws.com | HTTPS |
| bedrock-agent-fips.us-east-1.amazonaws.com | HTTPS | ||
| 美国西部(俄勒冈州) | us-west-2 | bedrock-agent.us-west-2.amazonaws.com | HTTPS |
| bedrock-agent-fips.us-west-2.amazonaws.com | HTTPS | ||
| 亚太地区(新加坡) | ap-southeast-1 | bedrock-agent.ap-southeast-1.amazonaws.com | HTTPS |
| 亚太地区(悉尼) | ap-southeast-2 | bedrock-agent.ap-southeast-2.amazonaws.com | HTTPS |
| 亚太地区(东京) | ap-northeast-1 | bedrock-agent.ap-northeast-1.amazonaws.com | HTTPS |
| 亚太地区(首尔) | ap-northeast-2 | bedrock-agent.ap-northeast-2.amazonaws.com | HTTPS |
| 加拿大(中部) | ca-central-1 | bedrock-agent.ca-central-1.amazonaws.com | HTTPS |
| 欧洲地区(法兰克福) | eu-central-1 | bedrock-agent.eu-central-1.amazonaws.com | HTTPS |
| 欧洲地区(爱尔兰) | eu-west-1 | bedrock-agent.eu-west-1.amazonaws.com | HTTPS |
| 欧洲地区(伦敦) | eu-west-2 | bedrock-agent.eu-west-2.amazonaws.com | HTTPS |
| 欧洲地区(巴黎) | eu-west-3 | bedrock-agent.eu-west-3.amazonaws.com | HTTPS |
| 亚太地区(孟买) | ap-south-1 | bedrock-agent.ap-south-1.amazonaws.com | HTTPS |
| 南美洲(圣保罗) | sa-east-1 | bedrock-agent.sa-east-1.amazonaws.com | HTTPS |
亚马逊 Bedrock 运行时代理 APIs
下表提供了 Amazon Bedrock 代理支持用于调用代理和查询知识库的特定于区域的端点列表。使用这些端点进行 Amazon Bedrock 代理运行时 API 操作。
| 区域名称 | 区域 | 端点 | 协议 |
|---|---|---|---|
| 美国东部 (弗吉尼亚北部) | us-east-1 | bedrock-agent-runtime.us-east-1.amazonaws.com | HTTPS |
| bedrock-agent-runtime-fips.us-east-1.amazonaws.com | HTTPS | ||
| 美国西部(俄勒冈州) | us-west-2 | bedrock-agent-runtime.us-west-2.amazonaws.com | HTTPS |
| bedrock-agent-runtime-fips.us-west-2.amazonaws.com | HTTPS | ||
| 亚太地区(新加坡) | ap-southeast-1 | bedrock-agent-runtime.ap-southeast-1.amazonaws.com | HTTPS |
| 亚太地区(悉尼) | ap-southeast-2 | bedrock-agent-runtime.ap-southeast-2.amazonaws.com | HTTPS |
| 亚太地区(东京) | ap-northeast-1 | bedrock-agent-runtime.ap-northeast-1.amazonaws.com | HTTPS |
| 亚太地区(首尔) | ap-northeast-2 | bedrock-agent-runtime.ap-northeast-2.amazonaws.com | HTTPS |
| 加拿大(中部) | ca-central-1 | bedrock-agent-runtime.ca-central-1.amazows.com | HTTPS |
| 欧洲地区(法兰克福) | eu-central-1 | bedrock-agent-runtime.eu-central-1.amazonaws.com | HTTPS |
| 欧洲地区(巴黎) | eu-west-3 | bedrock-agent-runtime.eu-west-3.amazonaws.com | HTTPS |
| 欧洲地区(爱尔兰) | eu-west-1 | bedrock-agent-runtime.eu-west-1.amazonaws.com | HTTPS |
| 欧洲地区(伦敦) | eu-west-2 | bedrock-agent-runtime.eu-west-2.amazonaws.com | HTTPS |
| 亚太地区(孟买) | ap-south-1 | bedrock-agent-runtime.ap-south-1.amazows.com | HTTPS |
| 南美洲(圣保罗) | sa-east-1 | bedrock-agent-runtime.sa-east-1.amazonaws.com | HTTPS |
Amazon Bedrock 数据自动化 APIs
下表提供了 Amazon Bedrock 数据自动化支持的区域特定端点的列表。使用 runtime 字词的端点会调用蓝图和项目,从文件中提取信息。使用这些端点进行 Amazon Bedrock 数据自动化运行时 API 操作。没有 runtime 字词的端点用于创建蓝图和项目,提供提取指导。使用这些端点进行 Amazon Bedrock 数据自动化 API 构建时操作
| 区域名称 | 区域 | 端点 | 协议 |
|---|---|---|---|
| 美国东部(弗吉尼亚州北部) | us-east-1 |
bedrock-data-automation.us-east-1.amazonaws.com bedrock-data-automation-runtime.us-east-1.api.aws bedrock-data-automation-runtime.us-east-1.amazonaws.com bedrock-data-automation.us-east-1.api.aws bedrock-data-automation-fips.us-east-1.amazonaws.com bedrock-data-automation-runtime-fips.us-east-1.api.aws bedrock-data-automation-runtime-fips.us-east-1.amazonaws.com bedrock-data-automation-fips.us-east-1.api.aws |
HTTPS HTTPS HTTPS HTTPS HTTPS HTTPS HTTPS HTTPS |
| 美国西部(俄勒冈州) | us-west-2 |
bedrock-data-automation.us-west-2.amazonaws.com bedrock-data-automation-runtime.us-west-2.api.aws bedrock-data-automation-runtime.us-west-2.amazonaws.com bedrock-data-automation.us-west-2.api.aws bedrock-data-automation-fips.us-west-2.amazonaws.com bedrock-data-automation-runtime-fips.us-west-2.api.aws bedrock-data-automation-runtime-fips.us-west-2.amazonaws.com bedrock-data-automation-fips.us-west-2.api.aws |
HTTPS HTTPS HTTPS HTTPS HTTPS HTTPS HTTPS HTTPS |
| 亚太地区(孟买) | ap-south-1 |
bedrock-data-automation.ap-south-1.amazonaws.com bedrock-data-automation-runtime.ap-south-1.amazonaws.com |
HTTPS HTTPS |
| 亚太地区(悉尼) | ap-southeast-2 |
bedrock-data-automation.ap-southeast-2.amazonaws.com bedrock-data-automation-runtime.ap-southeast-2.amazonaws.com |
HTTPS HTTPS |
| 欧洲地区(法兰克福) | eu-central-1 |
bedrock-data-automation.eu-central-1.amazonaws.com bedrock-data-automation-runtime.eu-central-1.amazonaws.com |
HTTPS HTTPS |
| 欧洲地区(爱尔兰) | eu-west-1 |
bedrock-data-automation.eu-west-1.amazonaws.com bedrock-data-automation-runtime.eu-west-1.amazonaws.com |
HTTPS HTTPS |
| 欧洲地区(伦敦) | eu-west-2 |
bedrock-data-automation.eu-west-2.amazonaws.com bedrock-data-automation-runtime.eu-west-2.amazonaws.com |
HTTPS HTTPS |
| AWS GovCloud (美国西部) | us-gov-west-1 |
bedrock-data-automation.us-gov-west-1.amazonaws.com bedrock-data-automation-runtime.us-gov-west-1.amazonaws.com bedrock-data-automation-fips.us-gov-west-1.amazonaws.com bedrock-data-automation-runtime-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS HTTPS HTTPS |
Amazon Bedrock 服务配额
提示
由于 Amazon Bedrock 有大量配额,因此我们建议您使用控制台查看服务配额,而不要使用下表。打开 Amazon Bedrock 配额
| Name | 默认值 | 可调整 | 说明 |
|---|---|---|---|
| (高级提示优化)每个账户的活动作业数 | 每个受支持的区域:20 个 | 否 | 每个账户的高级提示优化(APO)活动作业的最大数量。 |
| (高级提示优化)每个账户的非活动作业数 | 每个受支持的区域:5000 个 | 否 | 每个账户的高级提示优化(APO)非活动作业的最大数量。 |
| (自动推理)策略中的注释数 | 每个受支持的区域:10 个 | 否 | 自动推理策略中的最大注释数量。 |
| (自动推理)每秒 CancelAutomatedReasoningPolicyBuildWorkflow 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 CancelAutomatedReasoningPolicyBuildWorkflow API 请求的最大数量。 |
| (自动推理)每个策略的并发构建数 | 每个受支持的区域:2 个 | 否 | 每个自动推理策略的最大并发构建数量。 |
| (自动推理)每个账户的并发策略构建数 | 每个受支持的区域:5 个 | 否 | 一个账户中并发自动推理策略构建的最大数量。 |
| (自动推理)每秒 CreateAutomatedReasoningPolicy 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 CreateAutomatedReasoningPolicy API 请求的最大数量。 |
| (自动推理)每秒 CreateAutomatedReasoningPolicyTestCase 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 CreateAutomatedReasoningPolicyTestCase API 请求的最大数量。 |
| (自动推理)每秒 CreateAutomatedReasoningPolicyVersion 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 CreateAutomatedReasoningPolicyVersion API 请求的最大数量。 |
| (自动推理)每秒 DeleteAutomatedReasoningPolicy 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 DeleteAutomatedReasoningPolicy API 请求的最大数量。 |
| (自动推理)每秒 DeleteAutomatedReasoningPolicyBuildWorkflow 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 DeleteAutomatedReasoningPolicyBuildWorkflow API 请求的最大数量。 |
| (自动推理)每秒 DeleteAutomatedReasoningPolicyTestCase 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 DeleteAutomatedReasoningPolicyTestCase API 请求的最大数量。 |
| (自动推理)每秒 ExportAutomatedReasoningPolicyVersion 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 ExportAutomatedReasoningPolicyVersion API 请求的最大数量。 |
| (自动推理)每秒 GetAutomatedReasoningPolicy 请求数 | 每个受支持的区域:10 个 | 是 |
每秒 GetAutomatedReasoningPolicy API 请求的最大数量。 |
| (自动推理)每秒 GetAutomatedReasoningPolicyAnnotations 请求数 | 每个受支持的区域:10 个 | 是 |
每秒 GetAutomatedReasoningPolicyAnnotations API 请求的最大数量。 |
| (自动推理)每秒 GetAutomatedReasoningPolicyBuildWorkflow 请求数 | 每个受支持的区域:10 个 | 是 |
每秒 GetAutomatedReasoningPolicyBuildWorkflow API 请求的最大数量。 |
| (自动推理)每秒 GetAutomatedReasoningPolicyBuildWorkflowResultAssets 请求数 | 每个受支持的区域:10 个 | 是 |
每秒 GetAutomatedReasoningPolicyBuildWorkflowResultAssets API 请求的最大数量。 |
| (自动推理)每秒 GetAutomatedReasoningPolicyNextScenario 请求数 | 每个受支持的区域:10 个 | 是 |
每秒 GetAutomatedReasoningPolicyNextScenario API 请求的最大数量。 |
| (自动推理)每秒 GetAutomatedReasoningPolicyTestCase 请求数 | 每个受支持的区域:10 个 | 是 |
每秒 GetAutomatedReasoningPolicyTestCase API 请求的最大数量。 |
| (自动推理)每秒 GetAutomatedReasoningPolicyTestResult 请求数 | 每个受支持的区域:10 个 | 是 |
每秒 GetAutomatedReasoningPolicyTestResult API 请求的最大数量。 |
| (自动推理)每秒 ListAutomatedReasoningPolicies 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 ListAutomatedReasoningPolicies API 请求的最大数量。 |
| (自动推理)每秒 ListAutomatedReasoningPolicyBuildWorkflows 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 ListAutomatedReasoningPolicyBuildWorkflows API 请求的最大数量。 |
| (自动推理)每秒 ListAutomatedReasoningPolicyTestCases 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 ListAutomatedReasoningPolicyTestCases API 请求的最大数量。 |
| (自动推理)每秒 ListAutomatedReasoningPolicyTestResults 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 ListAutomatedReasoningPolicyTestResults API 请求的最大数量。 |
| (自动推理)每个账户的策略数 | 每个受支持的区域:100 个 | 否 | 一个账户中自动推理策略的最大数量。 |
| (自动推理)策略中的规则数 | 每个受支持的区域:500 个 | 否 | 自动推理策略中规则的最大数量。 |
| (自动推理)源文档大小(MB) | 每个受支持的区域:5 个 | 否 | 创建自动推理策略的最大源文档大小(MB)。 |
| (自动推理)源文档词元数 | 每个支持的区域:122,880 | 否 | 创建自动推理策略时源文档中允许的最大词元数。 |
| (自动推理)每秒 StartAutomatedReasoningPolicyBuildWorkflow 请求数 | 每个受支持的区域:1 个 | 是 |
每秒 StartAutomatedReasoningPolicyBuildWorkflow API 请求的最大数量。 |
| (自动推理)每秒 StartAutomatedReasoningPolicyTestWorkflow 请求数 | 每个受支持的区域:1 个 | 是 |
每秒 StartAutomatedReasoningPolicyTestWorkflow API 请求的最大数量。 |
| (自动推理)每个策略的测试数 | 每个受支持的区域:100 个 | 否 | 自动推理策略中测试的最大数量。 |
| (自动推理)每个策略的类型数 | 每个受支持的区域:50 个 | 否 | 自动推理策略中类型的最大数量。 |
| (自动推理)每秒 UpdateAutomatedReasoningPolicy 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 UpdateAutomatedReasoningPolicy API 请求的最大数量。 |
| (自动推理)每秒 UpdateAutomatedReasoningPolicyAnnotations 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 UpdateAutomatedReasoningPolicyAnnotations API 请求的最大数量。 |
| (自动推理)每秒 UpdateAutomatedReasoningPolicyTestCase 请求数 | 每个受支持的区域:5 个 | 是 |
每秒 UpdateAutomatedReasoningPolicyTestCase API 请求的最大数量。 |
| (自动推理)策略中每个类型的值数 | 每个受支持的区域:50 个 | 否 | 自动推理策略中每个类型的值的最大数量。 |
| (自动推理)策略中的变量数 | 每个受支持的区域:200 个 | 否 | 自动推理策略中变量的最大数量。 |
| (自动推理)每个策略的版本数 | 每个受支持的区域:1000 个 | 否 | 自动推理策略中版本的最大数量。 |
| (数据自动化)(控制台)最大文档文件大小(MB) | 每个受支持的区域:200 个 | 否 | 控制台的最大文件大小 |
| (数据自动化)(控制台)每个文档文件的最大页数 | 每个受支持的区域:20 个 | 否 | 控制台中每个文档的最大页数 |
| (数据自动化) CreateBlueprint -每个账户的最大蓝图数量 | 每个受支持的区域:350 个 | 是 |
每个账户的最大蓝图数量 |
| (数据自动化) CreateBlueprintVersion -每个蓝图的最大蓝图版本数 | 每个受支持的区域:10 个 | 是 |
每个蓝图的最大版本数量 |
| (数据自动化)字段的描述长度(字符) | 每个受支持的区域:300 个 | 否 | 字段描述的最大长度(以字符为单位) |
| (数据自动化) InvokeBlueprintOptimizationAsync -蓝图优化并发任务的最大数量 | 每个受支持的区域:3 个 | 是 |
调用蓝图优化异步打开任务的最大数量 |
| (数据自动化) InvokeBlueprintOptimizationAsync -每天蓝图优化任务的最大数量 | 每个受支持的区域:30 个 | 否 | 每天调用蓝图优化异步任务的最大数量 |
| (数据自动化) InvokeDataAutomation(同步)-文档-最大请求数 | 每个受支持的区域:60 个 | 是 |
文档模式每分钟的最大 InvokeDataAutomation 请求数 |
| (数据自动化) InvokeDataAutomation(同步)-图像-最大请求数 |
us-east-1:200 个 us-west-2:200 个 每个其他支持的区域:100 个 |
是 |
图像模态每分钟的最大 InvokeDataAutomation 请求数 |
| (数据自动化) InvokeDataAutomationAsync -音频-最大并发作业数 |
us-east-1:20 个 us-west-2:20 个 每个其他支持的区域:2 个 |
是 |
调用数据自动化异步处理音频打开作业的最大数量 |
| (数据自动化) InvokeDataAutomationAsync -文档-最大并发作业数 |
us-east-1:25 us-west-2:25 每个其他支持的区域:5 个 |
是 |
调用数据自动化异步处理文档打开作业的最大数量 |
| (数据自动化) InvokeDataAutomationAsync -图像-最大并发作业数 |
us-east-1:20 个 us-west-2:20 个 每个其他支持的区域:5 个 |
是 |
调用数据自动化异步处理图像打开作业的最大数量 |
| (数据自动化) InvokeDataAutomationAsync -空缺职位的最大数量 | 每个受支持的区域:1800 个 | 否 | 调用数据自动化异步处理图像打开作业的最大数量 |
| (数据自动化) InvokeDataAutomationAsync -视频-最大并发作业数 |
us-east-1:20 个 us-west-2:20 个 其他所有支持的区域:3 |
是 |
调用数据自动化异步处理视频打开作业的最大数量 |
| (数据自动化)最高音频采样率(Hz) | 每个支持的区域:48,000 | 否 | 最高音频采样率 |
| (数据自动化)每个项目的最大蓝图数量(音频) | 每个受支持的区域:1 个 | 否 | 每个项目音频的最大蓝图数量 |
| (数据自动化)每个项目的最大蓝图数量(文档) | 每个受支持的区域:40 个 | 否 | 每个项目文档的最大蓝图数量 |
| (数据自动化)每个项目的最大蓝图数量(图像) | 每个受支持的区域:1 个 | 否 | 每个项目图像的最大蓝图数量 |
| (数据自动化)每个项目的最大蓝图数量(视频) | 每个受支持的区域:1 个 | 否 | 每个项目视频的最大蓝图数量 |
| (数据自动化)最大 JSON 蓝图大小(字符) | 每个受支持的区域:10 万个 | 否 | JSON 的最大大小(以字符为单位) |
| (数据自动化)字段层次结构的最大级别 | 每个受支持的区域:1 个 | 否 | 字段层次结构的最大数字级别 |
| (数据自动化)每个文档的最大页数 | 每个受支持的区域:3000 个 | 否 | 每个文档的最大页数 |
| (数据自动化)最大分辨率 | 每个受支持的区域:8000 个 | 否 | 图像的最大分辨率 |
| (数据自动化)最大音频文件大小(MB) | 每个受支持的区域:2048 个 | 否 | 音频的最大文件大小 |
| (数据自动化)最大音频长度(分钟) | 每个支持的区域:240 | 否 | 音频的最大长度(以分钟为单位) |
| (数据自动化)最大文档文件大小(MB) | 每个受支持的区域:500 个 | 否 | 最大文件大小 |
| (数据自动化)最大图像文件大小(MB) | 每个受支持的区域:5 个 | 否 | 图像的最大文件大小 |
| (数据自动化)每个开始推理请求的最大蓝图数量(音频) | 每个受支持的区域:1 个 | 否 | 开始推理请求中内联蓝图的最大数量 |
| (数据自动化)每个开始推理请求的最大蓝图数量(文档) | 每个受支持的区域:10 个 | 否 | 开始推理请求中内联蓝图的最大数量 |
| (数据自动化)每个开始推理请求的最大蓝图数量(图像) | 每个受支持的区域:1 个 | 否 | 开始推理请求中内联蓝图的最大数量 |
| (数据自动化)每个开始推理请求的最大蓝图数量(视频) | 每个受支持的区域:1 个 | 否 | 开始推理请求中内联蓝图的最大数量 |
| (数据自动化)每个蓝图的最大列表字段数量 | 每个受支持的区域:15 个 | 否 | 每个蓝图的最大列表字段数量 |
| (数据自动化)最大视频文件大小(MB) | 每个受支持的区域:10240 个 | 否 | 视频的最大文件大小 |
| (数据自动化)最大视频长度(分钟) | 每个支持的区域:240 | 否 | 视频的最大长度(以分钟为单位) |
| (数据自动化)最低音频采样率(Hz) | 每个受支持的区域:8000 个 | 否 | 最低音频采样率 |
| (数据自动化)最小音频长度(毫秒) | 每个受支持的区域:500 个 | 否 | 音频的最小长度(以毫秒为单位) |
| (评测)并发自动模型评测作业数量 | 每个受支持的区域:20 个 | 否 | 在当前区域内的此账户中,您一次可以指定的最大自动模型评测作业数量。 |
| (评测)使用人工的并发模型评测作业数量 | 每个受支持的区域:10 个 | 否 | 在当前区域内的此账户中,您一次可以指定的使用人工的最大模型评测作业数量。 |
| (评测)自定义指标的数量 | 每个受支持的区域:10 个 | 否 | 在使用人工的模型评测作业中,您可以指定的最大自定义指标数量。 |
| (评测)在基于人工的模型评测作业中的自定义提示数据集数量 | 每个受支持的区域:1 个 | 否 | 在当前区域的此账户中基于人工的模型评测作业内,您可以指定的最大自定义提示数据集的数量。 |
| (评测)每个作业的数据集数量 | 每个受支持的区域:5 个 | 否 | 在自动模型评测作业中,您可以指定的最大数据集数量。这既包括自定义数据集,也包括内置提示数据集。 |
| (评测)评测作业数量 | 每个受支持的区域:5000 个 | 否 | 在当前区域内的此账户中,您可以创建的模型评测的最大数量。 |
| (评测)每个数据集的指标数量 | 每个受支持的区域:3 个 | 否 | 在自动模型评测作业中,您可以为每个数据集指定的最大指标数量。这既包括自定义指标,也包括内置指标。 |
| (评测)使用人工的模型评测作业中的模型数量 | 每个受支持的区域:2 个 | 否 | 在使用人工的模型评测作业中,您可以指定的最大模型数量。 |
| (评测)自动模型评测作业中的模型数量 | 每个受支持的区域:1 个 | 否 | 在自动模型评测作业中,您可以指定的最大模型数量。 |
| (评测)自定义提示数据集中的提示数量 | 每个受支持的区域:1000 个 | 否 | 自定义提示数据集可以包含的最大提示数量。 |
| (评测)提示的大小 | 每个受支持的区域:4 个 | 否 | 自定义提示数据集中单个提示的最大大小(以 KB 为单位)。 |
| (评测)工作线程的任务时间 | 每个受支持的区域:30 个 | 否 | 工作线程完成任务允许的最大时间长度(以天为单位)。 |
| (流)每个流的代理节点数 | 每个受支持的区域:20 个 | 否 | 代理节点的最大数量。 |
| (流)每个流的收集器节点数 | 每个受支持的区域:1 个 | 否 | 收集器节点的最大数量。 |
| (流)每个流的条件节点数 | 每个受支持的区域:5 个 | 否 | 条件节点的最大数量。 |
| (流)每个条件节点的条件数 | 每个受支持的区域:5 个 | 否 | 每个条件节点的条件的最大数量。 |
| 每秒(流量) CreateFlow 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 CreateFlow 请求数。 |
| 每秒(流量) CreateFlowAlias 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 CreateFlowAlias 请求数。 |
| 每秒(流量) CreateFlowVersion 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 CreateFlowVersion 请求数。 |
| 每秒(流量) DeleteFlow 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 DeleteFlow 请求数。 |
| 每秒(流量) DeleteFlowAlias 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 DeleteFlowAlias 请求数。 |
| 每秒(流量) DeleteFlowVersion 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 DeleteFlowVersion 请求数。 |
| (流)每个流的流别名数 | 每个受支持的区域:10 个 | 否 | 流别名的最大数量。 |
| (流)每个账户的流执行数 | 每个受支持的区域:1,000 个 | 是 |
每个账户的最大流执行数量。 |
| (流)每个流的流版本数 | 每个受支持的区域:10 个 | 否 | 流版本的最大数量。 |
| (流)每个账户的流数 | 每个受支持的区域:100 个 | 是 |
每个账户的最大流数量。 |
| 每秒(流量) GetFlow 请求数 | 每个受支持的区域:10 个 | 否 | 每秒的最大 GetFlow 请求数。 |
| 每秒(流量) GetFlowAlias 请求数 | 每个受支持的区域:10 个 | 否 | 每秒的最大 GetFlowAlias 请求数。 |
| 每秒(流量) GetFlowVersion 请求数 | 每个受支持的区域:10 个 | 否 | 每秒的最大 GetFlowVersion 请求数。 |
| (流)每个流的内联代码节点数 | 每个受支持的区域:5 个 | 否 | 每个流的最大内联代码节点数量。 |
| (流)每个流的输入节点数 | 每个受支持的区域:1 个 | 否 | 流输入节点的最大数量。 |
| (流)每个流的迭代器节点数 | 每个受支持的区域:1 个 | 否 | 迭代器节点的最大数量。 |
| (流)每个流的知识库节点数 | 每个受支持的区域:20 个 | 否 | 知识库节点的最大数量。 |
| (流)每个流的 Lambda 函数节点数 | 每个受支持的区域:20 个 | 否 | Lambda 函数节点的最大数量。 |
| (流)每个流的 Lex 节点数 | 每个受支持的区域:5 个 | 否 | Lex 节点的最大数量。 |
| 每秒(流量) ListFlowAliases 请求数 | 每个受支持的区域:10 个 | 否 | 每秒的最大 ListFlowAliases 请求数。 |
| 每秒(流量) ListFlowVersions 请求数 | 每个受支持的区域:10 个 | 否 | 每秒的最大 ListFlowVersions 请求数。 |
| 每秒(流量) ListFlows 请求数 | 每个受支持的区域:10 个 | 否 | 每秒的最大 ListFlows 请求数。 |
| (流)每个流的输出节点数 | 每个受支持的区域:20 个 | 否 | 流输出节点的最大数量。 |
| 每秒(流量) PrepareFlow 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 PrepareFlow 请求数。 |
| (流)每个流的提示节点数 | 每个受支持的区域:20 个 | 是 |
提示节点的最大数量。 |
| (流)每个流的 S3 检索节点数 | 每个受支持的区域:10 个 | 否 | S3 检索节点的最大数量。 |
| (流)每个流的 S3 存储节点数 | 每个受支持的区域:10 个 | 否 | S3 存储节点的最大数量。 |
| (流)每个流的节点总数 | 每个受支持的区域:40 个 | 否 | 流中节点的最大数量。 |
| 每秒(流量) UpdateFlow 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 UpdateFlow 请求数。 |
| 每秒(流量) UpdateFlowAlias 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 UpdateFlowAlias 请求数。 |
| 每秒(流量) ValidateFlowDefinition 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 ValidateFlowDefinition 请求数。 |
| (护栏)每个护栏的自动推理策略数 | 每个受支持的区域:2 个 | 否 | 每个护栏的最大自动推理策略数量。 |
| (护栏)上下文接地查询长度(以文本为单位) | 每个受支持的区域:1 个 | 否 | 上下文接地查询的最大长度(以文本为单位) |
| (护栏)上下文接地响应长度(以文本为单位) | 每个受支持的区域:5 个 | 否 | 上下文接地响应的最大长度(以文本为单位) |
| (护栏)上下文接地源长度(以文本为单位) |
us-east-1:100 个 us-west-2:100 个 每个其他支持的区域:50 个 |
否 | 上下文接地源的最大长度(以文本为单位) |
| (护栏)每个主题的示例短语数 | 每个受支持的区域:5 个 | 否 | 每个主题可以包含的最大主题示例数量 |
| (护栏)每个账户的护栏数 | 每个受支持的区域:100 个 | 否 | 账户中的最大护栏数量 |
| (Guardrails)按需 ApplyGuardrail 内容筛选策略每秒文本单位数 |
us-east-1:200 个 us-west-2:200 个 每个其他支持的区域:25 个 |
是 |
内容筛选策略每秒可处理的最大文本单元数量 |
| (Guardrails)按需 ApplyGuardrail 内容筛选策略每秒文本单位(标准) |
us-east-1:200 个 us-west-2:200 个 每个其他支持的区域:25 个 |
是 |
内容筛选策略每秒可处理的最大文本单元数量。这适用于标准内容策略模型。 |
| (Guardrails)按需 ApplyGuardrail 拒绝的主题策略每秒文本单位数 |
us-east-1:50 us-west-2:50 每个其他支持的区域:25 个 |
是 |
被拒主题策略每秒可处理的最大文本单元数量 |
| (Guardrails)按需 ApplyGuardrail 拒绝的主题策略每秒文本单位数(标准) |
us-east-1:200 个 us-west-2:200 个 每个其他支持的区域:25 个 |
是 |
被拒主题策略每秒可处理的最大文本单元数量。这适用于标准主题策略模型。 |
| (Guardrails)按需 ApplyGuardrail 敏感信息筛选策略文本单位每秒 |
us-east-1:200 个 us-west-2:200 个 每个其他支持的区域:25 个 |
是 |
敏感信息筛选策略每秒可处理的最大文本单元数量 |
| (Guardrails)按需 ApplyGuardrail Word 筛选策略每秒文本单位数 |
us-east-1:200 个 us-west-2:200 个 每个其他支持的区域:25 个 |
是 |
字词筛选策略每秒可处理的最大文本单元数量 |
| (Guardrails)按需 ApplyGuardrail 上下文基础策略每秒文本单位 | 每个支持的区域:106 | 是 |
上下文接地策略每秒可处理的最大文本单元数量 |
| (护栏)每秒按需 ApplyGuardrail 请求数 |
us-east-1:50 us-west-2:50 每个其他支持的区域:25 个 |
是 |
每秒允许的最大 ApplyGuardrail API 调用次数 |
| (护栏)敏感信息筛选条件中的正则表达式实体 | 每个受支持的区域:10 个 | 否 | 可包含在敏感信息策略中的护栏筛选条件正则表达式的最大数量 |
| (护栏)正则表达式长度(以字符为单位) | 每个受支持的区域:500 个 | 否 | 护栏筛选条件正则表达式的最大长度(以字符为单位) |
| (护栏)每个护栏的主题数 | 每个受支持的区域:30 个 | 否 | 可以在不同护栏主题策略中定义的最大主题数 |
| (护栏)每个护栏的版本数 | 每个受支持的区域:20 个 | 否 | 护栏可以具有的最大版本数量 |
| (护栏)字词长度(以字符为单位) | 每个受支持的区域:100 个 | 否 | 屏蔽字词列表中字词的最大长度(以字符为单位) |
| (护栏)字词策略规定的字词数 | 每个受支持的区域:1 万个 | 否 | 屏蔽字词列表中可以包含的最大字词数 |
| (知识库)并发数 IngestKnowledgeBaseDocuments 和每个账户的 DeleteKnowledgeBaseDocuments 请求数 | 每个受支持的区域:10 个 | 否 | 一个账户中可以同时运行的 IngestKnowledgeBaseDocuments 和 DeleteKnowledgeBaseDocuments 请求的最大数量。 |
| (知识库)每个账户的并发摄取作业数 | 每个受支持的区域:5 个 | 否 | 可在账户中同时运行的摄取作业的最大数量。 |
| (知识库)每个数据来源的并发摄取作业数 | 每个受支持的区域:1 个 | 否 | 一个数据来源可同时运行的摄取作业的最大数量。 |
| (知识库)每个知识库的并发摄取作业数 | 每个受支持的区域:1 个 | 否 | 一个知识库可同时运行的摄取作业的最大数量。 |
| (知识库)每秒 CreateDataSource 请求数 | 每个受支持的区域:2 个 | 否 | 每秒 CreateDataSource API 请求的最大数量。 |
| (知识库)每秒 CreateKnowledgeBase 请求数 | 每个受支持的区域:2 个 | 否 | 每秒 CreateKnowledgeBase API 请求的最大数量。 |
| (知识库)每个知识库的数据来源数 | 每个受支持的区域:5 个 | 否 | 每个知识库的数据来源的最大数量。 |
| (知识库)每秒 DeleteDataSource 请求数 | 每个受支持的区域:2 个 | 否 | 每秒 DeleteDataSource API 请求的最大数量。 |
| (知识库)每秒 DeleteKnowledgeBase 请求数 | 每个受支持的区域:2 个 | 否 | 每秒 DeleteKnowledgeBase API 请求的最大数量。 |
| (知识库)每秒 DeleteKnowledgeBaseDocuments 请求数 | 每个受支持的区域:5 个 | 否 | 每秒 DeleteKnowledgeBaseDocuments API 请求的最大数量。 |
| (知识库)每个摄取作业要添加或更新的文件数 | 每个支持的区域:5 百万个 | 否 | 每个摄取作业可摄取的新文件和更新文件的最大数量。 |
| (知识库)每个摄取作业要删除的文件数 | 每个支持的区域:5 百万个 | 否 | 每个摄取作业可以删除的最大文件数。 |
| (知识库)每个 IngestKnowledgeBaseDocuments 作业要收录的文件。 | 每个受支持的区域:25 个 | 否 | 每个 IngestKnowledgeBaseDocuments 请求可以载入的最大文档数。 |
| (知识库)每秒 GenerateQuery 请求数 | 每个受支持的区域:2 个 | 否 | 每秒 GenerateQuery API 请求的最大数量。 |
| (知识库)每秒 GetDataSource 请求数 | 每个受支持的区域:10 个 | 否 | 每秒 GetDataSource API 请求的最大数量。 |
| (知识库)每秒 GetIngestionJob 请求数 | 每个受支持的区域:10 个 | 否 | 每秒 GetIngestionJob API 请求的最大数量。 |
| (知识库)每秒 GetKnowledgeBase 请求数 | 每个受支持的区域:10 个 | 否 | 每秒 GetKnowledgeBase API 请求的最大数量。 |
| (知识库)每秒 GetKnowledgeBaseDocuments 请求数 | 每个受支持的区域:5 个 | 否 | 每秒 GetKnowledgeBaseDocuments API 请求的最大数量。 |
| (知识库)每秒 IngestKnowledgeBaseDocuments 请求数 | 每个受支持的区域:5 个 | 否 | 每秒 IngestKnowledgeBaseDocuments API 请求的最大数量。 |
| (知识库) IngestKnowledgeBaseDocuments 总有效载荷大小 | 每个受支持的区域:6 个 | 否 | IngestKnowledgeBaseDocuments 请求中总负载的最大大小(以 MB 为单位)。 |
| (知识库)摄取作业文件大小 | 每个受支持的区域:50 个 | 否 | 摄取作业中文件的最大大小(以 MB 为单位)。 |
| (知识库)摄取作业大小 | 每个受支持的区域:100 个 | 否 | 摄取作业的最大大小(以 GB 为单位)。 |
| (知识库)每个账户的知识库 | 每个受支持的区域:100 个 | 否 | 每个账户知识库的最大数量。 |
| (知识库)每秒 ListDataSources 请求数 | 每个受支持的区域:10 个 | 否 | 每秒 ListDataSources API 请求的最大数量。 |
| (知识库)每秒 ListIngestionJobs 请求数 | 每个受支持的区域:10 个 | 否 | 每秒 ListIngestionJobs API 请求的最大数量。 |
| (知识库)每秒 ListKnowledgeBaseDocuments 请求数 | 每个受支持的区域:5 个 | 否 | 每秒 ListKnowledgeBaseDocuments API 请求的最大数量。 |
| (知识库)每秒 ListKnowledgeBases 请求数 | 每个受支持的区域:10 个 | 否 | 每秒 ListKnowledgeBases API 请求的最大数量。 |
| (知识库)BDA 解析器的最大文件数量 | 每个受支持的区域:1000 个 | 否 | 将 Amazon Bedrock 数据自动化作为解析器时可以使用的最大文件数量。 |
| (知识库)将基础模型作为解析器时的最大文件数量。 | 每个受支持的区域:1000 个 | 否 | 将基础模型作为解析器时可以使用的文件的最大数量。 |
| (知识库)每秒的 Rerank 请求数 | 每个受支持的区域:10 个 | 否 | 每秒 Rerank API 请求的最大数量。 |
| (知识库)每秒的 Retrieve 请求数 | 每个受支持的区域:20 个 | 否 | 每秒 Retrieve API 请求的最大数量。 |
| (知识库)每秒 RetrieveAndGenerate 请求数 | 每个受支持的区域:20 个 | 否 | 每秒 RetrieveAndGenerate API 请求的最大数量。 |
| (知识库)每秒 RetrieveAndGenerateStream 请求数 | 每个受支持的区域:20 个 | 否 | 每秒 RetrieveAndGenerateStream API 请求的最大数量。 |
| (知识库)每秒 StartIngestionJob 请求数 | 每个支持的区域:0.1 | 否 | 每秒 StartIngestionJob API 请求的最大数量。 |
| (知识库)每秒 UpdateDataSource 请求数 | 每个受支持的区域:2 个 | 否 | 每秒 UpdateDataSource API 请求的最大数量。 |
| (知识库)每秒 UpdateKnowledgeBase 请求数 | 每个受支持的区域:2 个 | 否 | 每秒 UpdateKnowledgeBase API 请求的最大数量。 |
| (知识库)用户查询大小 | 每个受支持的区域:1000 个 | 否 | 用户查询的最大大小(以字符为单位)。 |
| (模型自定义)每个账户的自定义模型数 | 每个受支持的区域:100 个 | 是 |
账户中自定义模型的最大数量。 |
| (模型自定义)正在进行的自定义模型部署数 | 每个受支持的区域:2 个 | 是 |
正在进行的自定义模型部署的最大数量 |
| (模型自定义)蒸馏自定义作业的输入文件最大大小 | 每个受支持的区域:2 GB | 否 | 蒸馏自定义作业的输入文件最大大小。 |
| (模型自定义)蒸馏自定义作业的最大行长度 | 每个受支持的区域:16 KB | 否 | 蒸馏自定义作业的最大行长度。 |
| (模型自定义)蒸馏自定义作业的提示最大数量 | 每个受支持的区域:1.5 万个 | 否 | 蒸馏自定义作业所需的提示最大数量。 |
| (模型自定义)Amazon Nova Canvas 微调作业的训练记录最大数量 | 每个受支持的区域:10000 个 | 是 |
Amazon Nova Canvas 微调任务允许的最大记录数。 |
| (模型自定义)Amazon Nova Micro V1 蒸馏自定义作业的最大学生式模型微调上下文长度 | 每个支持的区域:32,000 | 否 | Amazon Nova Micro V1 蒸馏自定义作业的最大学生式模型微调上下文长度。 |
| (模型自定义)Amazon Nova V1 蒸馏自定义作业的最大学生式模型微调上下文长度 | 每个支持的区域:32,000 | 否 | Amazon Nova V1 蒸馏自定义作业的最大学生式模型微调上下文长度。 |
| (模型自定义)Anthropic Claude 3 haiku 20240307 V1 蒸馏自定义作业的最大学生式模型微调上下文长度 | 每个支持的区域:32,000 | 否 | Anthropic Claude 3 haiku 20240307 V1 蒸馏自定义作业的最大学生式模型微调上下文长度 |
| (模型自定义)Llama 3.1 70B Instruct V1 蒸馏自定义作业的最大学生式模型微调上下文长度 | 每个受支持的区域:1.6 万个 | 否 | Llama 3.1 70B Instruct V1 蒸馏自定义作业的最大学生式模型微调上下文长度。 |
| (模型自定义)Llama 3.1 8B Instruct V1 蒸馏自定义作业的最大学生式模型微调上下文长度 | 每个支持的区域:32,000 | 否 | Llama 3.1 8B Instruct V1 蒸馏自定义作业的最大学生式模型微调上下文长度。 |
| (模型自定义)蒸馏自定义作业的最小提示数量 | 每个受支持的区域:100 个 | 否 | 蒸馏自定义作业所需的最小提示数量。 |
| (模型自定义)计划的自定义作业数 | 每个受支持的区域:10 个 | 否 | 计划自定义作业的最大数量。 |
| (模型自定义)Amazon Nova 2 Lite 每分钟按需定制模型部署请求总和 | 每个受支持的区域:2,000 个 | 否 | 每分钟提交给 Converse、、、和 Amazon Nova 2 Lit ConverseStream e 的按需自定义模型部署请求的总和 InvokeModel InvokeModelWithResponseStream |
| (模型自定义)Amazon Nova Lite 每分钟按需自定义模型部署请求总和 | 每个受支持的区域:2,000 个 | 否 | 每分钟向 Converse、 ConverseStream、和 Amazon Nova Lite InvokeModelWithResponseStream 操作提交的按需自定义模型部署请求的总和 InvokeModel |
| (模型自定义)Amazon Nova Micro 每分钟按需自定义模型部署请求总和 | 每个受支持的区域:2,000 个 | 否 | 每分钟向 Converse、、 ConverseStream和 Amazon Nova Micro 提交的按需自定义模型部署请求和 InvokeModelWithResponseStream 操作的总和 InvokeModel |
| (模型自定义)Amazon Nova Pro 每分钟按需自定义模型部署请求总和 | 每个受支持的区域:200 个 | 否 | 每分钟向 Converse、、 ConverseStream和 Amazon Nova Pro 提交的按需自定义模型部署请求和 InvokeModelWithResponseStream 操作的总和 InvokeModel |
| (模型自定义)Meta Llama 3.3 70B Instruct 每分钟按需自定义模型部署请求总和 | 每个受支持的区域:400 个 | 否 | 每分钟向 Converse、、 ConverseStream和 Meta Llama 3.3 70B Instruct 提交的按需输入和 InvokeModelWithResponseStream 输出自定义模型部署请求的总和 InvokeModel |
| (模型自定义)Amazon Nova 2 Lite 每天的按需定制模型部署令牌总和 | 每个受支持的区域:57.6 亿个 | 否 | 每天提交给 Converse、、 ConverseStream、和 Amazon Nova 2 Lite InvokeModelWithResponseStream 操作的按需输入和输出自定义模型部署令牌的总和 InvokeModel |
| (模型自定义)Amazon Nova Lite 每日按需自定义模型部署词元总和 | 每个受支持的区域:57.6 亿个 | 否 | 每天提交给 Converse、、 ConverseStream、和 Amazon Nova Lite InvokeModelWithResponseStream 操作的按需输入和输出自定义模型部署令牌的总和 InvokeModel |
| (模型自定义)Amazon Nova Micro 每日按需自定义模型部署词元总和 | 每个受支持的区域:57.6 亿个 | 否 | 每天提交给 Converse、、、 ConverseStream和 Amazon Nova Micro InvokeModelWithResponseStream 操作的按需输入和输出自定义模型部署令牌的总和 InvokeModel |
| (模型自定义)Amazon Nova Pro 每日按需自定义模型部署词元总和 | 每个受支持的区域:11.52 亿个 | 否 | 每天提交给 Converse、、 ConverseStream、和 Amazon Nova Pro InvokeModelWithResponseStream 操作的按需输入和输出自定义模型部署令牌的总和 InvokeModel |
| (模型自定义)Meta Llama 3.3 70B Instruct 每日按需自定义模型部署词元总和 | 每个受支持的区域:4.32 亿个 | 否 | 每天提交给 Converse、、 ConverseStream和 Meta Llama 3.3 70B Instruct 的按需自定义模型部署令牌的输入和 InvokeModelWithResponseStream 输出总和 InvokeModel |
| (模型自定义)Amazon Nova 2 Lite 每分钟按需定制模型部署令牌总和 | 每个受支持的区域:400 万个 | 否 | 每分钟提交给 Converse、 ConverseStream、、和 Amazon Nova 2 Lite InvokeModelWithResponseStream 操作的按需输入和输出自定义模型部署令牌的总和 InvokeModel |
| (模型自定义)Amazon Nova Lite 每分钟按需自定义模型部署词元总和 | 每个受支持的区域:400 万个 | 否 | 每分钟提交给 Converse、、 ConverseStream、和 Amazon Nova Lite InvokeModelWithResponseStream 操作的按需输入和输出自定义模型部署令牌的总和 InvokeModel |
| (模型自定义)Amazon Nova Micro 每分钟按需自定义模型部署词元总和 | 每个受支持的区域:400 万个 | 否 | 每分钟提交给 Converse、、 ConverseStream、和 Amazon Nova Micro InvokeModelWithResponseStream 操作的按需输入和输出自定义模型部署令牌的总和 InvokeModel |
| (模型自定义)Amazon Nova Pro 每分钟按需自定义模型部署词元总和 | 每个支持的区域:800,000 | 否 | 每分钟提交给 Converse、、 ConverseStream、和 Amazon Nova Pro InvokeModelWithResponseStream 操作的按需输入和输出自定义模型部署令牌的总和 InvokeModel |
| (模型自定义)Meta Llama 3.3 70B Instruct 每分钟按需自定义模型部署词元总和 | 每个受支持的区域:30 万个 | 否 | 每分钟提交给 Converse、、 ConverseStream和 Meta Llama 3.3 70B Instruct InvokeModelWithResponseStream 操作的按需输入和输出自定义模型部署令牌的总和 InvokeModel |
| (模型自定义)Amazon Nova 2 Lite 微调作业的训练和验证记录总和 | 每个支持的区域:2 万个 | 是 |
Amazon Nova 2 Lite 微调作业允许的最大训练和验证记录总数。 |
| (模型自定义)Amazon Nova Lite 微调作业的训练和验证记录总和 | 每个支持的区域:2 万个 | 是 |
Amazon Nova Lite 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Amazon Nova Micro 微调作业的训练和验证记录总和 | 每个支持的区域:2 万个 | 是 |
Amazon Nova Micro 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Amazon Nova Pro 微调作业的训练和验证记录总和 | 每个支持的区域:2 万个 | 是 |
Amazon Nova Pro 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Claude 3 Haiku v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Claude 3 Haiku 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Claude 3-5 Haiku v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Claude 3-5 Haiku 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Meta Llama 2 13B v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Meta Llama 2 13B 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Meta Llama 2 70B v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Meta Llama 2 70B 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Meta Llama 3.1 70B Instruct v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Meta Llama 3.1 70B Instruct 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Meta Llama 3.1 8B Instruct v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Meta Llama 3.1 8B Instruct 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Meta Llama 3.2 11B Instruct v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Meta Llama 3.2 11B Instruct 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Meta Llama 3.2 1B Instruct v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Meta Llama 3.2 1B Instruct 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Meta Llama 3.2 3B Instruct v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Meta Llama 3.2 3B Instruct 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Meta Llama 3.2 90B Instruct v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Meta Llama 3.2 90B Instruct 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Meta Llama 3.3 70B Instruct v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Meta Llama 3.3 70B Instruct 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Titan 图像生成器 G1 V1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Titan 图像生成器微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Titan 图像生成器 G1 V2 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Titan 图像生成器 V2 微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Titan 多模态嵌入 G1 v1 微调作业的训练和验证记录总和 | 每个受支持的区域:50,000 个 | 是 |
Titan 多模态嵌入微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Titan Text G1 – 快捷版 v1 持续预训练作业的训练和验证记录总和 | 每个受支持的区域:10 万个 | 是 |
Titan Text 快捷版持续预训练作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Titan Text G1 – 快捷版 v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Titan Text 快捷版微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Titan Text G1 – 简捷版 v1 持续预训练作业的训练和验证记录总和 | 每个受支持的区域:10 万个 | 是 |
Titan Text 简捷版持续预训练作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Titan Text G1 – 简捷版 v1 微调作业的训练和验证记录总和 | 每个受支持的区域:10000 个 | 是 |
Titan Text 简捷版微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)Titan Text G1 – 高级版 v1 微调作业的训练和验证记录总和 | 每个支持的区域:2 万个 | 是 |
Titan Text 高级版微调作业允许的训练和验证记录的最大组合数量。 |
| (模型自定义)自定义模型部署总数 | 每个受支持的区域:10 个 | 是 |
自定义模型部署总数 |
| (提示管理)每秒 CreatePrompt 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 CreatePrompt 请求数。 |
| (提示管理)每秒 CreatePromptVersion 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 CreatePromptVersion 请求数。 |
| (提示管理)每秒 DeletePrompt 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 DeletePrompt 请求数。 |
| (提示管理)每秒 GetPrompt 请求数 | 每个受支持的区域:10 个 | 否 | 每秒的最大 GetPrompt 请求数。 |
| (提示管理)每秒 ListPrompts 请求数 | 每个受支持的区域:10 个 | 否 | 每秒的最大 ListPrompts 请求数。 |
| (提示管理)每个账户的提示数 | 每个受支持的区域:500 个 | 是 |
提示的最大数量。 |
| (提示管理)每秒 UpdatePrompt 请求数 | 每个受支持的区域:2 个 | 否 | 每秒的最大 UpdatePrompt 请求数。 |
| (提示管理)每个提示的版本数 | 每个受支持的区域:10 个 | 否 | 每个提示的最大版本数量。 |
| APIs 每位代理 | 每个受支持的区域:11 个 | 是 |
您可以 APIs 向代理添加的最大数量。 |
| 每个代理的操作组数 | 每个受支持的区域:20 个 | 是 |
可以添加到代理的操作组的最大数量。 |
| 每个代理的代理协作者数 | 每个受支持的区域:1,000 个 | 是 |
可以添加到代理的协作者代理的最大数量。 |
| 每个账户的代理数 | 每个受支持的区域:1,000 个 | 是 |
账户中代理的最大数量。 |
| AssociateAgentKnowledgeBase 每秒请求数 | 每个受支持的区域:6 个 | 否 | 每秒 AssociateAgentKnowledgeBase API 请求的最大数量。 |
| 每个代理的关联别名数 | 每个受支持的区域:10 个 | 否 | 您可以与代理关联的别名的最大数量 |
| 每个代理的相关知识库数 | 每个受支持的区域:2 个 | 是 |
您可以与代理关联的知识库的最大数量。 |
| Amazon Nova 2 多模式嵌入式 V1 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Amazon Nova 2 多模式嵌入式 V1 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Amazon Nova Premier 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Amazon Nova Premier 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Claude 3 Haiku 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Claude 3 Haiku 批量推理的单个文件的最大大小(以 GB 为单位) |
| Claude 3 Opus 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Claude 3 Opus 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Claude 3 Sonnet 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Claude 3 Sonnet 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Claude 3.5 Haiku 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Claude 3.5 Haiku 批量推理的单个文件的最大大小(以 GB 为单位) |
| Claude 3.5 Sonnet 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Claude 3.5 Sonnet 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Claude 3.5 Sonnet v2 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Claude 3.5 Sonnet v2 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Claude 3.7 Sonnet 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 是 |
提交用于 Claude 3.7 Sonnet 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Claude Haiku 4.5 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Claude Haiku 4.5 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Claude Opus 4.5 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Claude Opus 4.5 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Claude Opus 4.6 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Claude Opus 4.6 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Claude Sonnet 4 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 是 |
提交用于 Claude Sonnet 4 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Claude Sonnet 4.5 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Claude Sonnet 4.5 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Claude Sonnet 4.6 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | Claude Sonnet 4.6 中提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| V3.2 的 Batch 推理输入文件大小(以 GB 为 DeepSeek 单位) | 每个受支持的区域:1 个 | 否 | 为 DeepSeek V3.2 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| v3 的批量推断输入文件大小(以 GB 为 DeepSeek 单位) | 每个受支持的区域:1 个 | 否 | 提交以进行 DeepSeek v3 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Devstral 2 123B 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Devstral 2 123B 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| GLM 4.7 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 GLM 4.7 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| GLM 4.7 Flash 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 GLM 4.7 Flash 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Gemma 3 12B 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Gemma 3 12B 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Gemma 3 27B 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Gemma 3 27B 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Gemma 3 4B 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Gemma 3 4B 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Kimi K2 Thinking 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交给 Kimi K2 Thinking 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Kimi K2.5 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Kimi K2.5 提交以进行批量推断的单个文件的最大大小(以 GB 为单位)。 |
| Llama 3.1 405B Instruct 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Llama 3.1 405B Instruct 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Llama 3.1 70B Instruct 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Llama 3.1 70B Instruct 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Llama 3.1 8B Instruct 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Llama 3.1 8B Instruct 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Llama 3.2 11B Instruct 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Llama 3.2 11B Instruct 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Llama 3.2 1B Instruct 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Llama 3.2 1B Instruct 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Llama 3.2 3B Instruct 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Llama 3.2 3B Instruct 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Llama 3.2 90B Instruct 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Llama 3.2 90B Instruct 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Llama 3.3 70B Instruct 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Llama 3.3 70B Instruct 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Llama 4 Maverick 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Llama 4 Maverick 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Llama 4 Scout 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Llama 4 Scout 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Magistral Small 2509 的 Batch 推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Magistral Small 2509 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| M2 的批量推断输入文件大小(以 GB 为 MiniMax 单位) | 每个受支持的区域:1 个 | 否 | 提交以进行 MiniMax M2 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| M2.1 的批量推断输入文件大小(以 GB 为 MiniMax 单位) | 每个受支持的区域:1 个 | 否 | 提交以进行 MiniMax M2.1 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Ministral 3 14B 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Ministral 3 14B 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Ministral 3 8B 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Ministral 3 8B 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Ministral 3B 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Ministral 3B 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Mistral Large 2 (24.07) 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Mistral Large 2 (24.07) 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Mistral Large 3 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Mistral Large 3 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Mistral Small 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Mistral Small 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| NVIDIA Nemotron Nano 12B 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交给 NVIDIA Nemotron Nano 12B 进行批量推理的单个文件的最大大小(以 GB 为单位)。 |
| NVIDIA Nemotron Nano 3 30B 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交给 NVIDIA Nemotron Nano 3 30B 进行批量推理的单个文件的最大大小(以 GB 为单位)。 |
| NVIDIA Nemotron Nano 9B 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交给 NVIDIA Nemotron Nano 9B 进行批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Nova 2 Lite 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Nova 2 Lite 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Nova Lite V1 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Nova Lite V1 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Nova Micro V1 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Nova Micro V1 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Nova Pro V1 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Nova Pro V1 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| OpenAI GPT OSS 120b 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 OpenAI GPT OSS 120b 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| OpenAI GPT OSS 20b 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 OpenAI GPT OSS 20b 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| OpenAI GPT OSS Safeguard 120b 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 OpenAI GPT OSS Safeguard 120b 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| OpenAI GPT OSS Safeguard 20b 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 OpenAI GPT OSS Safeguard 20b 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Qwen3 235B 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Qwen3 235B 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Qwen3 32B 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Qwen3 32B 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Qwen3 Coder 30B 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Qwen3 Coder 30B 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Qwen3 Coder 480B 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Qwen3 Coder 480B 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Qwen3 Coder 的批量推理输入文件大小(以 GB 为单位)下一页 | 每个受支持的区域:1 个 | 否 | 提交给 Qwen3 Coder Next 进行批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Qwen3 Next 80B 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Qwen3 Next 80B 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Qwen3 VL 235B 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Qwen3 VL 235B 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Titan 多模态嵌入 G1 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Titan 多模态嵌入 G1 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Titan Text Embeddings V2 的批量推断输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 提交用于 Titan 文本嵌入 V2 批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Voxtral Mini 3B 2507 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Voxtral Mini 3B 2507 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Voxtral Small 24B 2507 的批量推理输入文件大小(以 GB 为单位) | 每个受支持的区域:1 个 | 否 | 为 Voxtral Small 24B 2507 提交用于批量推理的单个文件的最大大小(以 GB 为单位)。 |
| Qwen3 的批量推理任务大小(以 GB 为单位)Next 80B | 每个受支持的区域:5 个 | 否 | Qwen3 Next 80B 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Amazon Nova 2 多模式嵌入式 V1 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:100 个 | 否 | Amazon Nova 2 Multimodal Embeddings V1 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Amazon Nova Premier 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Amazon Nova Premier 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Claude 3 Haiku 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Claude 3 Haiku 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Claude 3 Opus 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Claude 3 Opus 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Claude 3 Sonnet 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Claude 3 Sonnet 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Claude 3.5 Haiku 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Claude 3.5 Haiku 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Claude 3.5 Sonnet 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Claude 3.5 Sonnet 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Claude 3.5 Sonnet v2 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Claude 3.5 Sonnet v2 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Claude 3.7 Sonnet 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 是 |
Claude 3.7 Sonnet 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Claude Haiku 4.5 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Claude Haiku 4.5 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Claude Opus 4.5 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Claude Opus 4.5 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Claude Opus 4.6 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Claude Opus 4.6 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Claude Sonnet 4 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 是 |
Claude Sonnet 4 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Claude Sonnet 4.5 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Claude Sonnet 4.5 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Claude Sonnet 4.6 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Claude Sonnet 4.6 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| V3.2 的批量推理任务大小(以 GB 为 DeepSeek 单位) | 每个受支持的区域:5 个 | 否 | DeepSeek V3.2 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| v3 的批量推理任务大小(以 GB 为 DeepSeek 单位) | 每个受支持的区域:5 个 | 否 | DeepSeek v3 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Devstral 2 123B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Devstral 2 123B 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| GLM 4.7 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | GLM 4.7 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| GLM 4.7 Flash 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | GLM 4.7 Flash 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Gemma 3 12B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Gemma 3 12B 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Gemma 3 27B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Gemma 3 27B 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Gemma 3 4B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Gemma 3 4B 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Kimi K2 Thinking 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Kimi K2 Thinking 批量推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Kimi K2.5 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Kimi K2.5 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Llama 3.1 405B Instruct 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Llama 3.1 405B Instruct 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Llama 3.1 70B Instruct 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Llama 3.1 70B Instruct 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Llama 3.1 8B Instruct 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Llama 3.1 8B Instruct 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Llama 3.2 11B Instruct 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Llama 3.2 11B Instruct 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Llama 3.2 1B Instruct 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Llama 3.2 1B Instruct 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Llama 3.2 3B Instruct 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Llama 3.2 3B Instruct 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Llama 3.2 90B Instruct 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Llama 3.2 90B Instruct 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Llama 3.3 70B Instruct 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Llama 3.3 70B Instruct 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Llama 4 Maverick 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Llama 4 Maverick 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Llama 4 Scout 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Llama 4 Scout 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Magistral Small 2509 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Magistral Small 2509 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| M2 的批量推理任务大小(以 GB 为 MiniMax 单位) | 每个受支持的区域:5 个 | 否 | MiniMax M2 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| M2.1 的批量推理任务大小(以 GB 为 MiniMax 单位) | 每个受支持的区域:5 个 | 否 | MiniMax M2.1 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Ministral 3 14B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Ministral 3 14B 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Ministral 3 8B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Ministral 3 8B 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Ministral 3B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Ministral 3B 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Mistral Large 2 (24.07) 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Mistral Large 2 (24.07) 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Mistral Large 3 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Mistral Large 3 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Mistral Small 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Mistral Small 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| NVIDIA Nemotron Nano 12B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | NVIDIA Nemotron Nano 12B 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| NVIDIA Nemotron Nano 3 30B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | NVIDIA Nemotron Nano 3 30B 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| NVIDIA Nemotron Nano 9B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | NVIDIA Nemotron Nano 9B 批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Nova Lite V1 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Nova Lite V1 批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Nova Micro V1 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Nova Micro V1 批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Nova Pro V1 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:100 个 | 否 | Nova Pro V1 批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| OpenAI GPT OSS 120b 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | OpenAI GPT OSS 120b 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| OpenAI GPT OSS 20b 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | OpenAI GPT OSS 20b 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| OpenAI GPT OSS Safeguard 120b 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | OpenAI GPT OSS Safeguard 120b 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| OpenAI GPT OSS Safeguard 20b 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | OpenAI GPT OSS Safeguard 20b 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Qwen3 235B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Qwen3 235B 批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Qwen3 32B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Qwen3 32B 批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Qwen3 Coder 30B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Qwen3 Coder 30B 批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Qwen3 Coder 480B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Qwen3 Coder 480B 批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Qwen3 Coder 的批量推理任务大小(以 GB 为单位)下一页 | 每个受支持的区域:5 个 | 否 | Qwen3 Coder Next 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Qwen3 VL 235B 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Qwen3 VL 235B 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Titan 多模态嵌入 G1 的批量推理作业大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Titan 多模态嵌入 G1 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Titan Text Embeddings V2 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Titan 文本嵌入 V2 的批量推理作业中包含的所有输入文件的最大累计大小(以 GB 为单位)。 |
| Voxtral Mini 3B 2507 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Voxtral Mini 3B 2507 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| Voxtral Small 24B 2507 的批量推理任务大小(以 GB 为单位) | 每个受支持的区域:5 个 | 否 | Voxtral Small 24B 2507 的批处理推理作业中包含的所有输入文件的最大累积大小(以 GB 为单位)。 |
| 代理说明中的字符数 | 每个受支持的区域:2 万个 | 否 | 代理指令中字符的最大数量。 |
| 并发模型导入作业数 | 每个受支持的区域:1 个 | 否 | 同时进行的模型导入作业的最大数量。 |
| CreateAgent 每秒请求数 | 每个受支持的区域:6 个 | 否 | 每秒 CreateAgent API 请求的最大数量。 |
| CreateAgentActionGroup 每秒请求数 | 每个受支持的区域:12 个 | 否 | 每秒 CreateAgentActionGroup API 请求的最大数量。 |
| CreateAgentAlias 每秒请求数 | 每个受支持的区域:2 个 | 否 | 每秒 CreateAgentAlias API 请求的最大数量。 |
| Anthropic Claude 3.5 Haiku 每分钟的跨区域模型推理请求数 | 每个受支持的区域:2,000 个 | 否 | 一分钟内您可以拨打 InvokeModel 的最大次数。 InvokeModelWithResponseStream 配额考虑了 Anthropic Claude 3.5 Haiku InvokeModel 和 InvokeModelWithResponseStream 代币的总和。 |
| Anthropic Claude 3.5 Sonnet V2 每分钟的跨区域模型推理请求数 |
us-west-2:500 个 每个其他支持的区域:100 个 |
否 | 对于 Anthropic Claude 3.5 Sonnet V2,在一分钟内可调用模型推理的最大次数。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Anthropic Claude 3.5 Haiku 每分钟的跨区域模型推理词元数 | 每个受支持的区域:400 万个 | 是 |
在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Anthropic Claude 3.5 Haiku ConverseStream 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 |
| Anthropic Claude 3.5 Sonnet V2 每分钟的跨区域模型推理词元数 |
us-west-2:400,000,000 其他支持的每个区域:800,000 |
是 |
对于 Anthropic Claude 3.5 Sonnet V2,在一分钟内可提交用于模型推理的词元最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Amazon Nova 2 Lite 每分钟的跨区域模型推理请求数 | 每个受支持的区域:2,000 个 | 否 | 您可以在一分钟内为 Amazon Nova 2 Lite 提交模型推断的最大跨区域请求数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova 2 Omni 的每分钟跨区域模型推理请求数 | 每个受支持的区域:2,000 个 | 否 | 您可以在一分钟内为 Amazon Nova 2 Omni 提交模型推断的最大跨区域请求数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova 2 Pro 预览版每分钟跨区域模型推理请求数 | 每个受支持的区域:100 个 | 否 | 您可以在一分钟内为 Amazon Nova 2 Pro 预览版提交模型推断的最大跨区域请求数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova Lite 每分钟的跨区域模型推理请求数 |
us-east-1:4,000 us-east-2:4,000 us-west-1:4,000 us-west-2:4,000 其他支持的每个区域:400 |
否 | 对于 Amazon Nova Lite,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova Micro 每分钟的跨区域模型推理请求数 |
us-east-1:4,000 us-east-2:4,000 us-west-2:4,000 其他支持的每个区域:400 |
否 | 对于 Amazon Nova Micro,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova Premier V1 每分钟的跨区域模型推理请求数 | 每个受支持的区域:500 个 | 否 | 对于 Amazon Nova Premier V1,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova Pro 每分钟的跨区域模型推理请求数 | 每个受支持的区域:500 个 | 否 | 对于 Amazon Nova Pro,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude 3 Haiku 每分钟的跨区域模型推理请求数 |
us-east-1:2,000 个 us-west-2:2,000 个 ap-northeast-1:400 ap-southeast-1:400 每个其他支持的区域:800 个 |
否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Anthropic Claude 3 InvokeModelWithResponseStream Haiku 的总 InvokeModel 和。 ConverseStream |
| Anthropic Claude 3 Opus 每分钟的跨区域模型推理请求数 | 每个受支持的区域:100 个 | 否 | 对于 Anthropic Claude 3 Opus,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude 3 Sonnet 每分钟的跨区域模型推理请求数 |
us-east-1:1000 个 us-west-2:1000 个 每个其他支持的区域:200 个 |
否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Anthropic Claude 3 Sonnet InvokeModelWithResponseStream 的总 InvokeModel 和。 ConverseStream |
| Anthropic Claude 3.5 Sonnet 每分钟的跨区域模型推理请求数 |
us-west-2:500 个 ap-northeast-1:40 ap-southeast-1:40 eu-central-1:40 eu-west-1:40 个 eu-west-3:40 每个其他支持的区域:100 个 |
否 | 对于 Anthropic Claude 3.5 Sonnet,在一分钟内可调用模型推理的最大次数。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Anthropic Claude 3.7 Sonnet V1 每分钟的跨区域模型推理请求数 |
us-east-1:250 us-east-2:250 us-west-2:250 eu-central-1:100 个 eu-north-1:100 eu-west-1:100 eu-west-3:100 每个其他支持的区域:50 个 |
否 | 对于 Anthropic Claude 3.7 Sonnet V1,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Haiku 4.5 每分钟的跨区域模型推理请求数 | 每个受支持的区域:1,000 个 | 是 |
对于 Anthropic Claude Haiku 4.5,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Opus 4 V1 每分钟的跨区域模型推理请求数 | 每个受支持的区域:200 个 | 否 | 对于 Anthropic Claude Opus 4 V1,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Opus 4.1 每分钟的跨区域模型推理请求数 | 每个受支持的区域:50 个 | 否 | 对于 Anthropic Claude Opus 4.1,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Opus 4.5 的每分钟跨区域模型推理请求数 | 每个受支持的区域:500 个 | 是 |
您可以在一分钟内为 Anthropic Claude Opus 4.5 提交模型推断的最大跨区域请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Opus 4.6 V1 的每分钟跨区域模型推理请求数 | 每个受支持的区域:500 个 | 是 |
您可以在一分钟内为 Anthropic Claude Opus 4.6 V1 提交模型推理的最大跨区域请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Opus 4.6 V1 1M 上下文长度的每分钟跨区域模型推理请求 | 每个受支持的区域:5 个 | 是 |
您可以在一分钟内为 Anthropic Claude Opus 4.6 V1 1M Context Length 提交模型推断的最大跨区域请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Sonnet 4 V1 每分钟的跨区域模型推理请求数 | 每个受支持的区域:200 个 | 是 |
对于 Anthropic Claude Sonnet 4 V1,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Sonnet 4 V1(100 万上下文长度)每分钟的跨区域模型推理请求 | 每个受支持的区域:5 个 | 是 |
对于 Anthropic Claude Sonnet 4 V1(100 万上下文长度),在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Sonnet 4.5 V1 每分钟的跨区域模型推理请求数 | 每个受支持的区域:1,000 个 | 是 |
对于 Anthropic Claude Sonnet 4.5 V1,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Sonnet 4.5 V1(100 万上下文长度)每分钟的跨区域模型推理请求数 | 每个受支持的区域:5 个 | 是 |
对于 Anthropic Claude Sonnet 4.5 V1(100 万上下文长度),在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Sonnet 4.6 每分钟的跨区域模型推理请求数 | 每个受支持的区域:10000 个 | 是 |
在 Anthropic Claude Sonnet 4.6 中,您可以在一分钟内为模型推断提交的最大跨区域请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Sonnet 的每分钟跨区域模型推理请求 4.6 1M 上下文长度 | 每个受支持的区域:500 个 | 是 |
您可以在一分钟内为 Anthropic Claude Sonnet 4.6 1M Context Length 提交模型推断的最大跨区域请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Cohere Embed V4 每分钟的跨区域模型推理请求数 | 每个受支持的区域:2,000 个 | 否 | 对于 Cohere Embed V4,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| R1 V1 每分钟跨区域模型推理请求数 DeepSeek | 每个受支持的区域:200 个 | 否 | 您可以在一分钟内为 DeepSeek R1 V1 提交模型推断的最大跨区域请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 3.1 405B Instruct 每分钟的跨区域模型推理请求数 | 每个受支持的区域:400 个 | 否 | 对于 Meta Llama 3.1 405B Instruct,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 3.1 70B Instruct 每分钟的跨区域模型推理请求数 | 每个受支持的区域:800 个 | 否 | 对于 Meta Llama 3.1 70B Instruct,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 3.1 8B Instruct 每分钟的跨区域模型推理请求数 | 每个受支持的区域:1600 个 | 否 | 对于 Meta Llama 3.1 8B Instruct,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 3.2 1B Instruct 每分钟的跨区域模型推理请求数 | 每个受支持的区域:1600 个 | 否 | 对于 Meta Llama 3.2 1B Instruct,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 3.2 3B Instruct 每分钟的跨区域模型推理请求数 | 每个受支持的区域:1600 个 | 否 | 对于 Meta Llama 3.2 3B Instruct,在一分钟内可调用模型推理的最大次数。配额考虑了 InvokeModel、、 InvokeModelWithResponseStream、Converse 和 ConverseStream的请求总和。 |
| Meta Llama 3.3 70B Instruct 每分钟的跨区域模型推理请求数 | 每个受支持的区域:800 个 | 否 | 对于 Meta Llama 3.3 70B Instruct,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 4 Maverick V1 每分钟的跨区域模型推理请求数 | 每个受支持的区域:800 个 | 否 | 对于 Meta Llama 4 Maverick V1,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 4 Scout V1 每分钟的跨区域模型推理请求数 | 每个受支持的区域:800 个 | 否 | 对于 Meta Llama 4 Scout V1,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Mistral Pixtral Large 25.02 V1 每分钟的跨区域模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Mistral Pixtral Large 25.02 V1,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Conservative Upscale 每分钟的跨区域模型推理请求数 | 每个受支持的区域:4 个 | 否 | 对于 Stable Image Conservative Upscale,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Control Sketch 每分钟的跨区域模型推理请求数 | 每个受支持的区域:20 个 | 否 | 对于 Stable Image Control Sketch,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Control Structure 每分钟的跨区域模型推理请求数 | 每个受支持的区域:20 个 | 否 | 对于 Stable Image Control Structure,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Creative Upscale 每分钟的跨区域模型推理请求数 | 每个受支持的区域:4 个 | 否 | 对于 Stable Image Creative Upscale,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Erase Object 每分钟的跨区域模型推理请求数 | 每个受支持的区域:20 个 | 否 | 对于 Stable Image Erase Object,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Fast Upscale 每分钟的跨区域模型推理请求数 | 每个受支持的区域:20 个 | 否 | 对于 Stable Image Fast Upscale,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Inpaint 每分钟的跨区域模型推理请求数 | 每个受支持的区域:20 个 | 否 | 对于 Stable Image Inpaint,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Outpaint 每分钟的跨区域模型推理请求数 | 每个受支持的区域:4 个 | 否 | 对于 Stable Image Outpaint,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Remove Background 每分钟的跨区域模型推理请求数 | 每个受支持的区域:20 个 | 否 | 对于 Stable Image Remove Background,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Search and Recolor 每分钟的跨区域模型推理请求数 | 每个受支持的区域:20 个 | 否 | 对于 Stable Image Search and Recolor,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Search and Replace 每分钟的跨区域模型推理请求数 | 每个受支持的区域:20 个 | 否 | 对于 Stable Image Search and Replace,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Style Guide 每分钟的跨区域模型推理请求数 | 每个受支持的区域:20 个 | 否 | 对于 Stable Image Style Guide,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Style Transfer 每分钟的跨区域模型推理请求数 | 每个受支持的区域:20 个 | 否 | 对于 Stable Image Style Transfer,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Twelve Labs Marengo 每分钟的跨区域模型推理请求数 | 每个受支持的区域:200 个 | 否 | 对于 Twelve Labs Marengo,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Twelve Labs Pegasus 每分钟的跨区域模型推理请求数 | 每个受支持的区域:120 个 | 是 |
对于 Twelve Labs Pegasus,在一分钟内可提交用于模型推理的跨区域请求的最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Marengo E TwelveLabs mbed 3.0 每分钟跨区域模型推理请求数 | 每个受支持的区域:1,000 个 | 是 |
对于 TwelveLabs Marengo Embed 3.0,您可以在一分钟内为模型推理提交的最大跨区域请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Writer AI Palmyra X4 V1 每分钟的跨区域模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Writer AI Palmyra X4 V1,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Writer AI Palmyra X5 V1 每分钟的跨区域模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Writer AI Palmyra X5 V1,在一分钟内可提交用于模型推理的跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova 2 Lite 每分钟的跨区域模型推理令牌 | 每个支持的区域:8,000,000 | 是 |
您可以在一分钟内为 Amazon Nova 2 Lite 提交用于模型推断的最大跨区域令牌数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Amazon Nova 2 Omni 的每分钟跨区域模型推理令牌 | 每个支持的区域:8,000,000 | 是 |
您可以在一分钟内为 Amazon Nova 2 Omni 提交用于模型推断的最大跨区域令牌数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| 亚马逊 Nova 2 Pro 预览版每分钟跨区域模型推理令牌 | 每个受支持的区域:100 万个 | 是 |
您可以在一分钟内为 Amazon Nova 2 Pro 预览版提交用于模型推断的最大跨区域令牌数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Amazon Nova Lite 每分钟的跨区域模型推理词元数 |
us-east-1:800万个 us-east-2:800,000,000 us-west-1:800,000,000 us-west-2:800万个 所有其他支持的区域:400,000 |
是 |
对于 Amazon Nova Lite,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Amazon Nova Micro 每分钟的跨区域模型推理词元数 |
us-east-1:800,000,000 us-east-2:800,000,000 us-west-2:800万个 所有其他支持的区域:400,000 |
是 |
对于 Amazon Nova Micro,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Amazon Nova Premier V1 每分钟的跨区域模型推理词元数 | 每个受支持的区域:200 万个 | 是 |
对于 Amazon Nova Premier V1,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Amazon Nova Pro 每分钟的跨区域模型推理词元数 | 每个受支持的区域:200 万个 | 是 |
对于 Amazon Nova Pro,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude 3 Haiku 每分钟的跨区域模型推理词元数 |
us-east-1:400,000,000 us-west-2:400,000,000 ap-northeast-1:400,000 ap-southeast-1:400,000 其他支持的每个区域:600,000 |
是 |
在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Anthropic Claude 3 Haiku ConverseStream 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 |
| Anthropic Claude 3 Opus 每分钟的跨区域模型推理词元数 | 每个支持的区域:800,000 | 是 |
对于 Anthropic Claude 3 Opus,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude 3 Sonnet 每分钟的跨区域模型推理词元数 |
us-east-1:2,000,000 us-west-2:2,000,000 所有其他支持的区域:400,000 |
是 |
在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Anthropic Claude 3 Sonnet 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Anthropic Claude 3.5 Sonnet 每分钟的跨区域模型推理词元数 |
us-west-2:400,000,000 ap-northeast-1:400,000 ap-southeast-1:400,000 eu-central-1:400,000 eu-west-1:400,000 eu-west-3:400,000 其他支持的每个区域:800,000 |
是 |
对于 Anthropic Claude 3.5 Sonnet,在一分钟内可提交用于模型推理的词元最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Anthropic Claude 3.7 Sonnet V1 每分钟的跨区域模型推理词元数 |
us-east-1:1,000,000 us-east-2:1,000,000 us-west-2:1,000,000 eu-central-1:100,000 eu-north-1:100,000 eu-west-1:100,000 eu-west-3:100,000 每个其他支持的区域:50,000 |
是 |
对于 Anthropic Claude 3.7 Sonnet V1,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Haiku 4.5 每分钟的跨区域模型推理词元数 | 每个支持的区域:5 百万个 | 是 |
对于 Anthropic Claude Haiku 4.5,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Opus 4 V1 每分钟的跨区域模型推理词元数 | 每个受支持的区域:20 万个 | 是 |
对于 Anthropic Claude Opus 4 V1,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Opus 4.1 每分钟的跨区域模型推理词元数 | 每个受支持的区域:50 万个 | 是 |
对于 Anthropic Claude Opus 4.1,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Opus 4.5 的每分钟跨区域模型推理令牌 | 每个受支持的区域:200 万个 | 是 |
在 Anthropic Claude Opus 4.5 中,您可以在一分钟内提交用于模型推断的最大跨区域代币数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Opus 4.6 V1 的每分钟跨区域模型推理令牌 | 每个受支持的区域:200 万个 | 是 |
您可以在一分钟内为 Anthropic Claude Opus 4.6 V1 提交用于模型推断的最大跨区域代币数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Opus 4.6 V1 1M 上下文长度的每分钟跨区域模型推理令牌 | 每个受支持的区域:100 万个 | 是 |
您可以在一分钟内为 Anthropic Claude Opus 4.6 V1 1M Context Length 提交用于模型推断的最大跨区域令牌数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Sonnet 4 V1 每分钟的跨区域模型推理词元数 | 每个受支持的区域:20 万个 | 是 |
对于 Anthropic Claude Sonnet 4 V1,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Sonnet 4 V1(100 万上下文长度)每分钟的跨区域模型推理词元数 | 每个受支持的区域:100 万个 | 是 |
对于 Anthropic Claude Sonnet 4 V1(100 万上下文长度),在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Sonnet 4.5 V1 每分钟的跨区域模型推理词元数 | 每个支持的区域:5 百万个 | 是 |
对于 Anthropic Claude Sonnet 4.5 V1,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Sonnet 4.5 V1(100 万上下文长度)每分钟的跨区域模型推理词元数 | 每个受支持的区域:100 万个 | 是 |
对于 Anthropic Claude Sonnet 4.5 V1(100 万上下文长度),在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Sonnet 4.6 的每分钟跨区域模型推理令牌 | 每个支持的区域:5 百万个 | 是 |
在 Anthropic Claude Sonnet 4.6 中,您可以在一分钟内提交用于模型推断的最大跨区域代币数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Sonnet 每分钟跨区域模型推理令牌 4.6 1M 上下文长度 | 每个受支持的区域:100 万个 | 是 |
在 Anthropic Claude Sonnet 4.6 1M Context Length 中,你可以在一分钟内提交用于模型推断的最大跨区域令牌数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Cohere Embed V4 每分钟的跨区域模型推理词元数 | 每个受支持的区域:30 万个 | 是 |
对于 Cohere Embed V4,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| R1 V1 每分钟跨区域模型推理令牌 DeepSeek | 每个受支持的区域:20 万个 | 是 |
您可以在一分钟内为 DeepSeek R1 V1 提交用于模型推断的最大跨区域令牌数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Meta Llama 3.1 405B Instruct 每分钟的跨区域模型推理词元数 | 每个支持的区域:800,000 | 是 |
对于 Meta Llama 3.1 405B Instruct,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Meta Llama 3.1 70B Instruct 每分钟的跨区域模型推理词元数 | 每个支持的区域:600,000 | 是 |
对于 Meta Llama 3.1 70B Instruct,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Meta Llama 3.1 8B Instruct 每分钟的跨区域模型推理词元数 | 每个支持的区域:600,000 | 是 |
对于 Meta Llama 3.1 8B Instruct,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Meta Llama 3.2 1B Instruct 每分钟的跨区域模型推理词元数 | 每个支持的区域:600,000 | 是 |
对于 Meta Llama 3.2 1B Instruct,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Meta Llama 3.2 3B Instruct 每分钟的跨区域模型推理词元数 | 每个支持的区域:600,000 | 是 |
对于 Meta Llama 3.2 3B Instruct,在一分钟内可提交用于模型推理的词元的最大数量。配额考虑了 InvokeModel、 InvokeModelWithResponseStream、Converse 和 ConverseStream的代币总和。 |
| Meta Llama 3.3 70B Instruct 每分钟的跨区域模型推理词元数 | 每个支持的区域:600,000 | 是 |
对于 Meta Llama 3.3 70B Instruct,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Meta Llama 4 Maverick V1 每分钟的跨区域模型推理词元数 | 每个支持的区域:600,000 | 是 |
对于 Meta Llama 4 Maverick V1,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Meta Llama 4 Scout V1 每分钟的跨区域模型推理词元数 | 每个支持的区域:600,000 | 是 |
对于 Meta Llama 4 Scout V1,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Mistral Pixtral Large 25.02 V1 每分钟的跨区域模型推理词元数 | 每个受支持的区域:8 万个 | 是 |
对于 Mistral Pixtral Large 25.02 V1,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Writer AI Palmyra X4 V1 每分钟的跨区域模型推理词元数 | 每个受支持的区域:15 万个 | 是 |
对于 Writer AI Palmyra X4 V1,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Writer AI Palmyra X5 V1 每分钟的跨区域模型推理词元数 | 每个受支持的区域:15 万个 | 是 |
对于 Writer AI Palmyra X5 V1,在一分钟内可提交用于模型推理的跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| 每个账户处于创建状态的自定义模型数 | 每个受支持的区域:2 个 | 是 |
处于创建状态的自定义模型的最大数量。 |
| DeleteAgent 每秒请求数 | 每个受支持的区域:2 个 | 否 | 每秒 DeleteAgent API 请求的最大数量。 |
| DeleteAgentActionGroup 每秒请求数 | 每个受支持的区域:2 个 | 否 | 每秒 DeleteAgentActionGroup API 请求的最大数量。 |
| DeleteAgentAlias 每秒请求数 | 每个受支持的区域:2 个 | 否 | 每秒 DeleteAgentAlias API 请求的最大数量。 |
| DeleteAgentVersion 每秒请求数 | 每个受支持的区域:2 个 | 否 | 每秒 DeleteAgentVersion API 请求的最大数量。 |
| DisassociateAgentKnowledgeBase 每秒请求数 | 每个受支持的区域:4 个 | 否 | 每秒 DisassociateAgentKnowledgeBase API 请求的最大数量。 |
| 每个代理启用的操作组数 | 每个支持的区域:15 个 | 是 |
可以在代理中启用的操作组的最大数量。 |
| 每个推理配置文件的端点数 | 每个受支持的区域:5 个 | 否 | 推理配置文件中端点的最大数量。端点由模型和对模型的调用请求发送到的区域定义。 |
| GetAgent 每秒请求数 | 每个受支持的区域:15 个 | 否 | 每秒 GetAgent API 请求的最大数量。 |
| GetAgentActionGroup 每秒请求数 | 每个受支持的区域:20 个 | 否 | 每秒 GetAgentActionGroup API 请求的最大数量。 |
| GetAgentAlias 每秒请求数 | 每个受支持的区域:10 个 | 否 | 每秒 GetAgentAlias API 请求的最大数量。 |
| GetAgentKnowledgeBase 每秒请求数 | 每个受支持的区域:15 个 | 否 | 每秒 GetAgentKnowledgeBase API 请求的最大数量。 |
| GetAgentVersion 每秒请求数 | 每个受支持的区域:10 个 | 否 | 每秒 GetAgentVersion API 请求的最大数量。 |
| Amazon Nova 2 Lite 每分钟的全球跨区域模型推理请求数 | 每个支持的区域:2000 个 | 是 |
您可以在一分钟内为 Amazon Nova 2 Lite 提交模型推断的最大全球跨区域请求数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova 2 Omni 的每分钟全球跨区域模型推理请求数 | 每个支持的区域:2000 个 | 是 |
您可以在一分钟内为 Amazon Nova 2 Omni 提交模型推断的最大全球跨区域请求数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova 2 Pro 预览版每分钟全球跨区域模型推理请求数 | 每个受支持的区域:100 个 | 是 |
您可以在一分钟内为 Amazon Nova 2 Pro 预览版提交模型推断的最大全球跨区域请求数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Haiku 4.5 每分钟的全球跨区域模型推理请求数 | 每个受支持的区域:1,000 个 | 是 |
对于 Anthropic Claude Haiku 4.5,在一分钟内可提交用于模型推理的全球跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Opus 4.5 每分钟全球跨区域模型推理请求数 | 每个受支持的区域:500 个 | 是 |
在 Anthropic Claude Opus 4.5 中,您可以在一分钟内为模型推理提交的最大全球跨区域请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Opus 4.6 V1 的每分钟全球跨区域模型推理请求数 | 每个受支持的区域:500 个 | 是 |
在 Anthropic Claude Opus 4.6 V1 中,您可以在一分钟内为模型推理提交的最大全球跨区域请求数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Opus 4.6 V1 1M 上下文长度的每分钟全球跨区域模型推理请求数 | 每个受支持的区域:5 个 | 是 |
在 Anthropic Claude Opus 4.6 V1 1M Context Length 中,您可以在一分钟内为模型推断提交的最大全球跨区域请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Sonnet 4 V1 每分钟的全球跨区域模型推理请求数 | 每个受支持的区域:200 个 | 是 |
对于 Anthropic Claude Sonnet 4 V1,在一分钟内可提交用于模型推理的全球跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Sonnet 4.5 V1 每分钟的全球跨区域模型推理请求数 | 每个受支持的区域:1,000 个 | 是 |
对于 Anthropic Claude Sonnet 4.5 V1,在一分钟内可提交用于模型推理的全球跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Sonnet 4.5 V1(100 万上下文长度)每分钟的全球跨区域模型推理请求数 | 每个受支持的区域:5 个 | 是 |
对于 Anthropic Claude Sonnet 4.5 V1(100 万上下文长度),在一分钟内可提交用于模型推理的全球跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Sonnet 4.6 每分钟全球跨区域模型推理请求数 | 每个受支持的区域:10000 个 | 是 |
在 Anthropic Claude Sonnet 4.6 中,您可以在一分钟内为模型推断提交的最大全球跨区域请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Sonnet 的每分钟全球跨区域模型推理请求 4.6 1M 上下文长度 | 每个受支持的区域:500 个 | 是 |
在 Anthropic Claude Sonnet 4.6 1M Context Length 中,您可以在一分钟内为模型推断提交的最大全球跨区域请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Cohere Embed V4 每分钟的全球跨区域模型推理请求数 | 每个支持的区域:2000 个 | 是 |
对于 Cohere Embed V4,在一分钟内可提交用于模型推理的全球跨区域请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova 2 Lite 每天的全球跨区域模型推理令牌 | 每个支持的区域:11,520,000,000 | 否 | 您可以在一天内为 Amazon Nova 2 Lite 提交用于模型推断的最大全球跨区域令牌数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Amazon Nova 2 Omni 每天的全球跨区域模型推理令牌 | 每个支持的区域:11,520,000,000 | 否 | 您可以在一天内为 Amazon Nova 2 Omni 提交用于模型推断的最大全球跨区域令牌数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| 亚马逊 Nova 2 Pro 预览版每天的全球跨区域模型推理令牌 | 每个受支持的区域:14.4 亿个 | 否 | 您可以在一天内为 Amazon Nova 2 Pro 预览版提交用于模型推断的最大全球跨区域令牌数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Haiku 4.5 每日的全球跨区域模型推理词元数 | 每个支持的区域:72亿,000 | 否 | 对于 Anthropic Claude Haiku 4.5,在一日内可提交用于模型推理的全球跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Opus 4.5 每天的全球跨区域模型推理代币 | 每个支持的区域:28.8亿,000 | 否 | 在 Anthropic Claude Opus 4.5 中,您可以在一天内提交用于模型推断的最大全球跨区域代币数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Opus 4.6 V1 每天的全球跨区域模型推理代币 | 每个支持的区域:28.8亿,000 | 否 | 您可以在一天内为 Anthropic Claude Opus 4.6 V1 提交用于模型推断的最大全球跨区域代币数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Opus 4.6 V1 1M 上下文长度的每日全球跨区域模型推理代币 | 每个受支持的区域:14.4 亿个 | 否 | 您可以在一天内为 Anthropic Claude Opus 4.6 V1 1M Context Length 提交用于模型推断的最大全球跨区域代币数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Sonnet 4 V1 每日的全球跨区域模型推理词元数 | 每个受支持的区域:2.88 亿个 | 否 | 对于 Anthropic Claude Sonnet 4 V1,在一日内可提交用于模型推理的全球跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Sonnet 4.5 V1 每日的全球跨区域模型推理词元数 | 每个支持的区域:72亿,000 | 否 | 对于 Anthropic Claude Sonnet 4.5 V1,在一日内可提交用于模型推理的全球跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Sonnet 4.5 V1(100 万上下文长度)每日全球跨区域模型推理词元数 | 每个受支持的区域:14.4 亿个 | 否 | 对于 Anthropic Claude Sonnet 4.5 V1(100 万上下文长度),在一日内可提交用于模型推理的全球跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Sonnet 4.6 每天的全球跨区域模型推理代币 | 每个支持的区域:72亿,000 | 否 | 在 Anthropic Claude Sonnet 4.6 中,您可以在一天内提交用于模型推断的最大全球跨区域代币数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Anthropic Claude Sonnet 每天的全球跨区域模型推理代币 4.6 1M 上下文长度 | 每个受支持的区域:14.4 亿个 | 否 | 您可以在一天内为 Anthropic Claude Sonnet 4.6 1M Context Length 提交用于模型推断的最大全球跨区域代币数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Cohere Embed V4 每日的全球跨区域模型推理词元数 | 每个受支持的区域:4.32 亿个 | 否 | 对于 Cohere Embed V4,在一日内可提交用于模型推理的全球跨区域词元的最大数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Amazon Nova 2 Lite 每分钟全球跨区域模型推理令牌 | 每个支持的区域:8,000,000 | 是 |
您可以在一分钟内为 Amazon Nova 2 Lite 提交用于模型推断的最大全球跨区域令牌数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| Amazon Nova 2 Omni 每分钟全球跨区域模型推理令牌 | 每个支持的区域:8,000,000 | 是 |
您可以在一分钟内为 Amazon Nova 2 Omni 提交用于模型推断的最大全球跨区域令牌数量。配额考虑了所有向 Converse、和发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 ConverseStream |
| 亚马逊 Nova 2 Pro 预览版每分钟全球跨区域模型推理令牌 | 每个受支持的区域:100 万个 | 是 |
您可以在一分钟内为 Amazon Nova 2 Pro 预览版提交用于模型推断的最大全球跨区域令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Anthropic Claude Haiku 4.5 每分钟的全球跨区域模型推理词元数 | 每个支持的区域:5 百万个 | 是 |
对于 Anthropic Claude Haiku 4.5,在一分钟内可提交用于模型推理的全球跨区域词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Anthropic Claude Opus 4.5 每分钟全球跨区域模型推理令牌 | 每个受支持的区域:200 万个 | 是 |
在 Anthropic Claude Opus 4.5 中,您可以在一分钟内提交用于模型推断的最大全球跨区域代币数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Anthropic Claude Opus 4.6 V1 每分钟全球跨区域模型推理令牌 | 每个受支持的区域:200 万个 | 是 |
您可以在一分钟内为 Anthropic Claude Opus 4.6 V1 提交用于模型推断的最大全球跨区域代币数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Anthropic Claude Opus 4.6 V1 1M 上下文长度的每分钟全球跨区域模型推理令牌 | 每个受支持的区域:100 万个 | 是 |
您可以在一分钟内为 Anthropic Claude Opus 4.6 V1 1M Context Length 提交用于模型推断的最大全球跨区域令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Anthropic Claude Sonnet 4 V1 每分钟的全球跨区域模型推理词元数 | 每个受支持的区域:20 万个 | 是 |
对于 Anthropic Claude Sonnet 4 V1,在一分钟内可提交用于模型推理的全球跨区域词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Anthropic Claude Sonnet 4.5 V1 每分钟的全球跨区域模型推理词元数 | 每个支持的区域:5 百万个 | 是 |
对于 Anthropic Claude Sonnet 4.5 V1,在一分钟内可提交用于模型推理的全球跨区域词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Anthropic Claude Sonnet 4.5 V1(100 万上下文长度)每分钟的全球跨区域模型推理词元数 | 每个受支持的区域:100 万个 | 是 |
对于 Anthropic Claude Sonnet 4.5 V1(100 万上下文长度),在一分钟内可提交用于模型推理的全球跨区域词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Anthropic Claude Sonnet 4.6 的每分钟全球跨区域模型推理令牌 | 每个支持的区域:5 百万个 | 是 |
在 Anthropic Claude Sonnet 4.6 中,您可以在一分钟内为模型推断提交的最大全球跨区域代币数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Anthropic Claude Sonnet 每分钟全球跨区域模型推理令牌 4.6 1M 上下文长度 | 每个受支持的区域:100 万个 | 是 |
在 Anthropic Claude Sonnet 4.6 1M Context Length 中,你可以在一分钟内提交用于模型推断的最大全球跨区域代币数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Cohere Embed V4 每分钟的全球跨区域模型推理词元数 | 每个受支持的区域:30 万个 | 是 |
对于 Cohere Embed V4,在一分钟内可提交用于模型推理的全球跨区域词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| 每个账户的导入模型数 | 每个受支持的区域:3 个 | 是 |
账户中导入模型的最大数量。 |
| 每个账户的推理配置文件数 | 每个受支持的区域:1,000 个 | 是 |
账户中推理配置文件最大数量。 |
| ListAgentActionGroups 每秒请求数 | 每个受支持的区域:10 个 | 否 | 每秒 ListAgentActionGroups API 请求的最大数量。 |
| ListAgentAliases 每秒请求数 | 每个受支持的区域:10 个 | 否 | 每秒 ListAgentAliases API 请求的最大数量。 |
| ListAgentKnowledgeBases 每秒请求数 | 每个受支持的区域:10 个 | 否 | 每秒 ListAgentKnowledgeBases API 请求的最大数量。 |
| ListAgentVersions 每秒请求数 | 每个受支持的区域:10 个 | 否 | 每秒 ListAgentVersions API 请求的最大数量。 |
| ListAgents 每秒请求数 | 每个受支持的区域:10 个 | 否 | 每秒 ListAgents API 请求的最大数量。 |
| Amazon Nova 2 多模式嵌入式 V1 每批推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Amazon Nova 2 多模式嵌入式 V1 的批量推理作业中所有输入文件的最小记录数。 |
| Amazon Nova Premier 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Amazon Nova Premier 的批量推理作业中所有输入文件的最小记录数。 |
| Claude 3 Haiku 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Claude 3 Haiku 的批量推理作业中所有输入文件的最小记录数。 |
| Claude 3 Opus 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Claude 3 Opus 的批量推理作业中所有输入文件的最小记录数。 |
| Claude 3 Sonnet 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Claude 3 Sonnet 的批量推理作业中所有输入文件的最小记录数。 |
| Claude 3.5 Haiku 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Claude 3.5 Haiku 的批量推理作业中所有输入文件的最小记录数。 |
| Claude 3.5 Sonnet 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Claude 3.5 Sonnet 的批量推理作业中所有输入文件的最小记录数。 |
| Claude 3.5 Sonnet v2 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Claude 3.5 Sonnet v2 的批量推理作业中所有输入文件的最小记录数。 |
| Claude 3.7 Sonnet 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 是 |
Claude 3.7 Sonnet 的批量推理作业中所有输入文件的最小记录数。 |
| Claude Haiku 每个批次推理作业的最小记录数 4.5 | 每个受支持的区域:100 个 | 否 | Claude Haiku 4.5 的批处理推理作业中所有输入文件的最小记录数。 |
| Claude Opus 每个批次推理作业的最小记录数 4.5 | 每个受支持的区域:100 个 | 否 | Claude Opus 4.5 的批处理推理作业中所有输入文件的最小记录数。 |
| Claude Opus 每个批次推理作业的最小记录数 4.6 | 每个受支持的区域:100 个 | 否 | Claude Opus 4.6 的批处理推理作业中所有输入文件的最小记录数。 |
| Claude Sonnet 4 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 是 |
Claude Sonnet 4 的批量推理作业中所有输入文件的最小记录数。 |
| Claude Sonnet 每批推理作业的最小记录数 4.5。 | 每个受支持的区域:100 个 | 否 | Claude Sonnet 4.5 的批处理推理作业中所有输入文件的最小记录数。 |
| Claude Sonnet 每批推理作业的最小记录数 4.6 | 每个受支持的区域:100 个 | 否 | Claude Sonnet 4.6 的批处理推理作业中所有输入文件的最小记录数。 |
| V3.2 中每个批量推理作业的最小记录数 DeepSeek | 每个受支持的区域:100 个 | 否 | DeepSeek V3.2 版批量推理作业中所有输入文件的最小记录数。 |
| v3 每个批量推理作业的最小记录数 DeepSeek | 每个受支持的区域:100 个 | 否 | DeepSeek v3 批量推理作业中所有输入文件的最小记录数。 |
| Devstral 2 每批推理作业的最小记录数 123B | 每个受支持的区域:100 个 | 否 | Devstral 2 123B 的批处理推理作业中所有输入文件的最小记录数。 |
| GLM 4.7 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | GLM 4.7 的批处理推理作业中所有输入文件的最小记录数。 |
| GLM 4.7 Flash 每个批处理推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | GLM 4.7 Flash 的批处理推理作业中所有输入文件的最小记录数。 |
| Gemma 每批推理作业的最小记录数 3 12B | 每个受支持的区域:100 个 | 否 | Gemma 3 12B 的批处理推理作业中所有输入文件的最小记录数。 |
| Gemma 每批推理作业的最小记录数 3 27B | 每个受支持的区域:100 个 | 否 | Gemma 3 27B 的批处理推理作业中所有输入文件的最小记录数。 |
| Gemma 每批推理作业的最小记录数 3 4B | 每个受支持的区域:100 个 | 否 | Gemma 3 4B 的批处理推理作业中所有输入文件的最小记录数。 |
| Kimi K2 Thinking 每批推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Kimi K2 Thinking 的批量推理作业中所有输入文件的最小记录数。 |
| Kimi K2.5 每个批次推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Kimi K2.5 的批处理推理作业中所有输入文件的最小记录数。 |
| Llama 3.1 405B Instruct 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Llama 3.1 405B Instruct 的批量推理作业中所有输入文件的最小记录数。 |
| Llama 3.1 70B Instruct 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Llama 3.1 70B Instruct 的批量推理作业中所有输入文件的最小记录数。 |
| Llama 3.1 8B Instruct 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Llama 3.1 8B Instruct 的批量推理作业中所有输入文件的最小记录数。 |
| Llama 3.2 11B Instruct 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Llama 3.2 11B Instruct 的批量推理作业中所有输入文件的最小记录数。 |
| Llama 3.2 1B Instruct 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Llama 3.2 1B Instruct 批量推理作业中所有输入文件的最小记录数。 |
| Llama 3.2 3B Instruct 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Llama 3.2 3B Instruct 的批量推理作业中所有输入文件的最小记录数。 |
| Llama 3.2 90B Instruct 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Llama 3.2 90B Instruct 的批量推理作业中所有输入文件的最小记录数。 |
| Llama 3.3 70B Instruct 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Llama 3.3 70B Instruct 的批量推理作业中所有输入文件的最小记录数。 |
| Llama 4 Maverick 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Llama 4 Maverick 的批量推理作业中所有输入文件的最小记录数。 |
| Llama 4 Scout 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Llama 4 Scout 的批量推理作业中所有输入文件的最小记录数。 |
| Magistral Small 2509 每个批次推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Magistral Small 2509 的批处理推理作业中所有输入文件的最小记录数。 |
| M2 每个批次推理作业的最小记录数 MiniMax | 每个受支持的区域:100 个 | 否 | 在 MiniMax M2 的批处理推理作业中,所有输入文件的最小记录数。 |
| M2.1 每个批量推理作业的最小记录数 MiniMax | 每个受支持的区域:100 个 | 否 | 在 MiniMax M2.1 的批处理推理作业中,所有输入文件的最小记录数。 |
| Ministral 3 每批推理作业的最小记录数 14B | 每个受支持的区域:100 个 | 否 | Ministral 3 14B 的批处理推理作业中所有输入文件的最小记录数。 |
| Ministral 3 8B 每个批次推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Ministral 3 8B 的批处理推理作业中所有输入文件的最小记录数。 |
| Ministral 3B 每个批次推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Ministral 3B 的批处理推理作业中所有输入文件的最小记录数。 |
| Mistral Large 2(24.07)每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Mistral Large 2(24.07)的批量推理作业中所有输入文件的最小记录数。 |
| Mistral Large 每批推理作业的最小记录数 3 | 每个受支持的区域:100 个 | 否 | Mistral Large 3 的批处理推理作业中所有输入文件的最小记录数。 |
| Mistral Small 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Mistral Small 的批量推理作业中所有输入文件的最小记录数。 |
| NVIDIA Nemotron Nano 12B 每批推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | NVIDIA Nemotron Nano 12B 的批量推理作业中所有输入文件的最小记录数。 |
| NVIDIA Nemotron Nano 3 30B 每批推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | NVIDIA Nemotron Nano 3 30B 的批量推理作业中所有输入文件的最小记录数。 |
| NVIDIA Nemotron Nano 9B 每批推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | NVIDIA Nemotron Nano 9B 的批量推理作业中所有输入文件的最小记录数。 |
| Nova 2 Lite 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Nova 2 Lite 批量推理作业中所有输入文件的最小记录数。 |
| Nova Lite V1 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Nova Lite V1 的批量推理作业中所有输入文件的最小记录数。 |
| Nova Micro V1 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Nova Micro V1 的批量推理作业中所有输入文件的最小记录数。 |
| Nova Pro V1 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Nova Pro V1 的批量推理作业中所有输入文件的最小记录数。 |
| OpenAI GPT OSS 120b 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | OpenAI GPT OSS 120b 的批量推理作业中所有输入文件的最小记录数。 |
| OpenAI GPT OSS 20b 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | OpenAI GPT OSS 20b 的批量推理作业中所有输入文件的最小记录数。 |
| OpenAI GPT OSS Safeguard 每批推理作业的最小记录数 120b | 每个受支持的区域:100 个 | 否 | OpenAI GPT OSS Safeguard 120b 的批处理推理作业中所有输入文件的最小记录数。 |
| OpenAI GPT OSS Safeguard 每批推理作业的最小记录数 20b | 每个受支持的区域:100 个 | 否 | OpenAI GPT OSS Safeguard 20b 的批处理推理作业中所有输入文件的最小记录数。 |
| Qwen3 235B 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Qwen3 235B 的批量推理作业中所有输入文件的最小记录数。 |
| Qwen3 32B 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Qwen3 32B 的批量推理作业中所有输入文件的最小记录数。 |
| Qwen3 Coder 30B 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Qwen3 Coder 30B 的批量推理作业中所有输入文件的最小记录数。 |
| Qwen3 Coder 480B 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Qwen3 Coder 480B 的批量推理作业中所有输入文件的最小记录数。 |
| Qwen3 Coder 每个批量推理作业的最小记录数下一页 | 每个受支持的区域:100 个 | 否 | Qwen3 Coder Next 的批处理推理作业中所有输入文件的最小记录数。 |
| Qwen3 每个批量推理作业的最小记录数 Next 80B | 每个受支持的区域:100 个 | 否 | Qwen3 Next 80B 的批处理推理作业中所有输入文件的最小记录数。 |
| Qwen3 VL 235B 每个批处理推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Qwen3 VL 235B 的批处理推理作业中所有输入文件的最小记录数。 |
| Titan 多模态嵌入 G1 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Titan 多模态嵌入 G1 的批量推理作业中所有输入文件的最小记录数。 |
| Titan 文本嵌入 V2 每个批量推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Titan 文本嵌入 V2 的批量推理作业中所有输入文件的最小记录数。 |
| Voxtral Mini 3B 2507 每个批次推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Voxtral Mini 3B 2507 的批处理推理作业中所有输入文件的最小记录数。 |
| Voxtral Small 24B 2507 每个批次推理作业的最小记录数 | 每个受支持的区域:100 个 | 否 | Voxtral Small 24B 2507 的批处理推理作业中所有输入文件的最小记录数。 |
| Amazon Nova Pro V1 每天的模型调用最大延迟优化令牌 | 每个支持的区域:57,600,000 | 否 | 您可以在一天内为 Amazon Nova Pro V1 提交用于延迟优化模型推断的最大令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Amazon Nova 2 Lite 每天的模型调用最大代币上限(跨区域通话为两倍) | 每个受支持的区域:57.6 亿个 | 否 | Amazon Nova 2 Lite 模型推理的每日最大代币数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Amazon Nova 2 Omni 每天的模型调用最大代币上限(跨区域通话翻倍) | 每个受支持的区域:57.6 亿个 | 否 | Amazon Nova 2 Omni 模型推理的每日最大代币数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Amazon Nova 2 Pro 预览版每天的模型调用最大代币上限(跨区域通话为两倍) | 每个受支持的区域:7.2 亿个 | 否 | 亚马逊 Nova 2 Pro 预览版模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Amazon Nova Premier V1 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:14.4 亿个 | 否 | Amazon Nova Premier V1 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude 3 Haiku 每天的模型调用最大代币上限(跨区域通话翻了一番) |
us-east-1:28.8亿,000 us-west-2:28.8亿,000 ap-northeast-1:288,000,000 ap-southeast-1:288,000,000 其他支持的每个区域:4.32,000,000 |
否 | Anthropic Claude 3 Haiku 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude 3.5 Haiku 每天的模型调用最大代币上限(跨区域通话翻了一番) | 每个支持的区域:28.8亿,000 | 否 | Anthropic Claude 3.5 Haiku 模型推理的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude 3.5 Sonnet V1 每天的模型调用最大代币上限(跨区域通话翻了一番) | 每个支持的区域:28.8亿,000 | 否 | Anthropic Claude 3.5 Sonnet V1 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude 3.5 Sonnet V2 每天的模型调用最大代币上限(跨区域通话翻了一番) |
us-east-1:28.8亿,000 us-west-2:28.8亿,000 其他支持的区域各为:5.76亿,000 |
否 | Anthropic Claude 3.5 Sonnet V2 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude 3.7 Sonnet V1 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:7.2 亿个 | 否 | Anthropic Claude 3.7 Sonnet V1 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude Haiku 4.5 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个支持的区域:360亿个 | 否 | Anthropic Claude Haiku 4.5 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude Opus 4 V1 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:1.44 亿个 | 否 | Anthropic Claude Opus 4 V1 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude Opus 4.1 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:3.6 亿个 | 否 | Anthropic Claude Opus 4.1 的模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude Opus 4.5 每天的模型调用最大代币上限(跨区域通话翻了一番) | 每个受支持的区域:14.4 亿个 | 否 | Anthropic Claude Opus 4.5 的模型推断的每日最大代币数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude Opus 每天的模型调用最大代币数 4.6 1M 上下文长度(跨区域调用翻了一番) | 每个受支持的区域:7.2 亿个 | 否 | Anthropic Claude Opus 4.6 1M 上下文长度的模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude Opus 4.6 V1 每天的模型调用最大代币上限(跨区域通话翻了一番) | 每个受支持的区域:14.4 亿个 | 否 | Anthropic Claude Opus 4.6 V1 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude Sonnet 4 V1 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:1.44 亿个 | 否 | Anthropic Claude Sonnet 4 V1 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude Sonnet 4 V1(100 万上下文长度)每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:7.2 亿个 | 否 | Anthropic Claude Sonnet 4 V1(100 万上下文长度)的模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude Sonnet 4.5 V1 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个支持的区域:360亿个 | 否 | Anthropic Claude Sonnet 4.5 V1 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude Sonnet 4.5 V1(100 万上下文长度)每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:7.2 亿个 | 否 | Anthropic Claude Sonnet 4.5 V1(100 万上下文长度)模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Anthropic Claude Sonnet 4.6 每天的模型调用最大代币上限(跨区域通话翻了一番) | 每个支持的区域:360亿个 | 否 | Anthropic Claude Sonnet 4.6 模型推断的每日最大代币数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Cohere Embed V4 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:2.16 亿个 | 否 | Cohere Embed V4 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| DeepSeek R1 V1 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1.44 亿个 | 否 | DeepSeek R1 V1 模型推断的每日最大代币数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| DeepSeek V3 V1 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | DeepSeek V3 V1 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| DeepSeek V3.2 的每日模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | DeepSeek V3.2 模型推理的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| GPT OSS Safeguard 120B 每天的模型调用最大代币上限(跨区域调用翻了一番) | 每个受支持的区域:1440 亿个 | 否 | GPT OSS Safeguard 120B 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| GPT OSS Safeguard 每天的模型调用最大代币上限 20B(跨区域调用翻了一番) | 每个受支持的区域:1440 亿个 | 否 | GPT OSS Safeguard 20B 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Gemma 3 每天的模型调用最大代币上限 12B(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Gemma 3 12B 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Gemma 3 27B 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Gemma 3 27B 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Gemma 3 4B 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Gemma 3 4B 模型推断的每日最大代币数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Kimi K2 Thinking 每天的模型调用最大代币上限(跨区域通话翻了一番) | 每个受支持的区域:1440 亿个 | 否 | Kimi K2 Thinking 模型推理的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Magistral Small 1.2 的每日模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Magistral Small 1.2 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Minimax M2 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Minimax M2 模型推断的每日最大代币数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Minimax M2.1 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Minimax M2.1 模型推断的每日最大代币数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Ministral 14B 3.0 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Ministral 14B 3.0 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Ministral 3B 3.0 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Ministral 3B 3.0 模型推理的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Ministral 8B 3.0 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Ministral 8B 3.0 模型推理的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Mistral Devstral 2 每天的模型调用最大代币上限 123b(跨区域通话翻了一番) | 每个受支持的区域:1440 亿个 | 否 | Mistral Devstral 2 模型推断的每日最大代币上限 123b。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Mistral Large 3 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Mistral Large 3 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Moonshot AI Kimi K2.5 每天的模型调用最大代币上限(跨区域通话翻了一番) | 每个受支持的区域:1440 亿个 | 否 | Moonshot AI Kimi K2.5 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| NVIDIA Nemotron Nano 2 每天的模型调用最大代币上限(跨区域通话翻了一番) | 每个受支持的区域:1440 亿个 | 否 | NVIDIA Nemotron Nano 2 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| NVIDIA Nemotron Nano 2 VL 每天的模型调用最大代币上限(跨区域通话翻了一番) | 每个受支持的区域:1440 亿个 | 否 | NVIDIA Nemotron Nano 2 VL 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Nemotron Nano 3 30B 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Nemotron Nano 3 30B 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| OpenAI GPT OSS 120B 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | OpenAI GPT OSS 120B 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| OpenAI GPT OSS 20B 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | OpenAI GPT OSS 20B 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Qwen3 235B a22b 2507 V1 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Qwen3 235B a22b 2507 V1 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Qwen3 32B V1 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Qwen3 32B V1 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Qwen3 Coder 30B a3b V1 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Qwen3 Coder 30B a3b V1 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Qwen3 Coder 480B a35b V1 每日的模型调用最大词元数量(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Qwen3 Coder 480B a35b V1 模型推理的每日最大词元数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Qwen3 Coder Next 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Qwen3 Coder Next 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Qwen3 Next 80B A3B 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Qwen3 Next 80B A3B 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Qwen3 VL 235B A22B 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Qwen3 VL 235B A22B 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Voxtral Mini 1.0 的每日模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Voxtral Mini 1.0 模型推理的每日最大代币数量。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Voxtral Small 1.0 的每日模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Voxtral Small 1.0 模型推理的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Z.ai GLM-4.7 的每日模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Z.ai GLM-4.7 模型推理的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| Z.ai GLM-4.7 Flash 每天的模型调用最大代币上限(跨区域调用翻倍) | 每个受支持的区域:1440 亿个 | 否 | Z.ai GLM-4.7 Flash 模型推断的每日最大代币上限。合并对 Converse、和、 ConverseStream的所有请求中的输入和输出令牌的总 InvokeModel 和。 InvokeModelWithResponseStream跨区域调用翻倍;对于已批准的 TPM 增加则不适用。 |
| 基础模型中的模型单位无承诺预置吞吐量 | 每个受支持的区域:0 个 | 是 |
在基础模型的无承诺预置吞吐量中可以分配的模型单位的最大数量 |
| 自定义模型中的模型单位无承诺预置吞吐量 | 每个受支持的区域:0 个 | 是 |
在自定义模型的无承诺预置吞吐量中可以分配的模型单位的最大数量 |
| AI21 实验室 Jurassic-2 Mid 每个预配置模型的模型单位 | 每个受支持的区域:0 个 | 是 |
可以分配给 AI21 实验室 Jurassic-2 Mid 的预配置模型的最大模型单位数。 |
| AI21 实验室 Jurassic-2 Ultra 的每个预配置模型的模型单位 | 每个受支持的区域:0 个 | 是 |
可以分配给 AI21 Labs Jurassic-2 Ultra 的预配置模型的最大模型单位数。 |
| Amazon Nova 2 Lite V1.0 256K 的每个预配置型号的模型单位 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Nova 2 Lite V1.0 256K 的预配置模型的最大模型单位数。 |
| Amazon Nova Canvas 每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Nova Canvas 的预置模型的模型单位的最大数量。 |
| Amazon Titan 文本嵌入 G1 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Titan 文本嵌入 G1 的预置模型的模型单位的最大数量。 |
| Amazon Titan 图像生成器 G1 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Titan 图像生成器 G1 的预置模型的模型单位的最大数量。 |
| Amazon Titan 图像生成器 G2 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Titan 图像生成器 G2 的预置模型的模型单位的最大数量。 |
| Amazon Titan 简捷版 V1 4K 每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Titan Text 简捷版 V1 4K 的预置模型的模型单位的最大数量。 |
| Amazon Titan 多模态嵌入 G1 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Titan 多模态嵌入 G1 的预置模型的模型单位的最大数量。 |
| Amazon Titan 文本嵌入 V2 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Titan 文本嵌入 V2 的预置模型的模型单位的最大数量。 |
| Amazon Titan Text G1 – 快捷版 8K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Titan Text G1 – 快捷版 8K 的预置模型的模型单位的最大数量。 |
| Amazon Titan Text 高级版 V1 32K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Titan Text 高级版 V1 32K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3 Haiku 200K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3 Haiku 200K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3 Haiku 48K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3 Haiku 48K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3 Sonnet 200K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3 Sonnet 200K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3 Sonnet 28K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3 Sonnet 28K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3.5 Haiku 16K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3.5 Haiku 16K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3.5 Haiku 200K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3.5 Haiku 200K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3.5 Haiku 64K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3.5 Haiku 64K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3.5 Sonnet 18K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3.5 Sonnet 18K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3.5 Sonnet 200K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3.5 Sonnet 200K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3.5 Sonnet 51K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3.5 Sonnet 51K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3.5 Sonnet V2 18K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3.5 Sonnet V2 18K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3.5 Sonnet V2 200K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3.5 Sonnet V2 200K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3.5 Sonnet V2 51K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3.5 Sonnet V2 51K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3.7 V1.0 Sonnet 18K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3.7 V1.0 Sonnet 18K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3.7 V1.0 Sonnet 200K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3.7 V1.0 Sonnet 200K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude 3.7 V1.0 Sonnet 51K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude 3.7 V1.0 Sonnet 51K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude Instant V1 100K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude Instant V1 100K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude V2 100K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude V2 100K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude V2 18K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude V2 18K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude V2.1 18K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude V2.1 18K 的预置模型的模型单位的最大数量。 |
| Anthropic Claude V2.1 200K 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Anthropic Claude V2.1 200K 的预置模型的模型单位的最大数量。 |
| Cohere Command 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Cohere Command 的预置模型的模型单位的最大数量。 |
| Cohere Command Light 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Cohere Command Light 的预置模型的模型单位的最大数量。 |
| Cohere Command R 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Cohere Command R 128k 的预置模型的模型单位的最大数量。 |
| Cohere Command R Plus 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Cohere Command R Plus 128k 的预置模型的模型单位的最大数量。 |
| Cohere Embed English 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Cohere Embed English 的预置模型的模型单位的最大数量。 |
| Cohere Embed Multilingual 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Cohere Embed Multilingual 的预置模型的模型单位的最大数量。 |
| Meta Llama 2 13B 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Meta Llama 2 13B 的预置模型的模型单位的最大数量。 |
| Meta Llama 2 70B 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Meta Llama 2 70B 的预置模型的模型单位的最大数量。 |
| Meta Llama 2 Chat 13B 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Meta Llama 2 Chat 13B 的预置模型的模型单位的最大数量。 |
| Meta Llama 2 Chat 70B 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Meta Llama 2 Chat 70B 的预置模型的模型单位的最大数量。 |
| Meta Llama 3 70B Instruct 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Meta Llama 3 70B Instruct 的预置模型的模型单位的最大数量。 |
| Meta Llama 3 8B Instruct 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Meta Llama 3 8B Instruct 的预置模型的模型单位的最大数量。 |
| Meta Llama 3.1 70B Instruct 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Meta Llama 3.1 70B Instruct 的预置模型的模型单位的最大数量。 |
| Meta Llama 3.1 8B Instruct 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Meta Llama 3.1 8B Instruct 的预置模型的模型单位的最大数量。 |
| Meta Llama 3.2 11B Instruct 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Meta Llama 3.2 11B Instruct 的预置模型的模型单位的最大数量。 |
| Meta Llama 3.2 1B Instruct 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Meta Llama 3.2 1B Instruct 的预置模型的模型单位的最大数量。 |
| Meta Llama 3.2 3B Instruct 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Meta Llama 3.2 3B Instruct 的预置模型的模型单位的最大数量。 |
| Meta Llama 3.2 90B Instruct 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Meta Llama 3.2 90B Instruct 的预置模型的模型单位的最大数量。 |
| Mistral Large 2407 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Mistral Large 2407 的预置模型的模型单位的最大数量。 |
| Mistral Small 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Mistral Small 的预置模型的模型单位的最大数量。 |
| Stability.ai Stable Diffuce XL 0.8 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Stability.ai Stable Diffusion XL 0.8 的预置模型的模型单位的最大数量 |
| Stability.ai Stable Diffuce XL 1.0 的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Stability.ai Stable Diffusion XL 1.0 的预置模型的模型单位的最大数量。 |
| Amazon Nova Micro 的 128k 上下文长度变体的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Nova Micro 的 128k 上下文长度变体的预置模型的模型单位的最大数量 |
| Amazon Nova Lite 的 24k 上下文长度变体的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Nova Lite 的 24k 上下文长度变体的预置模型的模型单位的最大数量 |
| Amazon Nova Micro 的 24k 上下文长度变体的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Nova Micro 的 24k 上下文长度变体的预置模型的模型单位的最大数量 |
| Amazon Nova Pro 的 24k 上下文长度变体的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Nova Pro 的 24k 上下文长度变体的预置模型的模型单位的最大数量 |
| Amazon Nova Lite 的 300k 上下文长度变体的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Nova Lite 的 300k 上下文长度变体的预置模型的模型单位的最大数量 |
| Amazon Nova Pro 的 300k 上下文长度变体的每个预置模型的模型单位数 | 每个受支持的区域:0 个 | 是 |
可以分配给 Amazon Nova Pro 的 300k 上下文长度变体的预置模型的模型单位的最大数量。 |
| 为 Meta Llama 4 Scout 17B Instruct 10M 创建的预置吞吐量的模型单位(带承诺) | 每个受支持的区域:0 个 | 是 |
可以分配给为 Meta Llama 4 Scout 17B Instruct 10M 创建的预置吞吐量的模型单位的最大数量(带承诺)。 |
| 为 Meta Llama 4 Scout 17B Instruct 128K 创建的预置吞吐量的模型单位(带承诺) | 每个受支持的区域:0 个 | 是 |
可以分配给为 Meta Llama 4 Scout 17B Instruct 128K 创建的预置吞吐量的模型单位的最大数量(带承诺)。 |
| 为 Meta Maverick 4 Scout 17B Instruct 128K 创建的预置吞吐量的模型单位(带承诺) | 每个受支持的区域:0 个 | 是 |
可以分配给为 Meta Llama 4 Maverick 17B Instruct 128K 创建的预置吞吐量的模型单位的最大数量(带承诺)。 |
| 为 Meta Maverick 4 Scout 17B Instruct 1M 创建的预置吞吐量的模型单位(带承诺) | 每个受支持的区域:0 个 | 是 |
可以分配给为 Meta Llama 4 Maverick 17B Instruct 1M 创建的预置吞吐量的模型单位的最大数量(带承诺)。 |
| 为基本型号 Amazon Nova 2 Lite V1.0 256K 创建的预配置吞吐量的无承诺模型单位 | 每个受支持的区域:0 个 | 否 | 可以分配给为基本型号 Amazon Nova 2 Lite V1.0 256K 创建的预配置吞吐量的最大模型单位数,无需承诺 |
| 为自定义型号 Amazon Nova 2 Lite V1.0 256K 创建的预配置吞吐量的无承诺模型单位 | 每个受支持的区域:0 个 | 否 | 可以分配给为自定义型号 Amazon Nova 2 Lite V1.0 256K 创建的预配置吞吐量的最大模型单位数,无需承诺。 |
| 每个账户的自定义提示路由器数量 | 每个受支持的区域:500 个 | 否 | 您可以为每个区域的每个账户创建的自定义提示路由器的最大数量。 |
| Amazon Nova Pro V1 每分钟按需、经过延迟优化的模型推理请求 | 每个受支持的区域:10 个 | 否 | 您可以在一分钟内为 Amazon Nova Pro V1 提交的按需延迟优化请求以进行模型推断的最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Meta Llama 3.1 405B Instruct 每分钟的按需延迟优化模型推理请求数 | 每个受支持的区域:100 个 | 否 | 对于 Meta Llama 3.1 405B Instruct,在一分钟内可提交用于模型推理的按需延迟优化请求的最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Meta Llama 3.1 70B Instruct 每分钟的按需延迟优化模型推理请求数 | 每个受支持的区域:100 个 | 否 | 对于 Meta Llama 3.1 70B Instruct,在一分钟内可提交用于模型推理的按需延迟优化请求的最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Amazon Nova Pro V1 每分钟按需、经过延迟优化的模型推理令牌 | 每个受支持的区域:4 万个 | 否 | 您可以在一分钟内为 Amazon Nova Pro V1 提交用于模型推断的按需延迟优化令牌的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Meta Llama 3.1 405B Instruct 每分钟的按需延迟优化模型推理词元数 | 每个受支持的区域:4 万个 | 否 | 对于 Meta Llama 3.1 405B Instruct,在一分钟内可提交用于模型推理的按需延迟优化词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Meta Llama 3.1 70B Instruct 每分钟的按需延迟优化模型推理词元数 | 每个受支持的区域:4 万个 | 否 | 对于 Meta Llama 3.1 70B Instruct,在一分钟内可提交用于模型推理的按需延迟优化词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Amazon InvokeModel Nova 2 多模态嵌入式 V1 的按需异步并发请求 | 每个受支持的区域:30 个 | 否 | 对于 Amazon Nova 2 多模态嵌入 V1,可提交的异步并发模型推理请求的最大数量。配额考虑了 Converse、 ConverseStream InvokeModel、和 InvokeModelWithResponseStream的总和。 |
| Mar TwelveLabs en InvokeModel go Embed 3.0 的按需异步并发请求 | 每个受支持的区域:10 个 | 是 |
您可以为 TwelveLabs Marengo Embed 3.0 提交的最大异步并发模型推理请求数。配额考虑了 Converse、 ConverseStream InvokeModel、和 InvokeModelWithResponseStream的总和。 |
| Amazon Nova 2 Sonic 的按需 InvokeModel 并发请求 | 每个受支持的区域:20 个 | 否 | 您可以为 Amazon Nova 2 Sonic 提交的并发模型推理请求的最大数量。配额考虑了 Converse、 ConverseStream InvokeModel、和 InvokeModelWithResponseStream的总和。 |
| Amazon Nova Reel1.0 的按需 InvokeModel 并发请求 | 每个受支持的区域:10 个 | 否 | 对于 Amazon Nova Reel 1.0,可提交的并发模型推理请求的最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Amazon Nova Reel1.1 的按需 InvokeModel 并发请求 | 每个受支持的区域:3 个 | 否 | 对于 Amazon Nova Reel 1.1,可提交的并发模型推理请求的最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Amazon Nova Sonic 的按需 InvokeModel 并发请求 | 每个受支持的区域:20 个 | 否 | 对于 Amazon Nova Sonic,可提交的并发模型推理请求的最大数量。 |
| Twelve Labs Marengo 的按需 InvokeModel 并发请求 | 每个受支持的区域:30 个 | 否 | 您可以为 Twelve Labs Marengo 的模型推理提交的最大并发 InvokeModel 请求数。 |
| 按需 InvokeModel 并发请求 Twelve Labs Pegasus | 每个受支持的区域:30 个 | 是 |
您可以为 Twelve Labs Pegasus 的模型推理提交的最大并发 InvokeModel 请求数。 |
| Anthropic Claude 3.5 Haiku 每分钟的按需延迟优化模型推理请求数 | 每个受支持的区域:100 个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Anthropic Claude 3.5 Haiku 的总 InvokeModel 和 InvokeModelWithResponseStream (如果配置了延迟优化)。 ConverseStream |
| Anthropic Claude 3.5 Haiku 每分钟的按需延迟优化模型推理词元数 | 每个受支持的区域:500 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。如果配置了延迟优化,配额会考虑所有向 Converse 发出的请求中的输入和输出令牌的总 InvokeModel 和 ConverseStream,以及 InvokeModelWithResponseStream Anthropic Claude 3.5 Haiku 的总和。 |
| Luma Ray V2 的按需模型推理并发请求 | 每个受支持的区域:1 个 | 否 | 对于 Luma Ray V2,可提交用于模型推理的并发请求的最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| AI21 Labs Jamba 1.5 Large 每分钟按需模型推理请求数 | 每个受支持的区域:100 个 | 否 | 在 AI21 Labs Jamba 1.5 Large 中,您可以在一分钟内调用模型推理的最大次数。配额考虑了 Converse 和 InvokeModel |
| AI21 Labs Jamba 1.5 Mini 每分钟的按需模型推理请求数 | 每个受支持的区域:100 个 | 否 | 您可以在一分钟内为 AI21 Labs Jamba 1.5 Mini 调用模型推理的最大次数。配额考虑了 Converse 和 InvokeModel |
| AI21 Labs Jamba Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:100 个 | 否 | 您可以在一分钟内为 AI21 Labs Jamba Instruct 调用模型推理的最大次数。配额考虑了 Converse 和 InvokeModel |
| AI21 Labs Jurassic-2 Mid 每分钟按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 你在一分钟内可以拨打 InvokeModel AI21 Labs Jurassic-2 Mid 的最大次数 |
| AI21 Labs Jurassic-2 Ultra 每分钟按需模型推理请求数 | 每个受支持的区域:100 个 | 否 | 你在一分钟内可以拨打 AI21 Labs Jurassic- InvokeModel 2 Ultra 的最大次数 |
| Amazon Nova 2 多模态嵌入 V1 每分钟的按需模型推理请求数 | 每个受支持的区域:2,000 个 | 否 | 对于 Amazon Nova 2 多模态嵌入 V1,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova Canvas 每分钟的按需模型推理请求数 | 每个受支持的区域:100 个 | 否 | 对于 Amazon Nova Canvas,在一分钟内可提交用于模型推理的请求的最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Amazon Nova Lite 每分钟的按需模型推理请求数 |
us-east-1:2,000 个 eu-west-2:2,000 每个其他支持的区域:200 个 |
否 | 对于 Amazon Nova Lite,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova Micro 每分钟的按需模型推理请求数 |
us-east-1:2,000 个 eu-west-2:2,000 每个其他支持的区域:200 个 |
否 | 对于 Amazon Nova Micro,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Nova Pro 每分钟的按需模型推理请求数 | 每个受支持的区域:250 个 | 否 | 对于 Amazon Nova Pro,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Rerank 1.0 每分钟的按需模型推理请求数 | 每个受支持的区域:200 个 | 否 | 您在一分钟内可以拨打 InvokeModel Amazon Rerank 1.0 的最大次数。 |
| Amazon Titan 图像生成器 G1 每分钟的按需模型推理请求数 | 每个受支持的区域:60 个 | 否 | 您在一分钟内可以调用 InvokeModel Amazon Titan 图像生成器 G1 的最大次数。 |
| Amazon Titan 图像生成器 G1 V2 每分钟的按需模型推理请求数 | 每个受支持的区域:60 个 | 否 | 对于 Amazon Titan 图像生成器 G1 V2,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Amazon Titan 多模态嵌入 G1 每分钟的按需模型推理请求数 | 每个受支持的区域:2,000 个 | 否 | 您在一分钟内可以拨打 InvokeModel Amazon Titan 多式联运 Embeddings G1 的最大次数。 |
| Amazon Titan 文本嵌入每分钟的按需模型推理请求数 | 每个受支持的区域:2,000 个 | 否 | 您在一分钟内可以拨打 InvokeModel Amazon Titan 文本嵌入的最大次数 |
| Amazon Titan 文本嵌入 V2 每分钟的按需模型推理请求数 | 每个受支持的区域:6000 个 | 否 | 你在一分钟内可以拨打 InvokeModel Amazon Titan Text Embeddings V2 的最大次数 |
| Amazon Titan Text 快捷版每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Amazon Titan Te ConverseStream xt E InvokeModel xp InvokeModelWithResponseStream ress 的总和 |
| Amazon Titan Text 简捷版每分钟的按需模型推理请求数 | 每个受支持的区域:800 个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Amazon Titan Te InvokeModel xt Lite InvokeModelWithResponseStream 的总和 ConverseStream |
| Amazon Titan Text 高级版每分钟的按需模型推理请求数 | 每个受支持的区域:100 个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Amazon Titan Te ConverseStream x InvokeModel t P InvokeModelWithResponseStream remier 的总和 |
| Anthropic Claude 3 Haiku 每分钟的按需模型推理请求数 |
us-east-1:1000 个 us-west-2:1000 个 ap-northeast-1:200 ap-southeast-1:200 其他支持的每个区域:400 |
否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Anthropic Claude 3 InvokeModelWithResponseStream Haiku 的总 InvokeModel 和。 ConverseStream |
| Anthropic Claude 3 Opus 每分钟的按需模型推理请求数 | 每个受支持的区域:50 个 | 否 | 对于 Anthropic Claude 3 Opus,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude 3 Sonnet 每分钟的按需模型推理请求数 |
us-east-1:500 个 us-west-2:500 个 每个其他支持的区域:100 个 |
否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Anthropic Claude 3 Sonnet InvokeModelWithResponseStream 的总 InvokeModel 和。 ConverseStream |
| Anthropic Claude 3.5 Haiku 每分钟的按需模型推理请求数 |
us-west-1:400 每个其他支持的区域:1,000 个 |
否 | 对于 Anthropic Claude 3.5 Haiku,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude 3.5 Sonnet 每分钟的按需模型推理请求数 |
us-east-1:50 us-east-2:50 us-west-2:250 ap-northeast-2:50 ap-south-1:50 ap-southeast-2:50 每个其他支持的区域:20 个 |
否 | 对于 Anthropic Claude 3.5 Sonnet,在一分钟内可调用模型推理的最大次数。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Anthropic Claude 3.5 Sonnet V2 每分钟的按需模型推理请求数 |
us-west-2:250 每个其他支持的区域:50 个 |
否 | 对于 Anthropic Claude 3.5 Sonnet V2,在一分钟内可调用模型推理的最大次数。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Anthropic Claude 3.7 Sonnet V1 每分钟的按需模型推理请求数 | 每个受支持的区域:125 个 | 否 | 对于 Anthropic Claude 3.7 Sonnet V1,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Anthropic Claude Instant 每分钟的按需模型推理请求数 |
us-east-1:1000 个 us-west-2:1000 个 其他支持的每个区域:400 |
否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Anthropic Clau ConverseStream de InvokeModel In InvokeModelWithResponseStream stant 的总和 |
| Anthropic Claude V2 每分钟的按需模型推理请求数 |
us-east-1:500 个 us-west-2:500 个 每个其他支持的区域:100 个 |
否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Anthropic Cl ConverseStream au InvokeModel de V2 InvokeModelWithResponseStream 的总和 |
| Cohere Command 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Cohere Command 的 Converse ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 和。 |
| Cohere Command Light 每分钟的按需模型推理请求数 | 每个受支持的区域:800 个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Cohere Command Light 的 Converse ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 和。 |
| Cohere Command R 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Cohere Command R 128k Command ConverseStream、 InvokeModel 和 Cohere C InvokeModelWithResponseStream ommand R 128k 的总和。 |
| Cohere Command R Plus 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Cohere Command R Plus 128k 的 Converse ConverseStream、、 InvokeModel 和 128k InvokeModelWithResponseStream 的总和。 |
| Cohere Embed English 每分钟的按需模型推理请求数 | 每个受支持的区域:2,000 个 | 否 | 你在一分钟内可以拨打 Cohere Embed E InvokeModel mbed English 的最大次数。 |
| Cohere Embed Multilingual 每分钟的按需模型推理请求数 | 每个受支持的区域:2,000 个 | 否 | 您在一分钟内可以拨打 Cohere E InvokeModel mbed 多语言的最大次数。 |
| Cohere Embed V4 每分钟的按需模型推理请求数 | 每个受支持的区域:1000 个 | 否 | 对于 Cohere Embed V4,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Cohere Rerank 3.5 每分钟的按需模型推理请求数 | 每个受支持的区域:250 个 | 否 | 你在一分钟内可以呼叫 InvokeModel Cohere Rerank 3.5 的最大次数。 |
| V3 DeepSeek V1 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 在 V3 DeepSeek V1 中,您可以在一分钟内为模型推断提交的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| V3.2 每分钟按需模型推理请求数 DeepSeek | 每个受支持的区域:1 万个 | 否 | 在 DeepSeek V3.2 中,您可以在一分钟内为模型推理提交的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| GPT OSS Safeguard 120B 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 GPT OSS Safeguard 120B 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| GPT OSS Safeguard 20B 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 GPT OSS Safeguard 20B 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Gemma 3 12B 的每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Gemma 3 12B 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Gemma 3 27B 的每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Gemma 3 27B 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Gemma 3 4B 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Gemma 3 4B 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Kimi K2 Thinking 的每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Kimi K2 Thinking 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Magistral Small 1.2 每分钟的按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 在 Magistral Small 1.2 中,您可以在一分钟内为模型推断提交的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 2 13B 每分钟的按需模型推理请求数 | 每个受支持的区域:800 个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Meta Llama 2 13B InvokeModelWithResponseStream 的总 InvokeModel 和。 ConverseStream |
| Meta Llama 2 70B 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Meta Llama 2 70B InvokeModelWithResponseStream 的总 InvokeModel 和。 ConverseStream |
| Meta Llama 2 Chat 13B 每分钟的按需模型推理请求数 | 每个受支持的区域:800 个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Meta Llama 2 Chat 13B InvokeModelWithResponseStream 的总和。 ConverseStream InvokeModel |
| Meta Llama 2 Chat 70B 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Converse 和 Meta Llama 2 Chat 70B InvokeModelWithResponseStream 的总和。 ConverseStream InvokeModel |
| Meta Llama 3 70B Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 对于 Meta Llama 3 70B Instruct,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 3 8B Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:800 个 | 否 | 对于 Meta Llama 3 8B Instruct,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 3.1 405B Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:200 个 | 否 | 对于 Meta Llama 3.1 405B Instruct,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 3.1 70B Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 对于 Meta Llama 3.1 70B Instruct,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 3.1 8B Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:800 个 | 否 | 对于 Meta Llama 3.1 8B Instruct,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 3.2 11B Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 对于 Meta Llama 3.2 11B Instruct,在一分钟内可调用模型推理的最大次数。配额考虑了 InvokeModel、、 InvokeModelWithResponseStream、Converse 和 ConverseStream的请求总和。 |
| Meta Llama 3.2 1B Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:800 个 | 否 | 对于 Meta Llama 3.2 1B Instruct,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Meta Llama 3.2 3B Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:800 个 | 否 | 对于 Meta Llama 3.2 3B Instruct,在一分钟内可调用模型推理的最大次数。配额考虑了 InvokeModel、、 InvokeModelWithResponseStream、Converse 和 ConverseStream的请求总和。 |
| Meta Llama 3.2 90B Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 对于 Meta Llama 3.2 90B Instruct,在一分钟内可调用模型推理的最大次数。配额考虑了 InvokeModel、、 InvokeModelWithResponseStream、Converse 和 ConverseStream的请求总和。 |
| Meta Llama 3.3 70B Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 对于 Meta Llama 3.3 70B Instruct,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Minimax M2 每分钟的按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Minimax M2 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Minimax M2.1 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Minimax M2.1 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Ministral 14B 3.0 每分钟的按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 在 Ministral 14B 3.0 中,您可以在一分钟内为模型推断提交的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Ministral 3B 3.0 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 在 Ministral 3B 3.0 中,您可以在一分钟内为模型推断提交的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Ministral 8B 3.0 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 在 Ministral 8B 3.0 中,您可以在一分钟内为模型推断提交的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Mistral 7B Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:800 个 | 否 | 你在一分钟内可以呼叫 InvokeModel Mistral mi b-instruct-v stral-7 的最大次数 0 |
| Mistral AI Mistral Small 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 你可以在一分钟内呼叫 InvokeModel 的最大次数 Mistral AI Mistral Small InvokeModelWithResponseStream |
| Mistral Devstral 2 123b 的每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Mistral Devstral 2 123b 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Mistral Large 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | Mistral mistral-large-240 InvokeModel 2-v1 InvokeModelWithResponseStream 在一分钟内可以拨打的最大次数 |
| Mistral Large 2407 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 对于 Mistral Large 2407,在一分钟内可调用模型推理的最大次数。配额考虑了 InvokeModel、 InvokeModelWithResponseStream、Converse 和 ConverseStream |
| Mistral Large 3 每分钟的按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Mistral Large 3 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Mistral Mixtral 8x7b Instruct 每分钟的按需模型推理请求数 | 每个受支持的区域:400 个 | 否 | 你在一分钟内可以拨打 Mistral mixtral- InvokeModel 8x7b-v0 的最大次数 |
| Moonshot AI Kimi K2.5 每分钟的按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Moonshot AI Kimi K2.5 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| NVIDIA Nemotron Nano 2 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 NVIDIA Nemotron Nano 2 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| NVIDIA Nemotron Nano 2 VL 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 NVIDIA Nemotron Nano 2 VL 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Nemotron Nano 3 30B 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Nemotron Nano 3 30B 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| OpenAI GPT OSS 120B 每分钟的按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 对于 OpenAI GPT OSS 120B,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| OpenAI GPT OSS 20B 每分钟的按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 对于 OpenAI GPT OSS 20B,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Qwen3 235B a22b 2507 V1 每分钟的按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 对于 Qwen3 235B a22b 2507 V1,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Qwen3 32B V1 每分钟的按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 对于 Qwen3 32B V1,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Qwen3 Coder 30B a3b V1 每分钟的按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 对于 Qwen3 Coder 30B a3b V1,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Qwen3 Coder 480B a35b V1 每分钟的按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 对于 Qwen3 Coder 480B a35b V1,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Qwen3 Coder 每分钟按需模型推理请求次数下一页 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Qwen3 Coder Next 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Qwen3 Next 80B A3B 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Qwen3 Next 80B A3B 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Qwen3 VL 235B A22B 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Qwen3 VL 235B A22B 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stability.ai Stable Diffusion 3 Large 每分钟的按需模型推理请求数 | 每个受支持的区域:15 个 | 否 | 你在一分钟内可以呼叫 Stability.ai Stable Di InvokeModel ffusion 3 Large 的最大次数。 |
| Stability.ai Stable Diffusion 3 Medium 每分钟的按需模型推理请求数 | 每个受支持的区域:60 个 | 否 | 你在一分钟内可以拨打 Stability.ai Stable Dif InvokeModel fusion 3 Medium 的最大次数 |
| Stability.ai Stable Diffusion 3.5 Large 每分钟的按需模型推理请求数 | 每个受支持的区域:15 个 | 否 | 你在一分钟内可以呼叫 Stability.ai Stable Dif InvokeModel fusion 3.5 Large 的最大次数。 |
| Stability.ai Stable Diffusion XL 0.8 每分钟的按需模型推理请求数 | 每个受支持的区域:60 个 | 否 | 你在一分钟内可以拨打 Stability.ai Stable Di InvokeModel ffusion XL 0.8 的最大次数 |
| Stability.ai Stable Diffusion XL 1.0 每分钟的按需模型推理请求数 | 每个受支持的区域:60 个 | 否 | 你在一分钟内可以拨打 Stability.ai Stable Di InvokeModel ffusion XL 1.0 的最大次数 |
| Stability.ai Stable Image Core 每分钟的按需模型推理请求数 | 每个受支持的区域:90 个 | 否 | 你在一分钟内可以调用 InvokeModel Stability.ai Stable Image Core 的最大次数。 |
| Stability.ai Stable Image Ultra 每分钟的按需模型推理请求数 | 每个受支持的区域:10 个 | 否 | 你在一分钟内可以调用 InvokeModel Stability.ai Stable Image Ultra 的最大次数。 |
| Stable Image Conservative Upscale 每分钟的按需模型推理请求数 | 每个受支持的区域:2 个 | 否 | 对于 Stable Image Conservative Upscale,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Control Sketch 每分钟的按需模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Stable Image Control Sketch,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Control Structure 每分钟的按需模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Stable Image Control Structure,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Creative Upscale 每分钟的按需模型推理请求数 | 每个受支持的区域:2 个 | 否 | 对于 Stable Image Creative Upscale,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Erase Object 每分钟的按需模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Stable Image Erase Object,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Fast Upscale 每分钟的按需模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Stable Image Fast Upscale,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Inpaint 每分钟的按需模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Stable Image Inpaint,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Outpaint 每分钟的按需模型推理请求数 | 每个受支持的区域:2 个 | 否 | 对于 Stable Image Outpaint,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Remove Background 每分钟的按需模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Stable Image Remove Background,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Search and Recolor 每分钟的按需模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Stable Image Search and Recolor,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Search and Replace 每分钟的按需模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Stable Image Search and Replace,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Style Guide 每分钟的按需模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Stable Image Style Guide,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Stable Image Style Transfer 每分钟的按需模型推理请求数 | 每个受支持的区域:10 个 | 否 | 对于 Stable Image Style Transfer,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Twelve Labs Marengo 每分钟的按需模型推理请求数 | 每个受支持的区域:100 个 | 否 | 对于 Twelve Labs Marengo,在一分钟内可提交用于模型推理的按需请求的最大数量。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Twelve Labs Pegasus 每分钟的按需模型推理请求数 | 每个受支持的区域:60 个 | 是 |
对于 Twelve Labs Pegasus,在一分钟内可提交用于模型推理的按需请求的最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| M TwelveLabs arengo Embed 3.0 每分钟按需模型推理请求数 | 每个受支持的区域:500 个 | 是 |
对于 TwelveLabs Marengo Embed 3.0,您可以在一分钟内为模型推理提交的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Voxtral Mini 1.0 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 在 Voxtral Mini 1.0 中,您可以在一分钟内为模型推断提交的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Voxtral Small 1.0 每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 在 Voxtral Small 1.0 中,您可以在一分钟内为模型推断提交的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Z.ai GLM-4.7 的每分钟按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Z.ai GLM-4.7 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| Z.ai GLM-4.7 Flash 每分钟的按需模型推理请求数 | 每个受支持的区域:1 万个 | 否 | 您可以在一分钟内为 Z.ai GLM-4.7 Flash 提交模型推断的最大按需请求数。此配额表示对匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream 操作的请求总数。 |
| AI21 Labs Jamba 1.5 Large 每分钟按需模型推理令牌 | 每个受支持的区域:30 万个 | 否 | 您可以在一分钟内为 AI21 Labs Jamba 1.5 Large 提交用于模型推断的最大代币数量。配额考虑了对Converse和的所有请求中输入和输出令牌的总和。 InvokeModel |
| AI21 Labs Jamba 1.5 Mini 每分钟按需模型推理令牌 | 每个受支持的区域:30 万个 | 否 | 您可以在一分钟内为 AI21 Labs Jamba 1.5 Mini 提交用于模型推断的最大代币数量。配额考虑了对Converse和的所有请求中输入和输出令牌的总和。 InvokeModel |
| AI21 Labs Jamba Instruct 每分钟按需模型推理令牌 | 每个受支持的区域:30 万个 | 否 | 您可以在一分钟内为 AI21 Labs Jamba Instruct 提交用于模型推断的最大代币数量。配额考虑了 Converse 和 InvokeModel |
| AI21 Labs Jurassic-2 Mid 每分钟按需模型推理令牌 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了匡威、 ConverseStream和 AI21 Labs Jurassic-2 Mi InvokeModelWithResponseStream d 的总 InvokeModel 和。 |
| AI21 Labs Jurassic-2 Ultra 每分钟按需模型推理令牌 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了匡威、 ConverseStream和 AI21 Labs Jurassic-2 Ult InvokeModelWithResponseStream ra 的总 InvokeModel 和。 |
| Amazon Nova Lite 每分钟的按需模型推理词元数 |
us-east-1:400,000,000 eu-west-2:400 万个 每个其他支持的区域:200,000 |
否 | 对于 Amazon Nova Lite,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Amazon Nova Micro 每分钟的按需模型推理词元数 |
us-east-1:400,000,000 eu-west-2:400 万个 每个其他支持的区域:200,000 |
否 | 对于 Amazon Nova Micro,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Amazon Nova Pro 每分钟的按需模型推理词元数 | 每个受支持的区域:1000000 个 | 否 | 对于 Amazon Nova Pro,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Amazon Titan 图像生成器 G1 每分钟的按需模型推理词元数 | 每个受支持的区域:2,000 个 | 否 | 您可以在一分钟内为 Amazon Titan 图像生成器 G1 提供的最大代币数量。 InvokeModel |
| Amazon Titan 图像生成器 G1 V2 每分钟的按需模型推理词元数 | 每个受支持的区域:2,000 个 | 否 | 对于 Amazon Titan 图像生成器 G1 V2,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Amazon Titan 多模态嵌入 G1 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 您可以在一分钟内为 Amazon Titan 多式联运 Embeddings G1 提供的最大代币数量。 InvokeModel |
| Amazon Titan 文本嵌入每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 您可以在一分钟内为 Amazon Titan 文本嵌 InvokeModel 入提供的最大代币数量。 |
| Amazon Titan 文本嵌入 V2 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 您可以在一分钟内为 Amazon Titan Text Embeddings V2 提供的最大代币数量。 InvokeModel |
| Amazon Titan Text 快捷版每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Amazon Titan Text Express 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Amazon Titan Text 简捷版每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Amazon Titan Text Lite 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Amazon Titan Text 高级版每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Amazon Titan Text Premier 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Anthropic Claude 3 Haiku 每分钟的按需模型推理词元数 |
us-east-1:2,000,000 us-west-2:2,000,000 ap-northeast-1:200,000 ap-southeast-1:200,000 每个其他支持的区域:300,000 |
否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Anthropic Claude 3 Haiku ConverseStream 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 |
| Anthropic Claude 3 Opus 每分钟的按需模型推理词元数 | 每个受支持的区域:40 万个 | 否 | 对于 Anthropic Claude 3 Opus,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Anthropic Claude 3 Sonnet 每分钟的按需模型推理词元数 |
us-east-1:1,000,000 us-west-2:1,000,000 每个其他支持的区域:200,000 |
否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Anthropic Claude 3 Sonnet 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Anthropic Claude 3.5 Haiku 每分钟的按需模型推理词元数 |
us-west-1:300,000 其他支持的每个区域:2,000,000 |
否 | 对于 Anthropic Claude 3.5 Haiku,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Anthropic Claude 3.5 Sonnet 每分钟的按需模型推理词元数 |
us-east-1:400,000 us-east-2:400,000 us-west-2:2,000,000 ap-northeast-2:400,000 ap-south-1:400,000 ap-southeast-2:400,000 每个其他支持的区域:200,000 |
否 | 对于 Anthropic Claude 3.5 Sonnet,在一分钟内可提交用于模型推理的词元最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Anthropic Claude 3.5 Sonnet V2 每分钟的按需模型推理词元数 |
us-west-2:2,000,000 所有其他支持的区域:400,000 |
否 | 对于 Anthropic Claude 3.5 Sonnet V2,在一分钟内可提交用于模型推理的词元最大数量。配额考虑了匡威 ConverseStream、 InvokeModel 和 InvokeModelWithResponseStream的总和。 |
| Anthropic Claude 3.7 Sonnet V1 每分钟的按需模型推理词元数 | 每个受支持的区域:500 万个 | 否 | 对于 Anthropic Claude 3.7 Sonnet V1,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Anthropic Claude Instant 每分钟的按需模型推理词元数 |
us-east-1:1,000,000 us-west-2:1,000,000 每个其他支持的区域:300,000 |
否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Anthropic Claude Instant 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Anthropic Claude V2 每分钟的按需模型推理词元数 |
us-east-1:50 万个 us-west-2:50 万个 每个其他支持的区域:200,000 |
否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了 Converse 和 Anthropic Claude V2 的所有请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Cohere Command 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Cohere Command 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Cohere Command Light 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可调用模型推理的最大次数。配额考虑了 Cohere Command Light Command Light InvokeModelWithResponseStream 的 Converse ConverseStream、、 InvokeModel 和 |
| Cohere Command R 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Cohere Command R 128k 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Cohere Command R Plus 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Cohere Command R Plus 128 ConverseStream k 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 |
| Cohere Embed English 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 您可以在一分钟内为 Cohere Embed Embed English 提供的最大代币数量。 InvokeModel |
| Cohere Embed Multilingual 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 您可以在一分钟内为 Cohere Embed 多语言提供的最大代币数量。 InvokeModel |
| Cohere Embed V4 每分钟的按需模型推理词元数 | 每个受支持的区域:15 万个 | 否 | 对于 Cohere Embed V4,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| DeepSeek V3 V1 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 V DeepSeek 3 V1 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| V3.2 每分钟按需模型推理令牌 DeepSeek | 每个受支持的区域:1 亿个 | 否 | 在 DeepSeek V3.2 中,您可以在一分钟内为模型推断提交的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| GPT OSS Safeguard 120B 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 GPT OSS Safeguard 120B 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| GPT OSS Safeguard 20B 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 GPT OSS Safeguard 20B 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Gemma 3 12B 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Gemma 3 12B 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Gemma 3 27B 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Gemma 3 27B 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Gemma 3 4B 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Gemma 3 4B 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Kimi K2 Thinking 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Kimi K2 Thinking 提交用于模型推断的最大按需代币数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Magistral Small 1.2 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Magistral Small 1.2 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Meta Llama 2 13B 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Meta Llama 2 13B 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Meta Llama 2 70B 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Meta Llama 2 70B 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Meta Llama 2 Chat 13B 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Meta Llama 2 Chat 13B 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Meta Llama 2 Chat 70B 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Meta Llama 2 Chat 70B 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Meta Llama 3 70B Instruct 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 对于 Meta Llama 3 70B Instruct,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Meta Llama 3 8B Instruct 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 对于 Meta Llama 3 8B Instruct,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Meta Llama 3.1 405B Instruct 每分钟的按需模型推理词元数 | 每个受支持的区域:40 万个 | 否 | 对于 Meta Llama 3.1 405B Instruct,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Meta Llama 3.1 70B Instruct 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 对于 Meta Llama 3.1 70B Instruct,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Meta Llama 3.1 8B Instruct 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 对于 Meta Llama 3.1 8B Instruct,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Meta Llama 3.2 11B Instruct 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 对于 Meta Llama 3.2 11B Instruct,在一分钟内可提交用于模型推理的词元的最大数量。配额考虑了 InvokeModel、 InvokeModelWithResponseStream、Converse 和 ConverseStream的代币总和。 |
| Meta Llama 3.2 1B Instruct 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 对于 Meta Llama 3.2 1B Instruct,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Meta Llama 3.2 3B Instruct 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 对于 Meta Llama 3.2 3B Instruct,在一分钟内可提交用于模型推理的词元的最大数量。配额考虑了 InvokeModel、 InvokeModelWithResponseStream、Converse 和 ConverseStream的代币总和。 |
| Meta Llama 3.2 90B Instruct 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 对于 Meta Llama 3.2 90B Instruct,在一分钟内可提交用于模型推理的词元的最大数量。配额考虑了 InvokeModel、 InvokeModelWithResponseStream、Converse 和 ConverseStream的代币总和。 |
| Meta Llama 3.3 70B Instruct 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 对于 Meta Llama 3.3 70B Instruct,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Minimax M2 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Minimax M2 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Minimax M2.1 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Minimax M2.1 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Ministral 14B 3.0 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 在 Ministral 14B 3.0 中,您可以在一分钟内为模型推断提交的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Ministral 3B 3.0 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 在 Ministral 3B 3.0 中,您可以在一分钟内为模型推断提交的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Ministral 8B 3.0 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 在 Ministral 8B 3.0 中,您可以在一分钟内为模型推断提交的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Mistral AI Mistral 7B Instruct 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Mistral AI Mistral 7B Instruc ConverseStream t 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 |
| Mistral AI Mistral Large 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Mistral AI Mistral Large 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Mistral AI Mistral Small 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Mistral AI Mistral Small 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 ConverseStream |
| Mistral AI Mixtral 8X7BB Instruct 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 在一分钟内可提交用于模型推理的按需词元最大数量。配额考虑了所有向 Converse 和 Mistral AI Mixtral 8X7B Instru ConverseStream ct 发出的请求中输入 InvokeModel 和输出令牌 InvokeModelWithResponseStream 的总和。 |
| Mistral Devstral 2 每分钟按需模型推理令牌 123b | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Mistral Devstral 2 123b 提交用于模型推断的最大按需代币数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Mistral Large 2407 每分钟的按需模型推理词元数 | 每个受支持的区域:30 万个 | 否 | 对于 Mistral Large 2407,在一分钟内可提交用于模型推理的最大词元数量。配额考虑了 InvokeModel、 InvokeModelWithResponseStream、Converse 和 ConverseStream |
| Mistral Large 3 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Mistral Large 3 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Moonshot AI Kimi K2.5 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Moonshot AI Kimi K2.5 提交用于模型推断的最大按需代币数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| NVIDIA Nemotron Nano 2 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 NVIDIA Nemotron Nano 2 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| NVIDIA Nemotron Nano 2 VL 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 NVIDIA Nemotron Nano 2 VL 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Nemotron Nano 3 30B 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Nemotron Nano 3 30B 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| OpenAI GPT OSS 120B 每分钟的按需模型推理词元数 | 每个受支持的区域:1 亿个 | 否 | 对于 OpenAI GPT OSS 120B,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| OpenAI GPT OSS 20B 每分钟的按需模型推理词元数 | 每个受支持的区域:1 亿个 | 否 | 对于 OpenAI GPT OSS 20B,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Qwen3 235B a22b 2507 V1 每分钟的按需模型推理词元数 | 每个受支持的区域:1 亿个 | 否 | 对于 Qwen3 235B a22b 2507 V1,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Qwen3 32B V1 每分钟的按需模型推理词元数 | 每个受支持的区域:1 亿个 | 否 | 对于 Qwen3 32B V1,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Qwen3 Coder 30B a3b V1 每分钟的按需模型推理词元数 | 每个受支持的区域:1 亿个 | 否 | 对于 Qwen3 Coder 30B a3b V1,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Qwen3 Coder 480B a35b V1 每分钟的按需模型推理词元数 | 每个受支持的区域:1 亿个 | 否 | 对于 Qwen3 Coder 480B a35b V1,在一分钟内可提交用于模型推理的按需词元的最大数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Qwen3 Coder 每分钟按需模型推理令牌下一页 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Qwen3 Coder Next 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Qwen3 Next 80B A3B 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Qwen3 Next 80B A3B 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Qwen3 VL 235B A22B 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Qwen3 VL 235B A22B 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Voxtral Mini 1.0 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 在 Voxtral Mini 1.0 中,您可以在一分钟内为模型推断提交的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Voxtral Small 1.0 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 在 Voxtral Small 1.0 中,您可以在一分钟内为模型推断提交的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Z.ai GLM-4.7 的每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Z.ai GLM-4.7 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| Z.ai GLM-4.7 Flash 每分钟按需模型推理令牌 | 每个受支持的区域:1 亿个 | 否 | 您可以在一分钟内为 Z.ai GLM-4.7 Flash 提交用于模型推断的最大按需令牌数量。配额考虑了所有向 Converse、和、 ConverseStream发出的请求中输入和输出令牌的总 InvokeModel 和 InvokeModelWithResponseStream。 |
| 每个函数的参数 | 每个受支持的区域:5 个 | 是 |
您可以在操作组函数中包含的参数最大数量。 |
| PrepareAgent 每秒请求数 | 每个受支持的区域:2 个 | 否 | 每秒 PrepareAgent API 请求的最大数量。 |
| Amazon Nova 2 多模态嵌入式 V1 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
Amazon Nova 2 多模式嵌入式 V1 的批量推理作业中所有输入文件的最大记录数。 |
| Amazon Nova Premier 的每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Amazon Nova Premier 的批量推理作业中所有输入文件的最大记录数。 |
| Claude 3 Haiku 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3 Haiku 的批量推理作业中所有输入文件的最大记录数。 |
| Claude 3 Opus 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3 Opus 的批量推理作业中所有输入文件的最大记录数。 |
| Claude 3 Sonnet 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3 Sonnet 的批量推理作业中所有输入文件的最大记录数。 |
| Claude 3.5 Haiku 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3.5 Haiku 的批量推理作业中所有输入文件的最大记录数。 |
| Claude 3.5 Sonnet 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3.5 Sonnet 的批量推理作业中所有输入文件的最大记录数。 |
| Claude 3.5 Sonnet v2 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3.5 Sonnet v2 的批量推理作业中所有输入文件的最大记录数。 |
| Claude 3.7 Sonnet 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3.7 Sonnet 的批量推理作业中所有输入文件的最大记录数。 |
| Claude Haiku 的每批推理作业记录 4.5 | 每个受支持的区域:50,000 个 | 是 |
Claude Haiku 4.5 的批处理推理作业中所有输入文件的最大记录数。 |
| Claude Opus 4.5 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
Claude Opus 4.5 的批处理推理作业中所有输入文件的最大记录数。 |
| Claude Opus 4.6 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
Claude Opus 4.6 的批处理推理作业中所有输入文件的最大记录数。 |
| Claude Sonnet 4 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude Sonnet 4 的批量推理作业中所有输入文件的最大记录数。 |
| Claude Sonnet 4.5 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
Claude Sonnet 4.5 的批处理推理作业中所有输入文件的最大记录数。 |
| Claude Sonnet 4.6 的每批推理作业记录 | 每个受支持的区域:10 万个 | 是 |
Claude Sonnet 4.6 的批处理推理作业中所有输入文件的最大记录数。 |
| V3.2 中每个批次推理作业的 DeepSeek 记录 | 每个受支持的区域:50,000 个 | 是 |
DeepSeek V3.2 版批量推理作业中所有输入文件的最大记录数。 |
| v3 的每个批量推理作业的 DeepSeek 记录 | 每个受支持的区域:50,000 个 | 是 |
DeepSeek v3 批量推理作业中所有输入文件的最大记录数。 |
| Devstral 2 123B 每批推理作业的记录 | 每个受支持的区域:10 万个 | 是 |
Devstral 2 123B 的批处理推理作业中所有输入文件的最大记录数。 |
| GLM 4.7 的每个批次推理作业的记录 | 每个受支持的区域:50,000 个 | 是 |
GLM 4.7 的批处理推理作业中所有输入文件的最大记录数。 |
| GLM 4.7 Flash 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
GLM 4.7 Flash 的批处理推理作业中所有输入文件的最大记录数。 |
| Gemma 3 12B 的每批推理作业的记录 | 每个受支持的区域:50,000 个 | 是 |
Gemma 3 12B 的批处理推理作业中所有输入文件的最大记录数。 |
| Gemma 3 27B 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
Gemma 3 27B 的批处理推理作业中所有输入文件的最大记录数。 |
| Gemma 3 4B 的每批推理作业的记录 | 每个受支持的区域:50,000 个 | 是 |
Gemma 3 4B 的批处理推理作业中所有输入文件的最大记录数。 |
| Kimi K2 Thinking 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
Kimi K2 Thinking 的批量推理作业中所有输入文件的最大记录数。 |
| Kimi K2.5 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
Kimi K2.5 的批处理推理作业中所有输入文件的最大记录数。 |
| Llama 3.1 405B Instruct 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.1 405B Instruct 的批量推理作业中所有输入文件的最大记录数。 |
| Llama 3.1 70B Instruct 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.1 70B Instruct 的批量推理作业中所有输入文件的最大记录数。 |
| Llama 3.1 8B Instruct 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.1 8B Instruct 的批量推理作业中所有输入文件的最大记录数。 |
| Llama 3.2 11B Instruct 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.2 11B Instruct 的批量推理作业中所有输入文件的最大记录数。 |
| Llama 3.2 1B Instruct 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.2 1B Instruct 的批量推理作业中所有输入文件的最大记录数。 |
| Llama 3.2 3B Instruct 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.2 3B Instruct 的批量推理作业中所有输入文件的最大记录数。 |
| Llama 3.2 90B Instruct 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.2 90B Instruct 的批量推理作业中所有输入文件的最大记录数。 |
| Llama 3.3 70B Instruct 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.3 70B Instruct 的批量推理作业中所有输入文件的最大记录数。 |
| Llama 4 Maverick 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 4 Maverick 的批量推理作业中所有输入文件的最大记录数。 |
| Llama 4 Scout 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 4 Scout 的批量推理作业中所有输入文件的最大记录数。 |
| Magistral Small 2509 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
Magistral Small 2509 的批处理推理作业中所有输入文件的最大记录数。 |
| M2 的每个批次推理作业的 MiniMax 记录 | 每个受支持的区域:50,000 个 | 是 |
在 MiniMax M2 的批处理推理作业中,所有输入文件的最大记录数。 |
| M2.1 的每个批次推理作业的 MiniMax 记录 | 每个受支持的区域:50,000 个 | 是 |
在 MiniMax M2.1 的批处理推理作业中,所有输入文件的最大记录数。 |
| Ministral 3 14B 每批推理作业的记录 | 每个受支持的区域:50,000 个 | 是 |
Ministral 3 14B 的批处理推理作业中所有输入文件的最大记录数。 |
| Ministral 3 8B 每批推理作业的记录 | 每个受支持的区域:50,000 个 | 是 |
Ministral 3 8B 的批处理推理作业中所有输入文件的最大记录数。 |
| Ministral 3B 每批推理作业的记录 | 每个受支持的区域:50,000 个 | 是 |
Ministral 3B 的批处理推理作业中所有输入文件的最大记录数。 |
| Mistral Large 2(24.07)每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Mistral Large 2(24.07)的批量推理作业中所有输入文件的最大记录数。 |
| Mistral Large 3 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
Mistral Large 3 的批处理推理作业中所有输入文件的最大记录数。 |
| Mistral Small 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Mistral Small 的批量推理作业中所有输入文件的最大记录数。 |
| NVIDIA Nemotron Nano 12B 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
NVIDIA Nemotron Nano 12B 的批量推理作业中所有输入文件的最大记录数。 |
| NVIDIA Nemotron Nano 3 30B 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
NVIDIA Nemotron Nano 3 30B 的批量推理作业中所有输入文件的最大记录数。 |
| NVIDIA Nemotron Nano 9B 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
NVIDIA Nemotron Nano 9B 的批量推理作业中所有输入文件的最大记录数。 |
| Nova 2 Lite 每批推理作业的记录 | 每个受支持的区域:50,000 个 | 是 |
Nova 2 Lite 批量推理作业中所有输入文件的最大记录数。 |
| Nova Lite V1 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Nova Lite V1 的批量推理作业中所有输入文件的最大记录数。 |
| Nova Micro V1 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Nova Micro V1 的批量推理作业中所有输入文件的最大记录数。 |
| Nova Pro V1 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Nova Pro V1 的批量推理作业中所有输入文件的最大记录数。 |
| OpenAI GPT OSS 120b 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
OpenAI GPT OSS 120b 的批量推理作业中所有输入文件的最大记录数。 |
| OpenAI GPT OSS 20b 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
OpenAI GPT OSS 20b 的批量推理作业中所有输入文件的最大记录数。 |
| OpenAI GPT OSS Safeguard 120b 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
OpenAI GPT OSS Safeguard 120b 的批处理推理作业中所有输入文件的最大记录数。 |
| OpenAI GPT OSS Safeguard 20b 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
OpenAI GPT OSS Safeguard 20b 的批处理推理作业中所有输入文件的最大记录数。 |
| Qwen3 235B 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Qwen3 235B 批量推理作业中所有输入文件的最大记录数。 |
| Qwen3 32B 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Qwen3 32B 批量推理作业中所有输入文件的最大记录数。 |
| Qwen3 Coder 30B 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Qwen3 Coder 30B 的批量推理作业中所有输入文件的最大记录数。 |
| Qwen3 Coder 480B 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Qwen3 Coder 480B 的批量推理作业中所有输入文件的最大记录数。 |
| Qwen3 Coder 每批推理作业的记录下一页 | 每个受支持的区域:50,000 个 | 是 |
Qwen3 Coder Next 的批处理推理作业中所有输入文件的最大记录数。 |
| Qwen3 的每个批次推理作业的记录 Next 80B | 每个受支持的区域:50,000 个 | 是 |
Qwen3 Next 80B 的批处理推理作业中所有输入文件的最大记录数。 |
| Qwen3 VL 235B 的每个批次推理作业的记录 | 每个受支持的区域:50,000 个 | 是 |
Qwen3 VL 235B 的批处理推理作业中所有输入文件的最大记录数。 |
| Titan 多模态嵌入 G1 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Titan 多模态嵌入 G1 的批量推理作业中所有输入文件的最大记录数。 |
| Titan 文本嵌入 V2 每个批量推理作业的记录数 | 每个受支持的区域:50,000 个 | 是 |
Titan 文本嵌入 V2 的批量推理作业中所有输入文件的最大记录数。 |
| Voxtral Mini 3B 2507 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
Voxtral Mini 3B 2507 的批处理推理作业中所有输入文件的最大记录数。 |
| Voxtral Small 24B 2507 的每批推理作业记录 | 每个受支持的区域:50,000 个 | 是 |
Voxtral Small 24B 2507 的批处理推理作业中所有输入文件的最大记录数。 |
| Amazon Nova 2 多模嵌入 V1 每个批量推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
Amazon Nova 2 多模式嵌入式 V1 的批量推理作业中输入文件中的最大记录数。 |
| Amazon Nova Premier 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Amazon Nova Premier 的批量推理作业中输入文件的最大记录数。 |
| Claude 3 Haiku 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3 Haiku 的批量推理作业中输入文件中的最大记录数。 |
| Claude 3 Opus 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3 Opus 的批量推理作业中输入文件中的最大记录数。 |
| Claude 3 Sonnet 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3 Sonnet 的批量推理作业中输入文件中的最大记录数。 |
| Claude 3.5 Haiku 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3.5 Haiku 的批量推理作业中输入文件中的最大记录数。 |
| Claude 3.5 Sonnet 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3.5 Sonnet 的批量推理作业中输入文件中的最大记录数。 |
| Claude 3.5 Sonnet v2 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3.5 Sonnet v2 的批量推理作业中输入文件中的最大记录数。 |
| Claude 3.7 Sonnet 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude 3.7 Sonnet 的批量推理作业中输入文件中的最大记录数。 |
| Claude Haiku 4.5 每个批处理推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude Haiku 4.5 的批处理推理作业中输入文件中的最大记录数。 |
| Claude Opus 4.5 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
Claude Opus 4.5 的批处理推理作业中输入文件中的最大记录数。 |
| Claude Opus 4.6 每个批处理推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude Opus 4.6 的批处理推理作业中输入文件中的最大记录数。 |
| Claude Sonnet 4 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Claude Sonnet 4 的批量推理作业中输入文件中的最大记录数。 |
| Claude Sonnet 4.5 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
Claude Sonnet 4.5 的批处理推理作业中输入文件中的最大记录数。 |
| Claude Sonnet 4.6 中每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:10 万个 | 是 |
Claude Sonnet 4.6 的批处理推理作业中输入文件中的最大记录数。 |
| V3.2 中每个批处理推理作业的 DeepSeek 每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
DeepSeek V3.2 版批量推理作业中输入文件中的最大记录数。 |
| v3 中每个批处理推理作业的 DeepSeek 每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
DeepSeek v3 批量推理作业中输入文件中的最大记录数。 |
| Devstral 2 123B 每个批处理推理作业的每个输入文件的记录 | 每个受支持的区域:10 万个 | 是 |
在 Devstral 2 123B 的批处理推理作业中,输入文件中的最大记录数。 |
| GLM 4.7 中每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
GLM 4.7 的批处理推理作业中输入文件中的最大记录数。 |
| GLM 4.7 Flash 中每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
在 GLM 4.7 Flash 的批处理推理作业中,输入文件中的最大记录数。 |
| Gemma 3 12B 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
在 Gemma 3 12B 的批处理推理作业中,输入文件中的最大记录数。 |
| Gemma 3 27B 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
在 Gemma 3 27B 的批处理推理作业中,输入文件中的最大记录数。 |
| Gemma 3 4B 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
在 Gemma 3 4B 的批处理推理作业中,输入文件中的最大记录数。 |
| Kimi K2 Thinking 每个批量推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
Kimi K2 Thinking 的批量推理作业中输入文件中的最大记录数。 |
| Kimi K2.5 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
Kimi K2.5 的批量推理作业中输入文件中的最大记录数。 |
| Llama 3.1 405B Instruct 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.1 405B Instruct 的批量推理作业中输入文件中的最大记录数。 |
| Llama 3.1 70B Instruct 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.1 70B Instruct 的批量推理作业中输入文件中的最大记录数。 |
| Llama 3.1 8B Instruct 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.1 8B Instruct 的批量推理作业中输入文件中的最大记录数。 |
| Llama 3.2 11B Instruct 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.2 11B Instruct 的批量推理作业中输入文件中的最大记录数。 |
| Llama 3.2 1B Instruct 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.2 1B Instruct 的批量推理作业中输入文件中的最大记录数。 |
| Llama 3.2 3B Instruct 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.2 3B Instruct 的批量推理作业中输入文件中的最大记录数。 |
| Llama 3.2 90B Instruct 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.2 90B Instruct 的批量推理作业中输入文件中的最大记录数。 |
| Llama 3.3 70B Instruct 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 3.3 70B Instruct 的批量推理作业中输入文件中的最大记录数。 |
| Llama 4 Maverick 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 4 Maverick 的批量推理作业中输入文件中的最大记录数。 |
| Llama 4 Scout 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Llama 4 Scout 的批量推理作业中输入文件中的最大记录数。 |
| Magistral Small 2509 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
Magistral Small 2509 的批量推理作业中输入文件中的最大记录数。 |
| M2 每个批处理推理作业的 MiniMax 每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
在 MiniMax M2 的批量推理作业中,输入文件中的最大记录数。 |
| M2.1 每个批处理推理作业的 MiniMax 每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
在 MiniMax M2.1 的批处理推理作业中,输入文件中的最大记录数。 |
| Ministral 3 14B 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
在 Ministral 3 14B 的批处理推理作业中,输入文件中的最大记录数。 |
| Ministral 3 8B 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
在 Ministral 3 8B 的批处理推理作业中,输入文件中的最大记录数。 |
| Ministral 3B 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
在 Ministral 3B 的批处理推理作业中,输入文件中的最大记录数。 |
| Mistral Large 2(24.07)每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Mistral Large 2(24.07)的批量推理作业中输入文件中的最大记录数。 |
| Mistral Large 3 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
在 Mistral Large 3 的批处理推理作业中,输入文件中的最大记录数。 |
| Mistral Small 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Mistral Small 的批量推理作业中输入文件中的最大记录数。 |
| NVIDIA Nemotron Nano 12B 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
NVIDIA Nemotron Nano 12B 的批量推理作业中输入文件中的最大记录数。 |
| NVIDIA Nemotron Nano 3 30B 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
NVIDIA Nemotron Nano 3 30B 的批量推理作业中输入文件中的最大记录数。 |
| NVIDIA Nemotron Nano 9B 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
NVIDIA Nemotron Nano 9B 的批量推理作业中输入文件中的最大记录数。 |
| Nova 2 Lite 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
Nova 2 Lite 批量推理作业中输入文件中的最大记录数。 |
| Nova Lite V1 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Nova Lite V1 的批量推理作业中输入文件中的最大记录数。 |
| Nova Micro V1 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Nova Micro V1 的批量推理作业中输入文件中的最大记录数。 |
| Nova Pro V1 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Nova Pro V1 批量推理作业中输入文件中的最大记录数。 |
| OpenAI GPT OSS 120b 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
OpenAI GPT OSS 120b 的批量推理作业中输入文件中的最大记录数。 |
| OpenAI GPT OSS 20b 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
OpenAI GPT OSS 20b 的批量推理作业中输入文件中的最大记录数。 |
| OpenAI GPT OSS Safeguard 120b 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
OpenAI GPT OSS Safeguard 120b 的批量推理作业中输入文件中的最大记录数。 |
| OpenAI GPT OSS Safeguard 20b 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
OpenAI GPT OSS Safeguard 20b 的批量推理作业中输入文件中的最大记录数。 |
| Qwen3 235B 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Qwen3 235B 的批量推理作业中输入文件中的最大记录数。 |
| Qwen3 32B 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Qwen3 32B 的批量推理作业中输入文件中的最大记录数。 |
| Qwen3 Coder 30B 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Qwen3 Coder 30B 的批量推理作业中输入文件中的最大记录数。 |
| Qwen3 Coder 480B 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Qwen3 Coder 480B 的批量推理作业中输入文件中的最大记录数。 |
| Qwen3 Coder 每个批处理推理作业每个输入文件的记录下一页 | 每个受支持的区域:50,000 个 | 是 |
Qwen3 Coder Next 的批量推理作业中输入文件中的最大记录数。 |
| Qwen3 每个批处理推理作业的每个输入文件记录 Next 80B | 每个受支持的区域:50,000 个 | 是 |
Qwen3 Next 80B 的批量推理作业中输入文件中的最大记录数。 |
| Qwen3 VL 235B 每个批处理推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Qwen3 VL 235B 的批处理推理作业中输入文件中的最大记录数。 |
| Titan 多模态嵌入 G1 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Titan 多模态嵌入 G1 的批量推理作业中输入文件中的最大记录数。 |
| Titan 文本嵌入 V2 每个批量推理作业的每个输入文件记录数 | 每个受支持的区域:50,000 个 | 是 |
Titan 文本嵌入 V2 的批量推理作业中输入文件中的最大记录数。 |
| Voxtral Mini 3B 2507 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
Voxtral Mini 3B 2507 的批量推理作业中输入文件中的最大记录数。 |
| Voxtral Small 24B 2507 每个批处理推理作业的每个输入文件记录 | 每个受支持的区域:50,000 个 | 是 |
Voxtral Small 24B 2507 的批量推理作业中输入文件中的最大记录数。 |
| 使用 Amazon Nova 2 多模态嵌入 V1 的基础模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Amazon Nova 2 多模态嵌入 V1 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Amazon Nova Premier 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Amazon Nova Premier 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Claude 3 Haiku 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Claude 3 Haiku 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Claude 3 Opus 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Claude 3 Opus 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Claude 3 Sonnet 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Claude 3 Sonnet 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Claude 3.5 Haiku 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Claude 3.5 Haiku 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Claude 3.5 Sonnet 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Claude 3.5 Sonnet 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Claude 3.5 Sonnet v2 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Claude 3.5 Sonnet v2 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Claude 3.7 Sonnet 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Claude 3.7 Sonnet 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Claude Haiku 4.5 的基础模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Claude Haiku 4.5 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Claude Opus 4.5 的基础模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Claude Opus 4.5 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Claude Opus 4.6 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Claude Opus 4.6 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Claude Sonnet 4 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Claude Sonnet 4 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Claude Sonnet 4.5 的基本模型计算正在进行和已提交的批量推理作业的总和。 | 每个受支持的区域:20 个 | 是 |
使用 Claude Sonnet 4.5 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Claude Sonnet 4.6 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:100 个 | 是 |
使用 Claude Sonnet 4.6 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 V3.2 基础模型计算正在进行和已提交的批量推理作业的总和 DeepSeek | 每个受支持的区域:20 个 | 是 |
使用 V3.2 基础模型进行中和已提交的批量推理作业的最大数量。 DeepSeek |
| 使用 v3 基础模型计算正在进行和已提交的批量推理作业的总和 DeepSeek | 每个受支持的区域:20 个 | 是 |
使用 v3 基础模型进行中和已提交的批量推理作业的最大数量。 DeepSeek |
| 使用 Devstral 2 123B 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:100 个 | 是 |
使用 Devstral 2 123B 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 GLM 4.7 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 GLM 4.7 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 GLM 4.7 Flash 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 GLM 4.7 Flash 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Gemma 3 12B 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Gemma 3 12B 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Gemma 3 27B 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Gemma 3 27B 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Gemma 3 4B 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Gemma 3 4B 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Kimi K2 Thinking 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Kimi K2 Thinking 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Kimi K2.5 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Kimi K2.5 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Llama 3.1 405B Instruct 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Llama 3.1 405B Instruct 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Llama 3.1 70B Instruct 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Llama 3.1 70B Instruct 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Llama 3.1 8B Instruct 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Llama 3.1 8B Instruct 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Llama 3.2 11B Instruct 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Llama 3.2 11B Instruct 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Llama 3.2 1B Instruct 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Llama 3.2 1B Instruct 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Llama 3.2 3B Instruct 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Llama 3.2 3B Instruct 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Llama 3.2 90B Instruct 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Llama 3.2 90B Instruct 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Llama 3.3 70B Instruct 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Llama 3.3 70B Instruct 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Llama 4 Maverick 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Llama 4 Maverick 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Llama 4 Scout 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Llama 4 Scout 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Magistral Small 2509 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Magistral Small 2509 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 M2 的基本模型计算正在进行和已提交的批量推理作业的总和 MiniMax | 每个受支持的区域:20 个 | 是 |
使用 M2 的基本模型进行中和已提交的批量推理作业的最大数量。 MiniMax |
| 使用 M2.1 基础模型计算正在进行和已提交的批量推理作业的总和 MiniMax | 每个受支持的区域:20 个 | 是 |
使用 M2.1 基础模型的正在进行和已提交的批量推理作业的最大数量。 MiniMax |
| 使用 Ministral 3 14B 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Ministral 3 14B 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Ministral 3 8B 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Ministral 3 8B 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Ministral 3B 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Ministral 3B 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Mistral Large 2(24.07)基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Mistral Large 2(24.07)基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Mistral Large 3 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Mistral Large 3 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Mistral Small 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Mistral Small 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用适用于 NVIDIA Nemotron Nano 12B 的基本模型的正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用适用于 NVIDIA Nemotron Nano 12B 的基本模型的正在进行和已提交的批量推理作业的最大数量。 |
| 使用适用于 NVIDIA Nemotron Nano 3 30B 的基本模型的正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 NVIDIA Nemotron Nano 3 30B 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用适用于 NVIDIA Nemotron Nano 9B 的基本模型的正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用适用于 NVIDIA Nemotron Nano 9B 的基本模型的正在进行和已提交的批量推理作业的最大数量。 |
| 使用 Nova 2 Lite 基础模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Nova 2 Lite 基础模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Nova Lite V1 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Nova Lite V1 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Nova Micro V1 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Nova Micro V1 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Nova Pro V1 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Nova Pro V1 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 OpenAI GPT OSS 120b 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 OpenAI GPT OSS 120b 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 OpenAI GPT OSS 20b 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 OpenAI GPT OSS 20b 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 OpenAI GPT OSS Safeguard 120b 的基本模型进行中和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 OpenAI GPT OSS Safeguard 120b 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 OpenAI GPT OSS Safeguard 20b 的基本模型进行中和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 OpenAI GPT OSS Safeguard 20b 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Qwen3 235B 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Qwen3 235B 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Qwen3 32B 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Qwen3 32B 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Qwen3 Coder 30B 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Qwen3 Coder 30B 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Qwen3 Coder 480B 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Qwen3 Coder 480B 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Qwen3 Coder 基础模型计算正在进行和已提交的批量推理作业的总和下一页 | 每个受支持的区域:20 个 | 是 |
使用 Qwen3 Coder Next 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Qwen3 Next 80B 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Qwen3 Next 80B 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Qwen3 VL 235B 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Qwen3 VL 235B 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Titan 多模态嵌入 G1 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Titan 多模态嵌入 G1 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Titan 文本嵌入 V2 基础模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Titan 文本嵌入 V2 基础模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Voxtral Mini 3B 2507 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Voxtral Mini 3B 2507 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Voxtral Small 24B 2507 的基本模型计算正在进行和已提交的批量推理作业的总和 | 每个受支持的区域:20 个 | 是 |
使用 Voxtral Small 24B 2507 的基本模型进行中和已提交的批量推理作业的最大数量。 |
| 使用 Titan 多模态嵌入 G1 自定义模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:3 个 | 否 | 使用 Titan 多模态嵌入 G1 自定义模型的正在进行和已提交批量推理作业的最大数量。 |
| 使用 Titan 文本嵌入 V2 自定义模型的正在进行和已提交批量推理作业的总和 | 每个受支持的区域:3 个 | 否 | 使用 Titan 文本嵌入 V2 自定义模型的正在进行和已提交批量推理作业的最大数量 |
| 基岩数据自动化运行时的节流速率限制: ListTagsForResource | 每个受支持的区域:每秒 25 个 | 否 | Bedrock Data Automation 运行时的最大数量:在当前区域中,每个账户每秒可以发出的 ListTagsForResource 请求数 |
| 基岩数据自动化运行时的节流速率限制: TagResource | 每个受支持的区域:每秒 25 个 | 否 | Bedrock Data Automation 运行时的最大数量:在当前区域中,每个账户每秒可以发出的 TagResource 请求数 |
| 基岩数据自动化运行时的节流速率限制: UntagResource | 每个受支持的区域:每秒 25 个 | 否 | Bedrock Data Automation 运行时的最大数量:在当前区域中,每个账户每秒可以发出的 UntagResource 请求数 |
| 基岩数据自动化的节流速率限制: ListTagsForResource | 每个受支持的区域:每秒 25 个 | 否 | Bedrock Data Automation 的最大数量:在当前区域内,每个账户每秒可以发出的 ListTagsForResource 请求数 |
| 基岩数据自动化的节流速率限制: TagResource | 每个受支持的区域:每秒 25 个 | 否 | Bedrock Data Automation 的最大数量:在当前区域内,每个账户每秒可以发出的 TagResource 请求数 |
| 基岩数据自动化的节流速率限制: UntagResource | 每个受支持的区域:每秒 25 个 | 否 | Bedrock Data Automation 的最大数量:在当前区域内,每个账户每秒可以发出的 UntagResource 请求数 |
| 油门速率限制 CreateBlueprint | 每个受支持的区域:每秒 5 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 CreateBlueprint 请求数 |
| 油门速率限制 CreateBlueprintVersion | 每个受支持的区域:每秒 5 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 CreateBlueprintVersion 请求数 |
| 油门速率限制 CreateDataAutomationProject | 每个受支持的区域:每秒 5 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 CreateDataAutomationProject 请求数 |
| 油门速率限制 DeleteBlueprint | 每个受支持的区域:每秒 5 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 DeleteBlueprint 请求数 |
| 油门速率限制 DeleteDataAutomationProject | 每个受支持的区域:每秒 5 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 DeleteDataAutomationProject 请求数 |
| 油门速率限制 GetBlueprint | 每个受支持的区域:每秒 5 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 GetBlueprint 请求数 |
| 油门速率限制 GetDataAutomationProject | 每个受支持的区域:每秒 5 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 GetDataAutomationProject 请求数 |
| 油门速率限制 GetDataAutomationStatus | 每个受支持的区域:每秒 10 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 GetDataAutomationStatus 请求数 |
| 油门速率限制 InvokeDataAutomationAsync | 每个受支持的区域:每秒 10 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 InvokeDataAutomationAsync 请求数 |
| 油门速率限制 ListBlueprints | 每个受支持的区域:每秒 5 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 ListBlueprints 请求数 |
| 油门速率限制 ListDataAutomationProjects | 每个受支持的区域:每秒 5 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 ListDataAutomationProjects 请求数 |
| 油门速率限制 UpdateBlueprint | 每个受支持的区域:每秒 5 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 UpdateBlueprint 请求数 |
| 油门速率限制 UpdateDataAutomationProject | 每个受支持的区域:每秒 5 个 | 否 | 在当前区域内,每个账户每秒可以发出的最大 UpdateDataAutomationProject 请求数 |
| UpdateAgent 每秒请求数 | 每个受支持的区域:4 个 | 否 | 每秒 UpdateAgent API 请求的最大数量。 |
| UpdateAgentActionGroup 每秒请求数 | 每个受支持的区域:6 个 | 否 | 每秒 UpdateAgentActionGroup API 请求的最大数量。 |
| UpdateAgentAlias 每秒请求数 | 每个受支持的区域:2 个 | 否 | 每秒 UpdateAgentAlias API 请求的最大数量。 |
| UpdateAgentKnowledgeBase 每秒请求数 | 每个受支持的区域:4 个 | 否 | 每秒 UpdateAgentKnowledgeBase API 请求的最大数量。 |
注意
您可以按照以下步骤请求为账户增加配额:
-
如果某个配额被标记为是,则可以按照《服务配额用户指南》中请求增加配额的步骤进行调整。
-
如果某个配额被标记为否,则您可以通过提高限制表
提交申请,以考虑提高限制。 -
对于任何模型,您都可以同时请求提高以下配额:
-
每分钟跨区域 InvokeModel 代币
${model} -
的每分钟跨区域 InvokeModel 请求数
${model} -
每分钟按需 InvokeModel 代币
${model} -
的每分钟按需 InvokeModel 请求数
${model}
要申请增加这些配额的任意组合,请按照 Service Quotas 用户指南中请求增加
${model}配额中的步骤申请增加每分钟跨区域 InvokeModel 令牌的配额。完成后,支持团队将与您联系,并为您提供提高其他三个配额的选项。由于需求过大,将优先考虑那些产生的流量消耗了现有配额分配的客户。如果您不符合此条件,将可能拒绝您的请求。 -