本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
Meta
Amazon Bedrock 提供下列中繼模型:
| 模型 | Description |
|---|---|
| Llama 4 Maverick 17B Instruct | Llama 4 Maverick 是 Meta 的 170 億主動參數mixture-of-experts模型,擁有 128 名專家,針對多模式聊天和以下指示進行最佳化。 |
| Llama 4 Scout 17B Instruct | Llama 4 Scout 是中繼的 170 億個作用中參數mixture-of-experts模型,具有 16 位專家和 10M個權杖內容視窗,用於長文件任務。 |
| Llama 3.3 70B Instruct | Llama 3.3 70B Instruct 是中繼的 700 億個參數模型,具有更高的效率,透過 128K 內容視窗提供強大的推理和編碼效能。 |
| Llama 3.2 11B Instruct | Llama 3.2 11B Instruct 是中繼的 110 億參數多模態模型,可處理具有 128K 內容視窗的文字和影像。 |
| Llama 3.2 1B Instruct | Llama 3.2 1B Instruct 是 Meta 的超輕量 10 億參數模型,已針對裝置和邊緣部署進行最佳化。 |
| Llama 3.2 3B Instruct | Llama 3.2 3B Instruct 是 Meta 的 30 億參數輕量型模型,專為摘要和以下指示等裝置任務而設計。 |
| Llama 3.2 90B Instruct | Llama 3.2 90B Instruct 是中繼的 900 億參數多模態模型,可處理文字和影像以進行視覺化推理和文件理解。 |
| Llama 3.1 405B Instruct | Llama 3.1 405B Instruct 是中繼最大的開放模型,具有 4,050 億個參數和 128K 內容視窗,支援工具使用和多語言任務。 |
| Llama 3.1 70B Instruct | Llama 3.1 70B Instruct 是中繼的 700 億參數模型,具有延伸的 128K 內容視窗,並支援工具使用和程式碼產生。 |
| Llama 3.1 8B Instruct | Llama 3.1 8B Instruct 是 Meta 的精簡 80 億參數模型,具有 128K 內容視窗,適用於邊緣部署和微調。 |
| Llama 3 70B Instruct | Llama 3 70B Instruct 是中繼的 700 億參數指令調校模型,具有 8K 內容視窗,針對對話和類似助理的任務進行了最佳化。 |
| Llama 3 8B Instruct | Llama 3 8B Instruct 是 Meta 的 80 億參數指令調校模型,具有 8K 內容視窗,專為在較小的基礎設施上高效部署而設計。 |