翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Meta
Amazon Bedrock では、次のメタモデルを使用できます。
| [Model] (モデル) | 説明 |
|---|---|
| Llama 4 Maverick 17B Instruct | Llama 4 Maverick は、Meta の 170 億のアクティブパラメータmixture-of-expertsモデルで、128 人のエキスパートが参加しており、マルチモーダルチャットと指示に最適化されています。 |
| Llama 4 Scout 17B Instruct | Llama 4 Scout は、Meta の 170 億のアクティブパラメータmixture-of-expertsモデルで、16 人のエキスパートと、ロングドキュメントタスク用の 10Mのトークンコンテキストウィンドウを備えています。 |
| Llama 3.3 70B インストラクション | Llama 3.3 70B Instruct は、Meta の 700 億パラメータモデルで、効率が向上し、128K コンテキストウィンドウで強力な推論とコーディングパフォーマンスを提供します。 |
| Llama 3.2 11B 指示 | Llama 3.2 11B Instruct は、Meta の 110 億パラメータのマルチモーダルモデルで、128K コンテキストウィンドウでテキストと画像の両方を処理します。 |
| Llama 3.2 1B 指示 | Llama 3.2 1B Instruct は、Meta の超軽量 10 億パラメータモデルで、デバイス上およびエッジデプロイ用に最適化されています。 |
| Llama 3.2 3B インストラクション | Llama 3.2 3B Instruct は、Meta の 30 億パラメータの軽量モデルで、要約や指示などのデバイス上のタスク用に設計されています。 |
| Llama 3.2 90B インストラクション | Llama 3.2 90B Instruct は、Meta の 900 億パラメータのマルチモーダルモデルで、視覚的な推論とドキュメントの理解のためにテキストと画像を処理します。 |
| Llama 3.1 405B 指示 | Llama 3.1 405B Instruct は、メタ最大のオープンモデルで、4,050 億個のパラメータと 128K000 個のコンテキストウィンドウがあり、ツールの使用と多言語タスクをサポートしています。 |
| Llama 3.1 70B Instruct | Llama 3.1 70B Instruct は、Meta の 700 億パラメータモデルで、128K コンテキストウィンドウが拡張され、ツールの使用とコード生成がサポートされています。 |
| Llama 3.1 8B 指示 | Llama 3.1 8B Instruct は、Meta のコンパクトな 80 億パラメータモデルで、128K コンテキストウィンドウを備えており、エッジデプロイと微調整に適しています。 |
| Llama 3 70B Instruct | Llama 3 70B Instruct は、Meta の 700 億パラメータの命令チューニングモデルで、8K コンテキストウィンドウを備えており、対話やアシスタントのようなタスクに最適化されています。 |
| Llama 3 8B Instruct | Llama 3 8B Instruct は、Meta の 80 億パラメータの命令調整モデルで、8K コンテキストウィンドウを備えており、小規模なインフラストラクチャに効率的にデプロイできるように設計されています。 |