Kompatibilität des Modells
Die InvokeModel-Operation kann von allen Modellen verwendet werden. Die Converse-Operation kann von einigen Modellen verwendet werden.
Verwenden Sie für Modelle für Amazon Bedrock Marketplace die ApplyGuardrail-API, um den Integritätsschutz von Amazon Bedrock zu verwenden.
Die folgende Tabelle enthält die verfügbaren Modelle und gibt an, ob sie die Operation Converse verwenden können:
| Name | Converse-API-Unterstützung | Streaming-Unterstützung |
|---|---|---|
|
Arcee Lite |
Ja |
Ja |
|
Arcee Nova |
Ja |
Ja |
|
Arcee SuperNova |
Ja |
Ja |
|
Arcee Virtuoso Small |
Ja |
Ja |
|
Aya 101 |
Nein |
Ja |
|
Bart Large CNN samsum |
Nein |
Nein |
|
Bloom 1b1 |
Nein |
Ja |
|
Bloom 1b7 |
Nein |
Ja |
|
Bloom 3B |
Nein |
Ja |
|
Bloom 560m |
Nein |
Ja |
|
Bloom 7B1 |
Nein |
Ja |
|
Bloomz 1b1 |
Nein |
Ja |
|
Bloomz 1b7 |
Nein |
Ja |
|
BloomZ 3B FP16 |
Nein |
Ja |
|
BloomZ 7B1 FP16 |
Nein |
Ja |
|
Bria 2.2HD Commercial |
Nein |
Nein |
|
Bria 2.3 Commercial |
Nein |
Nein |
|
Bria 2.3 Fast Commercial |
Nein |
Nein |
|
CyberAgentLM3-22B-Chat (CALM3-22B-Chat) |
Ja |
Ja |
|
DBRX Base |
Nein |
Ja |
|
DBRX Instruct |
Ja |
Ja |
|
DeepSeek-R1-Distill-Llama-70B |
Nein |
Ja |
|
DeepSeek-R1-Distill-Llama-8B |
Nein |
Ja |
|
DeepSeek-R1-Distill-Qwen-32B |
Nein |
Ja |
|
DeepSeek-R1-Distill-Qwen-14B |
Nein |
Ja |
|
DeepSeek-R1-Distill-Qwen-7B |
Nein |
Ja |
|
DeepSeek-R1-Distill-Qwen-1.5B |
Nein |
Ja |
|
DeepSeek-R1 |
Nein |
Ja |
|
Distilbart CNN 12-6 |
Nein |
Nein |
|
Distilbart CNN 6-6 |
Nein |
Nein |
|
Distilbart xsum 12-3 |
Nein |
Nein |
|
DistilGPT 2 |
Nein |
Ja |
|
Dolly V2 12b BF16 |
Nein |
Ja |
|
Dolly V2 3b BF16 |
Nein |
Ja |
|
Dolly V2 7b BF16 |
Nein |
Ja |
|
Dolphin 2.2.1 Mistral 7B |
Ja |
Ja |
|
Dolphin 2.5 Mixtral 8 7B |
Ja |
Ja |
|
EleutherAI GPT Neo 1.3B |
Nein |
Ja |
|
EleutherAI GPT Neo 2.7B |
Nein |
Ja |
|
ESM3-open |
Nein |
Nein |
|
EXAONE_v3.0 7.8B Instruct |
Ja |
Nein |
|
Falcon 40B BF16 |
Nein |
Ja |
|
Falcon Lite |
Nein |
Ja |
|
Falcon Lite 2 |
Nein |
Ja |
|
Falcon RW 1B |
Nein |
Ja |
|
Falcon3 1B Instruct |
Ja |
Ja |
|
Falcon3 3B Base |
Nein |
Ja |
|
Falcon3 3B Instruct |
Ja |
Ja |
|
Falcon3 7B Base |
Nein |
Ja |
|
Falcon3 7B Instruct |
Ja |
Ja |
|
Falcon3 10B Base |
Nein |
Ja |
|
Falcon3 10B Instruct |
Ja |
Ja |
|
FLAN-T5 Base |
Nein |
Ja |
|
Flan-T5-Basismodell mit Optimierung für Samsum-Datensatz |
Nein |
Ja |
|
FLAN-T5 Large |
Nein |
Ja |
|
FLAN-T5 Small |
Nein |
Ja |
|
Gemma 2 27B |
Nein |
Ja |
|
Gemma 2 27B Instruct |
Ja |
Ja |
|
Gemma 2 2B |
Nein |
Ja |
|
Gemma 2 2B Instruct |
Ja |
Ja |
|
Gemma 2 9B |
Nein |
Ja |
|
Gemma 2 9B Instruct |
Ja |
Ja |
|
Gemma 2B |
Nein |
Ja |
|
Gemma 2B Instruct |
Ja |
Ja |
|
Gemma 7B |
Nein |
Ja |
|
Gemma 7B Instruct |
Ja |
Ja |
|
GPT 2 |
Nein |
Ja |
|
GPT NeoX 20B FP16 |
Nein |
Ja |
|
GPT-2 XL |
Nein |
Ja |
|
GPT-J 6B |
Nein |
Ja |
|
GPT-Neo 1.3B |
Nein |
Ja |
|
GPT-Neo 125M |
Nein |
Ja |
|
GPT-NEO 2.7B |
Nein |
Ja |
|
Granite 3.0 2B Instruct |
Ja |
Ja |
|
Granite 3.0 8B Instruct |
Ja |
Ja |
|
Gretel Navigator Tabular |
Ja |
Ja |
|
IBM Granite 20B Code Instruct - 8K |
Ja |
Ja |
|
IBM Granite 34B Code Instruct - 8K |
Ja |
Ja |
|
IBM Granite 3B Code Instruct - 128K |
Ja |
Ja |
|
IBM Granite 8B Code Instruct - 128K |
Ja |
Ja |
|
KARAKURI LM 8x7b instruct |
Nein |
Ja |
|
Liquid |
Ja |
Ja |
|
Llama 3.1 SuperNova Lite |
Ja |
Ja |
|
Lama Spark |
Ja |
Ja |
|
Llama-3-Varco-Offsetbias-8B |
Nein |
Ja |
|
Llama3 8B SEA-Lion v2.1 Instruct |
Ja |
Ja |
|
MARS6 |
Nein |
Nein |
|
Medical LLM - Medium |
Nein |
Nein |
|
Medical LLM - Small |
Nein |
Nein |
|
Medical Text Translation (EN-ES) |
Nein |
Nein |
|
Mistral 7B OpenOrca AWQ |
Ja |
Ja |
|
Mistral 7B OpenOrca GPTQ |
Ja |
Ja |
|
Mistral 7B SFT Alpha |
Ja |
Ja |
|
Mistral 7B SFT Beta |
Ja |
Ja |
|
Mistral Lite |
Ja |
Ja |
|
Mistral Nemo Base 2407 |
Nein |
Ja |
|
Mistral Nemo Instruct 2407 |
Ja |
Ja |
|
Mistral Trix V1 |
Nein |
Ja |
|
MPT 7B BF16 |
Nein |
Ja |
|
MPT 7B Instruct BF16 |
Nein |
Ja |
|
MPT 7B StoryWriter-65k+ BF16 |
Nein |
Ja |
|
Multilingual GPT |
Nein |
Ja |
|
NVIDIA Nemotron-4 15B NIM Microservice |
Ja |
Nein |
|
Open Hermes 2 Mistral 7B |
Ja |
Ja |
|
Phi-2 |
Nein |
Ja |
|
Phi-3-Mini-128K-Instruct |
Ja |
Ja |
|
Phi-3-Mini-4K-Instruct |
Ja |
Ja |
|
Phi-3.5-mini-instruct |
Ja |
Ja |
|
Pixtral 12B 2409 |
Ja |
Ja |
|
PLaMo API |
Nein |
Ja |
|
Snowflake Arctic Instruct Vllm |
Ja |
Ja |
|
Solar Mini Chat |
Ja |
Ja |
|
Solar Mini Chat - Quant |
Ja |
Ja |
|
Solar Mini Chat ja |
Ja |
Ja |
|
Solar Mini Chat ja - Quant |
Ja |
Ja |
|
Solar Pro |
Ja |
Ja |
|
Solar Pro (Quantized) |
Ja |
Ja |
|
Stable Diffusion 3.5 Large |
Nein |
Nein |
|
Stockmark-LLM-13b |
Nein |
Nein |
|
Textzusammenfassung |
Nein |
Nein |
|
VARCO LLM KO/EN-13B-IST |
Ja |
Nein |
|
Whisper Large V3 Turbo |
Nein |
Ja |
|
Widn Llama3-Tower Vesuvius |
Ja |
Ja |
|
Widn Tower Anthill |
Ja |
Ja |
|
Widn Tower Sugarloaf |
Ja |
Ja |
|
Writer Palmyra Small |
Nein |
Ja |
|
Writer Palmyra-Fin-70B-32K |
Ja |
Ja |
|
Writer Palmyra-Med-70B-32K |
Ja |
Ja |
|
YARN Mistral 7B 128k |
Nein |
Ja |
|
Yi-1.5-34B |
Nein |
Ja |
|
Yi-1.5-34B-Chat |
Ja |
Ja |
|
Yi-1.5-6B |
Nein |
Ja |
|
Yi-1.5-6B-Chat |
Ja |
Ja |
|
Yi-1.5-9B |
Nein |
Ja |
|
Yi-1.5-9B-Chat |
Ja |
Ja |
|
Zephyr 7B Alpha |
Nein |
Ja |
|
Zephyr 7B Beta |
Nein |
Ja |
|
Zephyr 7B Gemma |
Nein |
Ja |