Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Kompatibilität des Modells
Die InvokeModel-Operation kann von allen Modellen verwendet werden. Die Converse-Operation kann von einigen Modellen verwendet werden.
Verwenden Sie für Modelle für Amazon Bedrock Marketplace die ApplyGuardrail-API, um den Integritätsschutz von Amazon Bedrock zu verwenden.
Die folgende Tabelle enthält die verfügbaren Modelle und gibt an, ob sie die Operation Converse verwenden können:
| Name | Converse-API-Unterstützung | Streaming-Unterstützung |
|---|---|---|
|
Arcee Lite |
Ja |
Ja |
|
Arcee Nova |
Ja |
Ja |
|
Arcee SuperNova |
Ja |
Ja |
|
Arcee Virtuoso Small |
Ja |
Ja |
|
Aya 101 |
Nein |
Ja |
|
Bart Large CNN samsum |
Nein |
Nein |
|
Bloom 1b1 |
Nein |
Ja |
|
Bloom 1b7 |
Nein |
Ja |
|
Bloom 3B |
Nein |
Ja |
|
Bloom 560m |
Nein |
Ja |
|
Bloom 7B1 |
Nein |
Ja |
|
Bloomz 1b1 |
Nein |
Ja |
|
Bloomz 1b7 |
Nein |
Ja |
|
BloomZ 3B FP16 |
Nein |
Ja |
|
BloomZ 7B1 FP16 |
Nein |
Ja |
|
Bria 2.2HD Commercial |
Nein |
Nein |
|
Bria 2.3 Commercial |
Nein |
Nein |
|
Bria 2.3 Fast Commercial |
Nein |
Nein |
|
CyberAgentLM3-22B-Chat (CALM3-22B-Chat) |
Ja |
Ja |
|
DBRX Base |
Nein |
Ja |
|
DBRX Instruct |
Ja |
Ja |
|
DeepSeek-R1-Distill-Llama-70B |
Nein |
Ja |
|
DeepSeek-R1-Distill-Llama-8B |
Nein |
Ja |
|
DeepSeek-R1-Distill-Qwen-32B |
Nein |
Ja |
|
DeepSeek-R1-Distill-Qwen-14B |
Nein |
Ja |
|
DeepSeek-R1-Distill-Qwen-7B |
Nein |
Ja |
|
DeepSeek-R1-Distill-Qwen-1.5B |
Nein |
Ja |
|
DeepSeek-R1 |
Nein |
Ja |
|
Distilbart CNN 12-6 |
Nein |
Nein |
|
Distilbart CNN 6-6 |
Nein |
Nein |
|
Distilbart xsum 12-3 |
Nein |
Nein |
|
DistilGPT 2 |
Nein |
Ja |
|
Dolly V2 12b BF16 |
Nein |
Ja |
|
Dolly V2 3b BF16 |
Nein |
Ja |
|
Dolly V2 7b BF16 |
Nein |
Ja |
|
Dolphin 2.2.1 Mistral 7B |
Ja |
Ja |
|
Dolphin 2.5 Mixtral 8 7B |
Ja |
Ja |
|
EleutherAI GPT Neo 1.3B |
Nein |
Ja |
|
EleutherAI GPT Neo 2.7B |
Nein |
Ja |
|
ESM3-open |
Nein |
Nein |
|
EXAONE_v3.0 7.8B Instruct |
Ja |
Nein |
|
Falcon 40B BF16 |
Nein |
Ja |
|
Falcon Lite |
Nein |
Ja |
|
Falcon Lite 2 |
Nein |
Ja |
|
Falcon RW 1B |
Nein |
Ja |
|
Falcon3 1B Instruct |
Ja |
Ja |
|
Falcon3 3B Base |
Nein |
Ja |
|
Falcon3 3B Instruct |
Ja |
Ja |
|
Falcon3 7B Base |
Nein |
Ja |
|
Falcon3 7B Instruct |
Ja |
Ja |
|
Falcon3 10B Base |
Nein |
Ja |
|
Falcon3 10B Instruct |
Ja |
Ja |
|
FLAN-T5 Base |
Nein |
Ja |
|
Flan-T5-Basismodell mit Optimierung für Samsum-Datensatz |
Nein |
Ja |
|
FLAN-T5 Large |
Nein |
Ja |
|
FLAN-T5 Small |
Nein |
Ja |
|
Gemma 2 27B |
Nein |
Ja |
|
Gemma 2 27B Instruct |
Ja |
Ja |
|
Gemma 2 2B |
Nein |
Ja |
|
Gemma 2 2B Instruct |
Ja |
Ja |
|
Gemma 2 9B |
Nein |
Ja |
|
Gemma 2 9B Instruct |
Ja |
Ja |
|
Gemma 2B |
Nein |
Ja |
|
Gemma 2B Instruct |
Ja |
Ja |
|
Gemma 7B |
Nein |
Ja |
|
Gemma 7B Instruct |
Ja |
Ja |
|
GPT 2 |
Nein |
Ja |
|
GPT NeoX 20B FP16 |
Nein |
Ja |
|
GPT-2 XL |
Nein |
Ja |
|
GPT-J 6B |
Nein |
Ja |
|
GPT-Neo 1.3B |
Nein |
Ja |
|
GPT-Neo 125M |
Nein |
Ja |
|
GPT-NEO 2.7B |
Nein |
Ja |
|
Granite 3.0 2B Instruct |
Ja |
Ja |
|
Granite 3.0 8B Instruct |
Ja |
Ja |
|
Gretel Navigator Tabular |
Ja |
Ja |
|
IBM Granite 20B Code Instruct - 8K |
Ja |
Ja |
|
IBM Granite 34B Code Instruct - 8K |
Ja |
Ja |
|
IBM Granite 3B Code Instruct - 128K |
Ja |
Ja |
|
IBM Granite 8B Code Instruct - 128K |
Ja |
Ja |
|
KARAKURI LM 8x7b instruct |
Nein |
Ja |
|
Liquid |
Ja |
Ja |
|
Llama 3.1 SuperNova Lite |
Ja |
Ja |
|
Lama Spark |
Ja |
Ja |
|
Llama-3-Varco-Offsetbias-8B |
Nein |
Ja |
|
Llama3 8B SEA-Lion v2.1 Instruct |
Ja |
Ja |
|
MARS6 |
Nein |
Nein |
|
Medical LLM - Medium |
Nein |
Nein |
|
Medical LLM - Small |
Nein |
Nein |
|
Medical Text Translation (EN-ES) |
Nein |
Nein |
|
Mistral 7B OpenOrca AWQ |
Ja |
Ja |
|
Mistral 7B OpenOrca GPTQ |
Ja |
Ja |
|
Mistral 7B SFT Alpha |
Ja |
Ja |
|
Mistral 7B SFT Beta |
Ja |
Ja |
|
Mistral Lite |
Ja |
Ja |
|
Mistral Nemo Base 2407 |
Nein |
Ja |
|
Mistral Nemo Instruct 2407 |
Ja |
Ja |
|
Mistral Trix V1 |
Nein |
Ja |
|
MPT 7B BF16 |
Nein |
Ja |
|
MPT 7B Instruct BF16 |
Nein |
Ja |
|
MPT 7B StoryWriter-65k+ BF16 |
Nein |
Ja |
|
Multilingual GPT |
Nein |
Ja |
|
NVIDIA Nemotron-4 15B NIM Microservice |
Ja |
Nein |
|
Open Hermes 2 Mistral 7B |
Ja |
Ja |
|
Phi-2 |
Nein |
Ja |
|
Phi-3-Mini-128K-Instruct |
Ja |
Ja |
|
Phi-3-Mini-4K-Instruct |
Ja |
Ja |
|
Phi-3.5-mini-instruct |
Ja |
Ja |
|
Pixtral 12B 2409 |
Ja |
Ja |
|
PLaMo API |
Nein |
Ja |
|
Snowflake Arctic Instruct Vllm |
Ja |
Ja |
|
Solar Mini Chat |
Ja |
Ja |
|
Solar Mini Chat - Quant |
Ja |
Ja |
|
Solar Mini Chat ja |
Ja |
Ja |
|
Solar Mini Chat ja - Quant |
Ja |
Ja |
|
Solar Pro |
Ja |
Ja |
|
Solar Pro (Quantized) |
Ja |
Ja |
|
Stable Diffusion 3.5 Large |
Nein |
Nein |
|
Stockmark-LLM-13b |
Nein |
Nein |
|
Textzusammenfassung |
Nein |
Nein |
|
VARCO LLM KO/EN-13B-IST |
Ja |
Nein |
|
Whisper Large V3 Turbo |
Nein |
Ja |
|
Widn Llama3-Tower Vesuvius |
Ja |
Ja |
|
Widn Tower Anthill |
Ja |
Ja |
|
Widn Tower Sugarloaf |
Ja |
Ja |
|
Writer Palmyra Small |
Nein |
Ja |
|
Writer Palmyra-Fin-70B-32K |
Ja |
Ja |
|
Writer Palmyra-Med-70B-32K |
Ja |
Ja |
|
YARN Mistral 7B 128k |
Nein |
Ja |
|
Yi-1.5-34B |
Nein |
Ja |
|
Yi-1.5-34B-Chat |
Ja |
Ja |
|
Yi-1.5-6B |
Nein |
Ja |
|
Yi-1.5-6B-Chat |
Ja |
Ja |
|
Yi-1.5-9B |
Nein |
Ja |
|
Yi-1.5-9B-Chat |
Ja |
Ja |
|
Zephyr 7B Alpha |
Nein |
Ja |
|
Zephyr 7B Beta |
Nein |
Ja |
|
Zephyr 7B Gemma |
Nein |
Ja |