Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Chat-Vervollständigung von Mistral AI
Mit der API zur Chat-Vervollständigung von Mistral AI können Konversationsanwendungen erstellt werden.
Tipp
Sie können die API von Mistral AI zur Chat-Vervollständigung mit den grundlegenden Inferenzoperationen (InvokeModel oder InvokeModelWithResponseStream) verwenden. Wir empfehlen jedoch, die Converse-API zu verwenden, um Nachrichten in Ihrer Anwendung zu implementieren. Die Converse-API bietet einen einheitlichen Satz von Parametern, die für alle Modelle funktionieren, die Nachrichten unterstützen. Weitere Informationen finden Sie unter Führen einer Konversation mit den Converse-API-Operationen.
Modelle von Mistral AI sind unter der Apache-2.0-Lizenz
Unterstützte Modelle
Sie können die folgenden Modelle von Mistral AI verwenden.
Mistral Large
Sie benötigen die Modell-ID für das Modell, das Sie verwenden möchten. Informationen zum Abrufen der Modell-ID finden Sie unter Unterstützte Basismodelle in Amazon Bedrock.
Anforderung und Antwort
- Request
-
Die Modelle von Mistral AI haben die folgenden Inferenzparameter.
{ "messages": [ { "role": "system"|"user"|"assistant", "content": str }, { "role": "assistant", "content": "", "tool_calls": [ { "id": str, "function": { "name": str, "arguments": str } } ] }, { "role": "tool", "tool_call_id": str, "content": str } ], "tools": [ { "type": "function", "function": { "name": str, "description": str, "parameters": dict } } ], "tool_choice": "auto"|"any"|"none", "max_tokens": int, "top_p": float, "temperature": float }Die folgenden Parameter sind erforderlich.
-
messages – (erforderlich) Die Nachrichten, die Sie an das Modell übergeben möchten
-
role – Die Rolle für die Nachricht. Gültige Werte sind:
system – legt das Verhalten und den Kontext für das Modell in der Konversation fest
user – Die Benutzernachricht, die an das Modell gesendet werden soll
assistant – Die Antwort des Modells
-
content – Der Inhalt der Nachricht
[ { "role": "user", "content": "What is the most popular song on WZPZ?" } ]Verwenden Sie JSON mit den folgenden Feldern, um ein Tool-Ergebnis zu übergeben.
-
role – Die Rolle für die Nachricht. Der -Wert muss lauten
tool. -
tool_call_id – Die ID der Tool-Anfrage. Sie erhalten die ID aus den
tool_calls-Feldern in der Antwort der vorherigen Anforderung. -
content – Das Ergebnis des Tools
Das folgende Beispiel ist das Ergebnis eines Tools, das den beliebtesten Song eines Radiosenders ermittelt.
{ "role": "tool", "tool_call_id": "v6RMMiRlT7ygYkT4uULjtg", "content": "{\"song\": \"Elemental Hotel\", \"artist\": \"8 Storey Hike\"}" } -
Die folgenden Parameter sind optional.
-
tools – Definitionen von Werkzeugen, die das Modell verwenden kann.
Wenn Sie
toolsin Ihrer Anforderung angeben, gibt das Modell möglicherweise ein Feldtool_callsin der Nachricht zurück, das die Verwendung dieser Tools durch das Modell darstellt. Sie können diese Tools dann mit der vom Modell generierten Tool-Eingabe ausführen und anschließend optional Ergebnisse mithilfe vontool_result-Inhaltsblöcken an das Modell zurückgeben.Das folgende Beispiel bezieht sich auf ein Tool, das den beliebtesten Song eines Radiosenders ermittelt.
[ { "type": "function", "function": { "name": "top_song", "description": "Get the most popular song played on a radio station.", "parameters": { "type": "object", "properties": { "sign": { "type": "string", "description": "The call sign for the radio station for which you want the most popular song. Example calls signs are WZPZ and WKRP." } }, "required": [ "sign" ] } } } ] -
tool_choice – Gibt an, wie Funktionen aufgerufen werden. Wenn diese Option auf
nonefestgelegt ist, ruft das Modell keine Funktion auf und generiert stattdessen eine Nachricht. Wenn diese Optionautoeingestellt ist, kann das Modell wählen, ob entweder eine Nachricht generiert oder eine Funktion aufgerufen werden soll. Wenn diese Option aufanyfestgelegt ist, ist das Modell gezwungen, eine Funktion aufzurufen.
-
max_tokens – Geben Sie die maximale Anzahl von Token an, die in der generierten Antwort verwendet werden soll. Das Modell kürzt die Antwort, sobald der generierte Text den Wert überschreitet
max_tokens.Standard Minimum Maximum Mistral Large – 8 192
1
Mistral Large – 8 192
-
temperature – Steuert die Zufälligkeit der vom Modell getroffenen Vorhersagen. Weitere Informationen finden Sie unter So beeinflussen Sie die Antwortgenerierung mit Inferenzparametern.
Standard Minimum Maximum Mistral Large – 0,7
0
1
-
top_p – Steuert die Diversität des Texts, den das Modell generiert, indem der Prozentsatz der wahrscheinlichsten Kandidaten festgelegt wird, die das Modell für das nächste Token in Erwägung zieht. Weitere Informationen finden Sie unter So beeinflussen Sie die Antwortgenerierung mit Inferenzparametern.
Standard Minimum Maximum Mistral Large – 1
0
1
-
- Response
-
Die
body-Antwort eines Aufrufs vonInvokeModellautet wie folgt:{ "choices": [ { "index": 0, "message": { "role": "assistant", "content": str, "tool_calls": [...] }, "stop_reason": "stop"|"length"|"tool_calls" } ] }Die
body-Antwort enthält folgende mögliche Felder:-
choices – Die Ausgabe aus den Modellfeldern
-
index – Der Index für die Nachricht
-
message – Die Nachricht des Modells
-
role – Die Rolle für die Nachricht.
-
content – Der Inhalt der Nachricht
-
tool_calls – Wenn der Wert von
stop_reasontool_callslautet, enthält dieses Feld eine Liste von Tool-Anfragen, die Sie laut Modell ausführen sollen.-
id – Die ID für die Tool-Anfrage
-
function – Die Funktion, die das Modell anfordert
-
name – Der Name der Funktion
-
arguments – Die Argumente, die an das Tool übergeben werden sollen
-
Das folgende Beispiel ist eine Anforderung für ein Tool, das den beliebtesten Song eines Radiosenders ermittelt.
[ { "id": "v6RMMiRlT7ygYkT4uULjtg", "function": { "name": "top_song", "arguments": "{\"sign\": \"WZPZ\"}" } } ] -
-
-
stop_reason – Der Grund, warum die Antwort keinen Text mehr generiert hat. Die möglichen Werte sind:
-
Stopp – Das Modell hat die Textgenerierung für die Eingabeaufforderung abgeschlossen. Das Modell wird beendet, weil kein Inhalt mehr generiert werden muss oder wenn das Modell eine der Stoppsequenzen generiert, die Sie im Anforderungsparameter
stopdefinieren. -
length – Die Länge der Token für den generierten Text überschreitet den Wert
max_tokens. Die Antwort wird aufmax_tokensToken gekürzt. -
tool_calls – Das Modell fordert Sie auf, ein Tool auszuführen.
-
-
-