Chat-Vervollständigung von Mistral AI - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Chat-Vervollständigung von Mistral AI

Mit der API zur Chat-Vervollständigung von Mistral AI können Konversationsanwendungen erstellt werden.

Tipp

Sie können die API von Mistral AI zur Chat-Vervollständigung mit den grundlegenden Inferenzoperationen (InvokeModel oder InvokeModelWithResponseStream) verwenden. Wir empfehlen jedoch, die Converse-API zu verwenden, um Nachrichten in Ihrer Anwendung zu implementieren. Die Converse-API bietet einen einheitlichen Satz von Parametern, die für alle Modelle funktionieren, die Nachrichten unterstützen. Weitere Informationen finden Sie unter Führen einer Konversation mit den Converse-API-Operationen.

Modelle von Mistral AI sind unter der Apache-2.0-Lizenz verfügbar. Weitere Informationen zur Verwendung von Modellen von Mistral AI finden Sie in der Dokumentation für Mistral AI.

Unterstützte Modelle

Sie können die folgenden Modelle von Mistral AI verwenden.

  • Mistral Large

Sie benötigen die Modell-ID für das Modell, das Sie verwenden möchten. Informationen zum Abrufen der Modell-ID finden Sie unter Unterstützte Basismodelle in Amazon Bedrock.

Anforderung und Antwort

Request

Die Modelle von Mistral AI haben die folgenden Inferenzparameter.

{ "messages": [ { "role": "system"|"user"|"assistant", "content": str }, { "role": "assistant", "content": "", "tool_calls": [ { "id": str, "function": { "name": str, "arguments": str } } ] }, { "role": "tool", "tool_call_id": str, "content": str } ], "tools": [ { "type": "function", "function": { "name": str, "description": str, "parameters": dict } } ], "tool_choice": "auto"|"any"|"none", "max_tokens": int, "top_p": float, "temperature": float }

Die folgenden Parameter sind erforderlich.

  • messages – (erforderlich) Die Nachrichten, die Sie an das Modell übergeben möchten

    • role – Die Rolle für die Nachricht. Gültige Werte sind:

      • system – legt das Verhalten und den Kontext für das Modell in der Konversation fest

      • user – Die Benutzernachricht, die an das Modell gesendet werden soll

      • assistant – Die Antwort des Modells

    • content – Der Inhalt der Nachricht

    [ { "role": "user", "content": "What is the most popular song on WZPZ?" } ]

    Verwenden Sie JSON mit den folgenden Feldern, um ein Tool-Ergebnis zu übergeben.

    • role – Die Rolle für die Nachricht. Der -Wert muss lauten tool.

    • tool_call_id – Die ID der Tool-Anfrage. Sie erhalten die ID aus den tool_calls-Feldern in der Antwort der vorherigen Anforderung.

    • content – Das Ergebnis des Tools

    Das folgende Beispiel ist das Ergebnis eines Tools, das den beliebtesten Song eines Radiosenders ermittelt.

    { "role": "tool", "tool_call_id": "v6RMMiRlT7ygYkT4uULjtg", "content": "{\"song\": \"Elemental Hotel\", \"artist\": \"8 Storey Hike\"}" }

Die folgenden Parameter sind optional.

  • tools – Definitionen von Werkzeugen, die das Modell verwenden kann.

    Wenn Sie tools in Ihrer Anforderung angeben, gibt das Modell möglicherweise ein Feld tool_calls in der Nachricht zurück, das die Verwendung dieser Tools durch das Modell darstellt. Sie können diese Tools dann mit der vom Modell generierten Tool-Eingabe ausführen und anschließend optional Ergebnisse mithilfe von tool_result-Inhaltsblöcken an das Modell zurückgeben.

    Das folgende Beispiel bezieht sich auf ein Tool, das den beliebtesten Song eines Radiosenders ermittelt.

    [ { "type": "function", "function": { "name": "top_song", "description": "Get the most popular song played on a radio station.", "parameters": { "type": "object", "properties": { "sign": { "type": "string", "description": "The call sign for the radio station for which you want the most popular song. Example calls signs are WZPZ and WKRP." } }, "required": [ "sign" ] } } } ]
  • tool_choice – Gibt an, wie Funktionen aufgerufen werden. Wenn diese Option auf none festgelegt ist, ruft das Modell keine Funktion auf und generiert stattdessen eine Nachricht. Wenn diese Option auto eingestellt ist, kann das Modell wählen, ob entweder eine Nachricht generiert oder eine Funktion aufgerufen werden soll. Wenn diese Option auf any festgelegt ist, ist das Modell gezwungen, eine Funktion aufzurufen.

  • max_tokens – Geben Sie die maximale Anzahl von Token an, die in der generierten Antwort verwendet werden soll. Das Modell kürzt die Antwort, sobald der generierte Text den Wert überschreitet max_tokens.

    Standard Minimum Maximum

    Mistral Large – 8 192

    1

    Mistral Large – 8 192

  • temperature – Steuert die Zufälligkeit der vom Modell getroffenen Vorhersagen. Weitere Informationen finden Sie unter So beeinflussen Sie die Antwortgenerierung mit Inferenzparametern.

    Standard Minimum Maximum

    Mistral Large – 0,7

    0

    1

  • top_p – Steuert die Diversität des Texts, den das Modell generiert, indem der Prozentsatz der wahrscheinlichsten Kandidaten festgelegt wird, die das Modell für das nächste Token in Erwägung zieht. Weitere Informationen finden Sie unter So beeinflussen Sie die Antwortgenerierung mit Inferenzparametern.

    Standard Minimum Maximum

    Mistral Large – 1

    0

    1

Response

Die body-Antwort eines Aufrufs von InvokeModel lautet wie folgt:

{ "choices": [ { "index": 0, "message": { "role": "assistant", "content": str, "tool_calls": [...] }, "stop_reason": "stop"|"length"|"tool_calls" } ] }

Die body-Antwort enthält folgende mögliche Felder:

  • choices – Die Ausgabe aus den Modellfeldern

    • index – Der Index für die Nachricht

    • message – Die Nachricht des Modells

      • role – Die Rolle für die Nachricht.

      • content – Der Inhalt der Nachricht

      • tool_calls – Wenn der Wert von stop_reason tool_calls lautet, enthält dieses Feld eine Liste von Tool-Anfragen, die Sie laut Modell ausführen sollen.

        • id – Die ID für die Tool-Anfrage

        • function – Die Funktion, die das Modell anfordert

          • name – Der Name der Funktion

          • arguments – Die Argumente, die an das Tool übergeben werden sollen

        Das folgende Beispiel ist eine Anforderung für ein Tool, das den beliebtesten Song eines Radiosenders ermittelt.

        [ { "id": "v6RMMiRlT7ygYkT4uULjtg", "function": { "name": "top_song", "arguments": "{\"sign\": \"WZPZ\"}" } } ]
    • stop_reason – Der Grund, warum die Antwort keinen Text mehr generiert hat. Die möglichen Werte sind:

      • Stopp – Das Modell hat die Textgenerierung für die Eingabeaufforderung abgeschlossen. Das Modell wird beendet, weil kein Inhalt mehr generiert werden muss oder wenn das Modell eine der Stoppsequenzen generiert, die Sie im Anforderungsparameter stop definieren.

      • length – Die Länge der Token für den generierten Text überschreitet den Wert max_tokens. Die Antwort wird auf max_tokens Token gekürzt.

      • tool_calls – Das Modell fordert Sie auf, ein Tool auszuführen.