Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
So verbessern Sie die Modellantworten mit Modellargumentation
Einige Basismodelle können Modellargumentationen durchführen. Das bedeutet, dass sie eine größere, komplexe Aufgabe in kleinere, einfachere Schritte zerlegt. Dieser Prozess wird oft als Gedankenkettendenken (Chain of Thought - CoT) bezeichnet. Das Denken in der Gedankenkette kann häufig die Genauigkeit des Modells verbessern, indem es dem Modell die Möglichkeit gibt, nachzudenken, bevor es reagiert. Modellargumentation eignet sich am besten für Aufgaben wie mehrstufige Analysen, mathematische Probleme und komplexe Argumentationsaufgaben.
Bei der Lösung einer mathematischen Textaufgabe kann das Modell beispielsweise zunächst die relevanten Variablen identifizieren, dann auf der Grundlage der gegebenen Informationen Gleichungen aufstellen und schließlich diese Gleichungen lösen, um zur Lösung zu gelangen. Diese Strategie minimiert nicht nur Fehler, sondern macht auch den Denkprozess transparenter und leichter nachvollziehbar, wodurch die Qualität der Basismodellausgabe verbessert wird.
Eine Modellargumentation ist nicht für alle Aufgaben erforderlich und bringt zusätzlichen Aufwand mit sich, einschließlich erhöhter Latenz und mehr Ausgabetoken. Einfache Aufgaben, für die keine zusätzlichen Erklärungen erforderlich sind, eignen sich nicht für CoT-Überlegungen.
Beachten Sie, dass nicht bei allen Modellen die Anzahl der Ausgabetoken konfiguriert werden kann, die für die Modellargumentation zugewiesen werden.
Modellargumentation ist für die folgenden Modelle verfügbar.
| Basismodell | Modell-ID | Anzahl der Token | Argumentationskonfiguration |
|---|---|---|---|
| Anthropic Claude Opus 4 | anthropic.claude-opus-4-20250514-v1:0 | Dieses Modell wird 32 768 Token haben, was sowohl Ausgabe- als auch Argumentationstoken beinhaltet. | Die Argumentation kann für dieses Modell mithilfe eines konfigurierbaren Token-Budgets aktiviert oder deaktiviert werden. Standardmäßig ist die Argumentation deaktiviert. |
| Anthropic Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 | Dieses Modell wird 65 536 Token haben, was sowohl Ausgabe- als auch Argumentationstoken beinhaltet. | Die Argumentation kann für dieses Modell mithilfe eines konfigurierbaren Token-Budgets aktiviert oder deaktiviert werden. Standardmäßig ist die Argumentation deaktiviert. |
| Anthropic Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v1:0 | Dieses Modell wird 65 536 Token haben, was sowohl Ausgabe- als auch Argumentationstoken beinhaltet. | Die Argumentation kann für dieses Modell mithilfe eines konfigurierbaren Token-Budgets aktiviert oder deaktiviert werden. Standardmäßig ist die Argumentation deaktiviert. |
| DeepSeek DeepSeek-R1 | deepseek.r1-v1:0 | Dieses Modell wird über 8 192 Token verfügen, was sowohl Ausgabe- als auch Argumentationstoken beinhaltet. Die Anzahl der Denk-Token kann nicht konfiguriert werden und die maximale Anzahl von Ausgabetoken darf nicht größer als 8 192 sein. | Argumentation ist für dieses Modell immer aktiviert. Das Modell unterstützt keine Umschaltung der Argumentationsfähigkeit. |