View a markdown version of this page

Tipps zur Verwaltung der Limits für Modell-Tokens - Generativer KI-Anwendungsgenerator auf AWS

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Tipps zur Verwaltung der Limits für Modell-Tokens

Hinweis: Die Lösung versucht nicht direkt, die durch verschiedene Faktoren auferlegten Token-Limits zu verwalten LLMs. Testen Sie und stellen Sie sicher, dass Ihre Eingabeaufforderung innerhalb der vom Modellanbieter festgelegten verfügbaren Grenzwerte bleibt.

Versuchen Sie Folgendes, um die Größe der Eingabeaufforderungen zu kontrollieren:

  1. Machen Sie sich mit den Einschränkungen vertraut, die das Modell, das Sie verwenden möchten, auferlegt. Diese Werte können sich je nach Modell erheblich unterscheiden. Daher ist es wichtig, dass Sie wissen, wie hoch Ihr verfügbares Budget ist, bevor Sie beginnen.

  2. Denken Sie bei Ihrer ersten Aufforderung an dieses Budget und überlegen Sie, wie viel Sie für dynamische Elemente der Aufforderung sparen möchten. Zum Beispiel Benutzereingaben, Chat-Verlauf, Dokumentauszüge usw.

  3. Legen Sie auf der Seite zur Konfiguration der Eingabeaufforderung ein Limit für die Größe des nachfolgenden Verlaufs fest, um die Anzahl der Konversationsrunden zu begrenzen, die in der Aufforderung enthalten sind.

  4. Legen Sie im Konfigurationsassistenten der Knowledge Base Beschränkungen für die Rückgabe von Dokumenten fest. Sie müssen versuchen, das richtige Gleichgewicht zwischen der Bereitstellung von ausreichend Kontext für das LLM zur Ausführung der Aufgabe zu finden, aber nicht so sehr, dass die Token-Limits überschritten oder die Latenz negativ beeinflusst wird.

  5. Lassen Sie etwas Puffer übrig. Planen Sie nicht für den typischen Fall ein, sondern denken Sie über Randfälle wie lange Eingabeabfragen, umfangreiche Dokumentauszüge oder lange Konversationen nach und experimentieren Sie mit ihnen.