Wichtige Begriffe
In diesem Kapitel wird die Terminologie erklärt, anhand derer Sie verstehen, was Amazon Bedrock bietet und wie es funktioniert. Lesen Sie sich die folgende Liste durch, um die generative KI-Terminologie und die grundlegenden Funktionen von Amazon Bedrock zu verstehen:
-
Basismodell (FM) – Ein KI-Modell mit einer Vielzahl von Parametern, das mit einer riesigen Menge unterschiedlicher Daten trainiert wurde. Ein Basismodell kann verschiedene Antworten für zahlreiche Anwendungsfälle generieren. Basismodelle können Text oder Bilder generieren und Eingaben auch in Einbettungen konvertieren. Weitere Hinweise zu Basismodellen finden Sie unter Unterstützte Basismodelle in Amazon Bedrock.
-
Basismodell – Ein Basismodell, das von einem Anbieter als Paket geliefert wird und sofort einsatzbereit ist. Amazon Bedrock bietet eine Vielzahl branchenführender Basismodelle von führenden Anbietern. Weitere Informationen finden Sie unter Unterstützte Basismodelle in Amazon Bedrock.
-
Modellinferenz – Der Prozess, bei dem ein Basismodell aus einer bestimmten Eingabe (Prompt) eine Ausgabe (Antwort) generiert. Weitere Informationen finden Sie unter So senden Sie Prompts und generieren Antworten mithilfe der Modellinferenz.
-
Prompt – Eine Eingabe, die einem Modell zur bereitgestellt wird, um es bei der Generierung einer geeigneten Antwort oder Ausgabe anzuleiten. Ein Text-Prompt kann beispielsweise aus einer einzigen Zeile bestehen, auf die das Modell reagieren muss, oder er kann detaillierte Anweisungen oder eine Aufgabe enthalten, die das Modell ausführen soll. Der Prompt kann den Kontext der Aufgabe, Beispiele für Ausgaben oder Text enthalten, den ein Modell in seiner Antwort verwenden soll. Mithilfe von Prompts können Aufgaben wie Klassifizierung, Beantwortung von Fragen, Codegenerierung, kreatives Schreiben und mehr ausgeführt werden. Weitere Informationen finden Sie unter Prompt-Engineering-Konzepte.
-
Token – Eine Abfolge von Zeichen, die ein Modell als eine einzige Bedeutungseinheit interpretieren oder vorhersagen kann. Bei Textmodellen könnte ein Token beispielsweise nicht nur einem Wort entsprechen, sondern auch einem Teil eines Wortes mit grammatikalischer Bedeutung (wie „-et“), einem Satzzeichen (wie „?“) oder eine gebräuchliche Wortgruppe (wie „sehr viel“) darstellen.
-
Modellparameter – Werte, die ein Modell und sein Verhalten bei der Interpretation von Eingaben und der Generierung von Antworten definieren. Modellparameter werden von Anbietern gesteuert und aktualisiert. Sie können Modellparameter auch aktualisieren, um mithilfe der Modellanpassung ein neues Modell zu erstellen.
-
Inferenzparameter – Werte, die während der Modellinferenz angepasst werden können, um eine Antwort zu beeinflussen. Inferenzparameter können beeinflussen, wie unterschiedlich die Antworten sind, und können auch die Länge einer Antwort oder das Auftreten bestimmter Sequenzen einschränken. Weitere Informationen und Definitionen bestimmter Inferenzparameter finden Sie unter So beeinflussen Sie die Antwortgenerierung mit Inferenzparametern.
-
Playground – Eine benutzerfreundliche grafische Oberfläche der AWS-Managementkonsole, in der Sie mit der Ausführung von Modellinferenzen experimentieren können, um sich mit Amazon Bedrock vertraut zu machen. Verwenden Sie den Playground, um die Auswirkungen verschiedener Modelle, Konfigurationen und Inferenzparameter auf die Antworten zu testen, die für verschiedene von Ihnen eingegebene Prompts generiert wurden. Weitere Informationen finden Sie unter Generieren von Antworten in der Konsole mithilfe von Playgrounds.
-
Einbettung – Der Prozess der Verdichtung von Informationen durch Umwandlung von Eingaben in einen Vektor numerischer Werte, sogenannte Einbettungen, um die Ähnlichkeit zwischen verschiedenen Objekten mithilfe einer gemeinsamen numerischen Darstellung zu vergleichen. So können beispielsweise Sätze verglichen werden, um ihre Ähnlichkeiten in der Bedeutung zu ermitteln; Bilder können auf visuelle Ähnlichkeiten untersucht werden, oder es können Texte und Bilder verglichen werden, um festzustellen, ob sie füreinander relevant sind. Sie können Text- und Bildeingaben auch zu einem gemittelten Einbettungsvektor kombinieren, wenn dies für Ihren Anwendungsfall relevant ist. Weitere Informationen finden Sie unter So senden Sie Prompts und generieren Antworten mithilfe der Modellinferenz und Abrufen von Daten und Generieren von KI-Antworten mit Wissensdatenbanken für Amazon Bedrock.
-
Orchestrierung – Der Prozess der Koordinierung zwischen Basismodellen und Unternehmensdaten und -anwendungen zur Ausführung einer Aufgabe. Weitere Informationen finden Sie unter Automatisieren von Aufgaben in einer Anwendung mithilfe von KI-Agenten.
-
Agent – Eine Anwendung, die mithilfe eines Basismodells Orchestrierungen durchführt, indem sie Eingaben zyklisch interpretiert und Ausgaben erzeugt. Ein Agent kann verwendet werden, um Kundenanfragen auszuführen. Weitere Informationen finden Sie unter Automatisieren von Aufgaben in einer Anwendung mithilfe von KI-Agenten.
-
Retrieval Augmented Generation (RAG) – Der Prozess umfasst:
Die Abfrage von Informationen aus einer Datenquelle
Die Erweiterung eines Prompts mit diese Informationen, um dem Basismodell einen besseren Kontext bereitzustellen
Verbesserung der Antwort des Basismodells durch Nutzung des zusätzlichen Kontexts
Weitere Informationen finden Sie unter Abrufen von Daten und Generieren von KI-Antworten mit Wissensdatenbanken für Amazon Bedrock.
-
Modellanpassung – Der Prozess, bei dem Trainingsdaten verwendet werden, um die Modellparameterwerte in einem Basismodell anzupassen, um ein benutzerdefiniertes Modell zu erstellen. Beispiele für Modellanpassungen sind die Feinabstimmung, bei der beschriftete Daten (Eingaben und entsprechende Ausgaben) verwendet werden, und Continued Pre-Training (fortgesetztes Vortraining), bei dem unbeschriftete Daten (nur Eingaben) zur Anpassung der Modellparameter verwendet werden. Weitere Informationen zu den in Amazon Bedrock verfügbaren Techniken zur Modellanpassung finden Sie unter Anpassen des Modells für eine bessere Leistung im jeweiligen Anwendungsfall.
-
Hyperparameter – Werte, die für die Modellanpassung angepasst werden können, um den Trainingsprozess und damit das benutzerdefinierte Ausgabemodell zu steuern. Weitere Informationen und Definitionen bestimmter Hyperparameter finden Sie unter Hyperparameter für benutzerdefinierte Modelle.
-
Modellbewertung – Der Prozess der Bewertung und des Vergleichs der Modellergebnisse, um das Modell zu bestimmen, das für einen Anwendungsfall am besten geeignet ist. Weitere Informationen finden Sie unter Die Leistung von Amazon-Bedrock-Ressourcen bewerten.
-
Bereitgestellter Durchsatz – Ein Durchsatzniveau, das Sie für ein Basismodell oder ein benutzerdefiniertes Modell erwerben, um die Menge und/oder Geschwindigkeit der bei der Modellinferenz verarbeiteten Token zu erhöhen. Wenn Sie bereitgestellten Durchsatz für ein Modell erwerben, wird ein bereitgestelltes Modell erstellt, das zur Durchführung von Modellinferenzen verwendet werden kann. Weitere Informationen finden Sie unter Bereitgestellter Durchsatz.