Eine parallel Zeitleiste: Der Aufstieg großer Sprachmodelle - AWS Präskriptive Leitlinien

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Eine parallel Zeitleiste: Der Aufstieg großer Sprachmodelle

Während sich die Agenten-Frameworks weiterentwickelten, fand eine parallel und konvergente Revolution in der Verarbeitung natürlicher Sprache und beim maschinellen Lernen statt:

  • 2017 — Transformers: In dem paper Attention Is All You Need (Vaswani et al. 2017) wurde die Transformator-Architektur vorgestellt, die die Art und Weise, wie Maschinen Sprache verarbeiten und erzeugen, dramatisch verbessert hat.

  • 2022 — ChatGPT: OpenAI veröffentlichte eine Chat-basierte Schnittstelle für GPT-3.5 namens ChatGPT, die eine natürliche, interaktive Konversation mit einem Allzweck-KI-System ermöglichte.

  • 2023 — Open Source LLMs: Die Veröffentlichungen von Llama, Falcon und Mistral machten leistungsstarke Modelle allgemein zugänglich und beschleunigten die Entwicklung von Agenten-Frameworks in Open Source- und Unternehmensumgebungen.

Diese Innovationen machten Sprachmodelle zu Argumentationsmechanismen, die in der Lage sind, den Kontext zu analysieren, Maßnahmen zu planen und Antworten zu verketten, und LLMs wurden zu wichtigen Voraussetzungen für intelligente Softwareagenten.