Retrieval-Augmented Generation (RAG)
Retrieval-Augmented Generation (RAG) ist ein Ansatz der Künstlichen Intelligenz, bei dem Sprachmodelle mit externen Wissensquellen kombiniert werden. Während ein klassisches Sprachmodell (LLM) sein Wissen ausschließlich aus den Trainingsdaten bezieht, erweitert RAG die Antworten durch den Zugriff auf zusätzliche Datenbanken, Dokumente oder Suchsysteme. Das Ziel ist es, präzisere, aktuellere und überprüfbare Ergebnisse zu liefern.
RAG verbindet also die Stärken zweier Welten: die generative Sprachfähigkeit von LLMs und die Genauigkeit sowie Aktualität von Informationsabrufsystemen (Retrieval-Systemen).
Wie funktioniert RAG?
Das Verfahren besteht aus zwei Schritten: Zunächst durchsucht ein Retrieval-Modul externe Datenquellen (z. B. Unternehmensdokumente, Wissensdatenbanken oder Suchindizes) und identifiziert die relevantesten Informationen. Anschließend integriert das Sprachmodell diese Ergebnisse in die Antwortgenerierung. Dadurch entsteht ein KI-System, das nicht nur „erfundenes Wissen“ produziert, sondern auf überprüfbaren Daten basiert.
Typische Anwendungen:
- Unternehmens-Wissensmanagement: Chatbots, die auf interne Dokumentationen zugreifen.
- Kundensupport: KI-Assistenten, die Antworten aus aktuellen Produkt- und Servicehandbüchern generieren.
- Rechts- und Medizinbereich: Zugriff auf Fachliteratur und Richtlinien zur Unterstützung von Experten.
- Suchmaschinen: Kombination aus klassischem Dokumentenabruf und generativer Antwortdarstellung.
Vorteile:
- Aktualität: Antworten basieren auf aktuellen Daten, nicht nur auf Trainingswissen.
- Genauigkeit: Ergebnisse sind faktenbasierter und nachvollziehbarer.
- Flexibilität: Einsetzbar in vielen Domänen durch Anbindung beliebiger Datenquellen.
Herausforderungen:
- Datenqualität: Qualität und Aktualität der angebundenen Wissensquellen bestimmen die Güte der Antworten.
- Systemkomplexität: Kombination von Retrieval und Generierung erfordert robuste technische InfrastrukturInfrastruktur (IT-Infrastruktur) Die IT-Infrastruktur umfasst alle technischen und physikalischen Komponenten, die notwendig sind, um IT-Dienste berei... Mehr.
- Geschwindigkeit: Die Integration von Suchprozessen kann die Antwortzeiten verlängern.
Verwandte Begriffe:
Large Language Models, Prompt EngineeringPrompt Engineering Prompt Engineering bezeichnet die Technik, mit der Eingaben (Prompts) für große Sprachmodelle (LLMs) wie GPT so gestaltet werden,... Mehr, Fine-Tuning, Knowledge Graph, Embeddings, Vektordatenbanken, Dokumentenretrieval, Generative KIGenerative KI Generative Künstliche Intelligenz (Generative AI) ist ein Teilbereich der Künstlichen Intelligenz, der darauf abzielt, neue Inhalte wi... Mehr, Zero-Shot LearningZero-Shot Learning Zero-Shot Learning ist ein Ansatz im Bereich der Künstlichen Intelligenz, bei dem ein Modell Aufgaben lösen kann, für die es kei... Mehr, Chain-of-Thought