Retrieval-Augmented Generation (RAG)

Retrieval-Augmented Generation (RAG)

Retrieval-Augmented Generation (RAG) ist ein Ansatz der Künstlichen Intelligenz, bei dem Sprachmodelle mit externen Wissensquellen kombiniert werden. Während ein klassisches Sprachmodell (LLM) sein Wissen ausschließlich aus den Trainingsdaten bezieht, erweitert RAG die Antworten durch den Zugriff auf zusätzliche Datenbanken, Dokumente oder Suchsysteme. Das Ziel ist es, präzisere, aktuellere und überprüfbare Ergebnisse zu liefern.

RAG verbindet also die Stärken zweier Welten: die generative Sprachfähigkeit von LLMs und die Genauigkeit sowie Aktualität von Informationsabrufsystemen (Retrieval-Systemen).

Wie funktioniert RAG?

Das Verfahren besteht aus zwei Schritten: Zunächst durchsucht ein Retrieval-Modul externe Datenquellen (z. B. Unternehmensdokumente, Wissensdatenbanken oder Suchindizes) und identifiziert die relevantesten Informationen. Anschließend integriert das Sprachmodell diese Ergebnisse in die Antwortgenerierung. Dadurch entsteht ein KI-System, das nicht nur „erfundenes Wissen“ produziert, sondern auf überprüfbaren Daten basiert.

Typische Anwendungen:

  • Unternehmens-Wissensmanagement: Chatbots, die auf interne Dokumentationen zugreifen.
  • Kundensupport: KI-Assistenten, die Antworten aus aktuellen Produkt- und Servicehandbüchern generieren.
  • Rechts- und Medizinbereich: Zugriff auf Fachliteratur und Richtlinien zur Unterstützung von Experten.
  • Suchmaschinen: Kombination aus klassischem Dokumentenabruf und generativer Antwortdarstellung.

Vorteile:

  • Aktualität: Antworten basieren auf aktuellen Daten, nicht nur auf Trainingswissen.
  • Genauigkeit: Ergebnisse sind faktenbasierter und nachvollziehbarer.
  • Flexibilität: Einsetzbar in vielen Domänen durch Anbindung beliebiger Datenquellen.

Herausforderungen:

  • Datenqualität: Qualität und Aktualität der angebundenen Wissensquellen bestimmen die Güte der Antworten.
  • Systemkomplexität: Kombination von Retrieval und Generierung erfordert robuste technische Infrastruktur.
  • Geschwindigkeit: Die Integration von Suchprozessen kann die Antwortzeiten verlängern.

Verwandte Begriffe:

Large Language Models, Prompt Engineering, Fine-Tuning, Knowledge Graph, Embeddings, Vektordatenbanken, Dokumentenretrieval, Generative KI, Zero-Shot Learning, Chain-of-Thought

Autor: IKTconcept Redaktion • Letzte Aktualisierung: 15. September 2025
Quelle: IKTconcept IT-Glossar, IKTconcept Startseite