Encoder-Decoder-Architektur

Encoder-Decoder-Architektur

Die Encoder-Decoder-Architektur ist ein grundlegendes Designprinzip in der Künstlichen Intelligenz, insbesondere im Bereich Natural Language Processing (NLP) und maschinelle Übersetzung. Sie besteht aus zwei Hauptkomponenten: einem Encoder, der Eingabedaten in eine abstrakte Repräsentation überführt, und einem Decoder, der daraus eine Ausgabe erzeugt. Dieses Prinzip ermöglicht es, Eingaben variabler Länge (z. B. Sätze oder Audiosignale) in Ausgaben variabler Länge zu transformieren.

Wie funktioniert die Encoder-Decoder-Architektur?

  • Encoder: Wandelt Eingabedaten (Text, Bild, Audio) in eine komprimierte Vektor-Repräsentation (Kontextvektor oder Embedding) um.
  • Decoder: Erzeugt Schritt für Schritt die Ausgabe (z. B. ein übersetzter Satz) auf Basis der Encoder-Repräsentation.
  • Erweiterung durch Attention: Moderne Varianten wie Self-Attention und Multi-Head Attention ermöglichen es, dass der Decoder gezielt auf unterschiedliche Teile der Eingabe achtet.

Praxisbeispiele:

  • Maschinelle Übersetzung: Ein deutscher Satz wird vom Encoder in eine Repräsentation überführt und vom Decoder ins Englische übersetzt.
  • Textgenerierung: Automatische Erstellung von Zusammenfassungen oder Chatbot-Antworten.
  • Spracherkennung: Audiosequenzen werden in Text umgewandelt.
  • Bildbeschreibung: Encoder-Decoder-Modelle erzeugen aus Bildern Textbeschreibungen (Image Captioning).
  • Multimodale KI: Kombination von Text-, Audio- und Bildinformationen in einer gemeinsamen Architektur.

Vorteile:

  • Flexibilität: Funktioniert mit Eingaben und Ausgaben variabler Länge.
  • Generalisierbarkeit: Universell für Text, Sprache, Bild und multimodale Daten nutzbar.
  • Erweiterbarkeit: Kann mit Attention, Transformer und anderen Techniken kombiniert werden.

Herausforderungen:

  • Abhängigkeit vom Kontextvektor: Klassische Encoder-Decoder-Modelle stoßen bei langen Sequenzen an Grenzen.
  • Rechenintensität: Moderne Varianten mit Attention benötigen hohe Rechenressourcen.
  • Konkurrenz durch Transformer: In vielen Bereichen haben Transformer die klassischen Encoder-Decoder-Modelle abgelöst.

Verwandte Begriffe:

Attention Mechanism, Self-Attention, Multi-Head Attention, Transformer, Sequence-to-Sequence Modelle, Large Language Models (LLM), Natural Language Processing (NLP), Maschinelle Übersetzung, Deep Learning, Künstliche Intelligenz

Autor: IKTconcept Redaktion • Letzte Aktualisierung: 15. September 2025
Quelle: IKTconcept IT-Glossar, IKTconcept Startseite