Few-Shot Learning–One-Shot Learning und Zero-Shot Learning

Few-Shot Learning, One-Shot Learning und Zero-Shot Learning

Few-Shot Learning, One-Shot Learning und Zero-Shot Learning sind Methoden des Maschinellen Lernens, die darauf abzielen, Modelle mit nur sehr wenigen oder gar keinen Beispielen für eine neue Aufgabe leistungsfähig zu machen. Während klassische Machine-Learning-Ansätze oft große Mengen gelabelter Daten benötigen, ermöglichen diese Verfahren eine hohe Effizienz beim Lernen und eröffnen neue Möglichkeiten in Bereichen, in denen Daten rar oder teuer zu beschaffen sind.

Few-Shot Learning

Beim Few-Shot Learning wird ein Modell mit nur wenigen Trainingsbeispielen pro Klasse oder Aufgabe konfrontiert. Es nutzt dabei in der Regel ein vortrainiertes Modell, das bereits allgemeine Repräsentationen gelernt hat, und passt sich an die neue Aufgabe mit minimalen Daten an.

One-Shot Learning

One-Shot Learning bezeichnet die Fähigkeit eines Modells, eine neue Klasse oder Aufgabe mit nur einem einzigen Beispiel zu erlernen. Dies geschieht oft durch metrisches Lernen, bei dem das Modell die Ähnlichkeiten zwischen Datenpunkten vergleicht und neue Klassen anhand von Distanz- oder Ähnlichkeitsmaßen erkennt.

Zero-Shot Learning

Beim Zero-Shot Learning kann ein Modell Aufgaben lösen, für die es überhaupt keine Trainingsbeispiele gesehen hat. Stattdessen nutzt es semantische Informationen wie Beschreibungen in natürlicher Sprache oder Attribute, um unbekannte Klassen zu verstehen und Vorhersagen zu treffen. Sprachmodelle wie GPT sind prominente Beispiele für Zero-Shot-Fähigkeiten.

Praxisbeispiele:

  • Textklassifikation: Automatische Kategorisierung von Dokumenten mit nur wenigen oder keinen Beispielen.
  • Computer Vision: Bilderkennung von neuen Objekten mit nur einem Bild pro Klasse.
  • Sprachmodelle: Chatbots, die ohne spezielles Training auf neue Fragestellungen reagieren können.
  • Medizin: Erkennung seltener Krankheiten mit minimalen Patientendaten.
  • Industrie: Qualitätskontrolle mit nur wenigen Beispielen für neue Fehlerbilder.

Vorteile:

  • Datenersparnis: Funktioniert auch in Szenarien mit wenigen oder keinen Labels.
  • Schnelle Anpassung: Modelle können sehr schnell für neue Aufgaben eingesetzt werden.
  • Praxisrelevanz: Besonders nützlich in Bereichen, in denen Daten selten, teuer oder schwer zugänglich sind.

Herausforderungen:

  • Komplexität: Erfordert leistungsfähige Modellarchitekturen wie Transformer oder Meta-Learning-Verfahren.
  • Generalisation: Risiko, dass Modelle auf unbekannte Aufgaben nicht robust genug reagieren.
  • Interpretierbarkeit: Entscheidungen sind oft schwer nachvollziehbar, insbesondere im Zero-Shot Setting.

Verwandte Begriffe:

Meta-Learning, Transfer Learning, Self-Supervised Learning, Representation Learning, Few-Shot Prompting, GPT, BERT, Metrisches Lernen, Siamese Networks, Prototypical Networks, Foundation Models

Autor: IKTconcept Redaktion • Letzte Aktualisierung: 15. September 2025
Quelle: IKTconcept IT-Glossar, IKTconcept Startseite