Few-Shot Learning

Wprowadzenie

Few-Shot Learning (uczenie kilkuprzykładowe) to paradygmat uczenia maszynowego, w którym model jest w stanie skutecznie nauczyć się nowego zadania lub rozpoznać nową klasę obiektów na podstawie bardzo małej liczby przykładów – zazwyczaj od 1 do kilkunastu na klasę.

Porównanie z innymi podejściami

  • Traditional Supervised Learning – wymaga setek lub tysięcy przykładów na klasę
  • One-Shot Learning – tylko jeden przykład na klasę
  • Few-Shot Learning – kilka przykładów (zwykle 2–20)
  • Zero-Shot Learning – zero przykładów (model korzysta z wiedzy ogólnej)

Główne podejścia

  • Meta-Learning („uczenie się, jak się uczyć”) – np. MAML (Model-Agnostic Meta-Learning)
  • Siamese Networks – porównywanie podobieństwa par przykładów
  • Prototypical Networks – tworzenie „prototypu” każdej klasy jako średniego embedding
  • Matching Networks – mechanizm uwagi nad support setem
  • In-Context Learning – w dużych modelach językowych (Few-Shot Prompting)

Zalety Few-Shot Learning

  • Drastyczne zmniejszenie zapotrzebowania na etykietowane dane
  • Szybka adaptacja do nowych zadań i klas
  • Blisko ludzkiego sposobu uczenia (ludzie często uczą się z kilku przykładów)
  • Partykularnie przydatne w dziedzinach, gdzie dane są rzadkie lub drogie (medycyna, robotyka, biologia)

Wyzwania

  • Wrażliwość na wybór przykładów (support set)
  • Trudniejsza ewaluacja i porównywanie modeli
  • Wciąż niższa dokładność niż modele trenowane na dużych zbiorach
  • Problem z generalizacją przy bardzo różnych rozkładach danych

Few-Shot w erze LLM

W dużych modelach językowych Few-Shot Learning przejawia się jako In-Context Learning (Few-Shot Prompting). Model nie aktualizuje wag, lecz uczy się z przykładów podanych bezpośrednio w promptcie. Dzięki ogromnej skali pre-treningu współczesne modele (GPT-5, Claude 4, Grok 3, Llama 4) osiągają w tym trybie zaskakująco dobre wyniki.

Aktualny status (2026)

Few-Shot Learning pozostaje kluczowym kierunkiem badań, szczególnie w kontekście meta-learningu i efektywności danych. W praktyce najpopularniejszą formą jest Few-Shot Prompting w dużych modelach językowych oraz prototypowe sieci w zadaniach wizyjnych i multimodalnych. Dzięki połączeniu z technikami takimi jak LoRA, RAG i agentycznymi systemami, Few-Shot Learning staje się coraz bardziej praktycznym i potężnym narzędziem.