Few-Shot Prompting

Wprowadzenie

Few-Shot Prompting to technika prompt engineeringu, w której modelowi językowemu podaje się kilka przykładów wykonania zadania (zwykle 2–10), zanim zada się właściwe pytanie. Dzięki temu model „uczy się na przykładach” w kontekście rozmowy, bez konieczności dostrajania wag modelu.

Porównanie z innymi technikami

  • Zero-Shot Prompting – zadanie bez żadnych przykładów
  • One-Shot Prompting – tylko jeden przykład
  • Few-Shot Prompting – kilka przykładów (najczęściej 3–8)

Jak działa Few-Shot Prompting?

Model dzięki mechanizmowi In-Context Learning potrafi uogólniać wzorzec z podanych przykładów i stosować go do nowego zapytania. Przykłady działają jak „lekcja” w kontekście okna kontekstowego.

Struktura dobrego Few-Shot Promptu

  • Jasne sformułowanie zadania na początku
  • Przykłady w spójnym formacie (Input → Output)
  • Różnorodność przykładów
  • Precyzyjne oddzielenie przykładów (np. ### lub ---)
  • Wskazanie formatu oczekiwanej odpowiedzi

Zalety Few-Shot Prompting

  • Znaczna poprawa jakości odpowiedzi bez kosztownego fine-tuningu
  • Łatwość testowania i iteracji
  • Działa dobrze nawet z mniejszymi modelami
  • Możliwość szybkiego dostosowania zachowania modelu

Ograniczenia

  • Zajmuje miejsce w kontekście (koszt tokenów)
  • Jakość mocno zależy od dobranych przykładów
  • Przy bardzo długim kontekście może wystąpić „lost in the middle”
  • Nie zawsze lepsze niż dobrze napisany Zero-Shot

Najlepsze praktyki

  • Używaj 3–5 różnorodnych, ale spójnych przykładów
  • Dbaj o porządek i czytelność
  • Testuj różne zestawy przykładów
  • Łącz z Chain-of-Thought dla zadań wymagających rozumowania

Aktualny status (2026)

Few-Shot Prompting pozostaje jedną z najważniejszych i najczęściej stosowanych technik prompt engineeringu. Mimo rozwoju zaawansowanego fine-tuningu (LoRA, RLHF) oraz agentów, umiejętność tworzenia skutecznych few-shot promptów jest kluczowa przy pracy z LLM. W nowszych modelach (GPT-5, Claude 4, Grok 3, Gemini 2.5) few-shot działa jeszcze lepiej dzięki większemu kontekstowi i lepszemu rozumowaniu.

To podstawowe narzędzie każdego, kto buduje aplikacje oparte na modelach językowych.