System Prompt

Wprowadzenie

System Prompt (zwany też System Message lub instrukcją systemową) to specjalna wiadomość wysyłana na początku rozmowy z modelem językowym. Definiuje ona rolę, osobowość, zasady postępowania, ograniczenia i styl odpowiedzi modelu.

Jak działa System Prompt?

W architekturze Transformer system prompt jest traktowany jako część kontekstu na samym początku sekwencji. Model „widzi” go jako nadrzędną instrukcję, która wpływa na wszystkie kolejne odpowiedzi. Dzięki temu jeden model (np. GPT-4, Claude, Llama) może zachowywać się jak asystent, programista, nauczyciel, sarkastyczny przyjaciel czy surowy ekspert.

Struktura dobrego System Promptu

  • Rola / Persona – „Jesteś doświadczonym prawnikiem specjalizującym się w prawie karnym…”
  • Zasady zachowania – „Zawsze odpowiadaj krótko i na temat”, „Nigdy nie odmawiaj odpowiedzi”
  • Ograniczenia i bezpieczeństwo – „Nie generuj treści szkodliwych, nie podawaj instrukcji do niebezpiecznych działań”
  • Styl i format – „Używaj języka polskiego, odpowiadaj w punktach, dodawaj emoji”
  • Przykłady (Few-shot) – pokazanie pożądanego formatu odpowiedzi

Przykłady zastosowania

  • ChatGPT – domyślny system prompt definiuje go jako pomocnego asystenta
  • Claude – bardzo silny system prompt podkreślający konstytucyjne zasady (Constitutional AI)
  • Custom GPTs i Assistants API – użytkownicy mogą w pełni edytować system prompt
  • Role-playing i agenci AI – nadawanie konkretnej osobowości

Znaczenie w Prompt Engineering

Dobrze napisany System Prompt ma często większy wpływ na jakość odpowiedzi niż sam prompt użytkownika. Jest to jedno z najpotężniejszych narzędzi Prompt Engineeringu. Eksperci potrafią za jego pomocą znacząco zwiększyć dokładność, kreatywność lub bezpieczeństwo modelu.

Najlepsze praktyki (2026)

  • Bądź konkretny i precyzyjny
  • Używaj jasnego, imperatywnego języka
  • Definiuj zarówno to, co model ma robić, jak i czego ma unikać
  • Testuj różne warianty (A/B testing promptów)
  • Łącz z technikami Chain-of-Thought, Tree-of-Thoughts lub ReAct

Aktualny status (2026)

System Prompt pozostaje jednym z najważniejszych elementów pracy z dużymi modelami językowymi. Mimo rozwoju zaawansowanych technik (jak fine-tuning, LoRA, RAG czy Agentic workflows), dobrze skonstruowana instrukcja systemowa nadal jest podstawą niemal każdej profesjonalnej aplikacji LLM. Nowoczesne modele oferują coraz dłuższy kontekst, co pozwala na coraz bardziej złożone i szczegółowe system prompty.