Wprowadzenie
Temperature to jeden z najważniejszych parametrów sterujących generowaniem tekstu w dużych modelach językowych (LLM). Kontroluje on poziom losowości i kreatywności odpowiedzi.
Jak działa Temperature?
Podczas generowania kolejnego tokena model oblicza prawdopodobieństwa dla wszystkich możliwych tokenów. Parametr Temperature skaluje te prawdopodobieństwa przed ich normalizacją (softmax).
- Temperature = 0 → całkowicie deterministyczne (zawsze wybiera najbardziej prawdopodobny token)
- Temperature = 1.0 → oryginalny rozkład prawdopodobieństwa modelu
- Temperature > 1.0 → zwiększa losowość i kreatywność
- Temperature < 1.0 → zwiększa determinizm i spójność
Praktyczne wartości
- 0.0 – 0.3 → zadania wymagające precyzji (kod, matematyka, fakty)
- 0.7 – 0.9 → równowaga między kreatywnością a spójnością (najczęściej używana)
- 1.0 – 1.3 → kreatywne pisanie, storytelling, brainstorming
- > 1.5 → bardzo chaotyczne, często nonsensowne odpowiedzi
Temperature a inne parametry
Temperature często działa razem z:
- Top-p (Nucleus Sampling)
- Top-k Sampling
- Presence / Frequency Penalty
Zastosowania
- Chatboty i asystenci – zwykle 0.7–0.85
- Generowanie kodu – bardzo niska temperatura
- Pisanie artykułów, opowiadań, poezji – wyższa temperatura
- Badania i analiza – niska temperatura
Aktualny status (2026)
Temperature pozostaje podstawowym parametrem sterującym w praktycznie wszystkich interfejsach LLM. Nowoczesne modele oferują coraz bardziej zaawansowane metody samplingowe, ale klasycznaTemperature nadal jest najpopularniejszym i najbardziej intuicyjnym sposobem kontrolowania kreatywności generacji.