Temperature (w LLM)

Wprowadzenie

Temperature to jeden z najważniejszych parametrów sterujących generowaniem tekstu w dużych modelach językowych (LLM). Kontroluje on poziom losowości i kreatywności odpowiedzi.

Jak działa Temperature?

Podczas generowania kolejnego tokena model oblicza prawdopodobieństwa dla wszystkich możliwych tokenów. Parametr Temperature skaluje te prawdopodobieństwa przed ich normalizacją (softmax).

  • Temperature = 0 → całkowicie deterministyczne (zawsze wybiera najbardziej prawdopodobny token)
  • Temperature = 1.0 → oryginalny rozkład prawdopodobieństwa modelu
  • Temperature > 1.0 → zwiększa losowość i kreatywność
  • Temperature < 1.0 → zwiększa determinizm i spójność

Praktyczne wartości

  • 0.0 – 0.3 → zadania wymagające precyzji (kod, matematyka, fakty)
  • 0.7 – 0.9 → równowaga między kreatywnością a spójnością (najczęściej używana)
  • 1.0 – 1.3 → kreatywne pisanie, storytelling, brainstorming
  • > 1.5 → bardzo chaotyczne, często nonsensowne odpowiedzi

Temperature a inne parametry

Temperature często działa razem z:

  • Top-p (Nucleus Sampling)
  • Top-k Sampling
  • Presence / Frequency Penalty

Zastosowania

  • Chatboty i asystenci – zwykle 0.7–0.85
  • Generowanie kodu – bardzo niska temperatura
  • Pisanie artykułów, opowiadań, poezji – wyższa temperatura
  • Badania i analiza – niska temperatura

Aktualny status (2026)

Temperature pozostaje podstawowym parametrem sterującym w praktycznie wszystkich interfejsach LLM. Nowoczesne modele oferują coraz bardziej zaawansowane metody samplingowe, ale klasycznaTemperature nadal jest najpopularniejszym i najbardziej intuicyjnym sposobem kontrolowania kreatywności generacji.