Wprowadzenie
Hallucynacja AI (AI Hallucination) to zjawisko, w którym model językowy generuje informacje, które brzmią wiarygodnie, ale są całkowicie zmyślone, nieprawdziwe lub sprzeczne z faktami. Jest to jedno z największych wyzwań współczesnych dużych modeli językowych.
Przyczyny hallucynacji
- Trening na ogromnych, nieperfekcyjnych danych (internet zawiera błędy, sprzeczności i fikcję)
- Mechanizm next-token prediction – model „wymyśla” to, co statystycznie pasuje
- Brak rzeczywistego zrozumienia świata (model nie „wie”, tylko przewiduje wzorce)
- Zbyt wysoka temperatura samplingu
- Niewystarczający lub nieprecyzyjny kontekst
Rodzaje hallucynacji
- Factual Hallucination – wymyślanie nieistniejących faktów (np. błędna data wydarzenia)
- Source Hallucination – cytowanie nieistniejących źródeł lub autorów
- Self-Contradiction – sprzeczności we własnej odpowiedzi
- Reasoning Hallucination – błędna logika lub krok po kroku
Jak minimalizować hallucynacje?
- RAG (Retrieval Augmented Generation) – podawanie rzeczywistych źródeł
- Instruction Tuning + RLHF – lepsze dostrojenie
- Chain-of-Thought + Self-Consistency
- JSON Mode / Structured Outputs
- Fact-checking tools i agentyczne systemy
- Model editing i knowledge editing
Przykłady
Model może twierdzić, że Einstein otrzymał Nobla za teorię względności (w rzeczywistości za efekt fotoelektryczny), lub wymyślić nieistniejącą publikację naukową z konkretnym DOI.
Aktualny status (2026)
Hallucynacje nadal pozostają fundamentalnym ograniczeniem obecnych architektur LLM. Mimo znacznego postępu (o1-like reasoning models, RAG, tool use, verification agents) żaden model nie jest ich całkowicie wolny. Najnowsze podejścia łączą generowanie z weryfikacją (self-fact-check, multi-agent debate, retrieval grounding). W zastosowaniach krytycznych (medycyna, prawo, finanse) hallucynacje są głównym powodem, dla którego modele działają jako asystenci, a nie autonomiczne systemy decyzyjne.
Walka z hallucynacjami AI jest jednym z najważniejszych tematów badań nad alignmentem i bezpieczeństwem sztucznej inteligencji.