Halucynacja AI

Zjawisko, gdy AI generuje nieprawdziwe, wymyślone lub nonsensowne informacje, prezentując je z pełną pewnością siebie. Dzieje się tak, bo modele działają na prawdopodobieństwie - czasami 'wylosują' błędną ścieżkę rozumowania i zaczną budować na niej dalsze, coraz bardziej nieprawdziwe odpowiedzi. To jak osoba, która nie zna odpowiedzi, ale zamiast przyznać się, zaczyna improwizować. Rozwiązaniem jest reroll, użycie innego modelu lub weryfikacja informacji.