Herbert Weber

H KI-Fachleute nennen eine Melange aus Fakten und Fiktion "Halluzination". ChatGPT und andere Sprachmodelle, wie man derlei eloquente Algorithmen auch nennt, halluzinieren häufig. Fachleute arbeiten an dem Problem, können es aber allenfalls lindern, nicht grundsätzlich lösen. So halluziniert OpenAI’s neuestes Sprachmodell GPT-4 immer noch, auch wenn die Wahrscheinlichkeit für eine richtige Antwort um 40 Prozent gegenüber der Vorgängerversion GPT-3.5, auf der ChatGPT basiert, gesteigert werden konnte. Die eigentliche Crux ist, dass die erzeugten Texte keine Hinweise enthalten, was Fakt ist und was Fiktion.

false