KI-Pinocchio

ChatGPT, jetzt GPT-4 erregt die Gemüter der Feuilletonisten. Es ist auffällig, dass man vor allem nach Schwachstellen sucht: Wo macht das System einen Fehler? Es gibt Überschriften „Wie die KI das Lügen lernt“ oder „Der Pinocchio, der aus KI gemacht ist“. Ein Programm kann nicht lügen, dieser Sprechakt der absichtsvollen Falschaussage ist den Menschen vorbehalten. Das Programm stellt nur Zeichenketten nach statistischen Wahrscheinlichkeiten zusammen, die Wahrheit spielt dabei keinerlei Rolle. Deshalb kann es auch zu fiktiven „Fakten“ kommen, die KI-Experten sprechen von Halluzinationen. Diese treten vor allem in Closed Domains auf, also bei Themen, zu denen wenig Texte zum Training vorhanden waren. Man arbeitet daran, ein Factchecking über Suchmaschinen zu integrieren, um Halluzinationen zu verringern.

Bei den kritischen Texten über ChatGPT kann man zwischen den Zeilen auch eine gewisse Genugtuung herauslesen, dass die Algorithmen eben doch nicht so intelligent sind wie die natürliche Intelligenz des Menschen. Obwohl ja Lügen, Fake News, Desinformation, Manipulation usw. humane Kernkompetenzen darstellen. (30.03.2023)

Diese Bild hat Stable Diffusion auf die Prompts „Pinocchio Long Nose Computer“ generiert.

No comments yet.

Schreibe einen Kommentar