Künstliche "Intelligenz" und ihre Probleme einfach erklärt
Ein sehr gutes Video von @Ultralativ das einfach verständlich erklärt warum #ChatGPT oder andere Generative #AI nicht intelligent oder kreativ sind, und welche Probleme damit zusammenhängen.
Der Chat-Bot denkt sich einfach Fakten aus! Das ist scheisse!
Ja mei, was meinen die Kritiker, wofür das "G" in "GPT" steht? Bereits der Name des Programms beschreibt, worum es geht -- generieren von Text.
Das ist nicht zwangsläufig das gleiche wie das korrekte Wiedergeben von Fakten.
Außerdem hängt die Qualität der Ausgaben stark vom Sprachmodell ab und dessen Qualität wiederum hängt von den Trainingsdaten ab -- wer hat die Daten wie zusammengestellt und wie wurde das Sprachmodell trainiert? Hier gibt es noch riesige Unterschiede.
Ultralativ schaue ich sonst sehr gerne, das Video war aber wirklich nicht gut.
Es wird nur ewig erklärt, dass KIs nicht wirklich intelligent oder kreativ sind, was komplett am Thema vorbei geht.
Dabei sind die Modelle (vor allem LLMs) bereits heute gut, dass sie bei echten Aufgaben teilweise mit einem Menschen mithalten können. Jetzt gerade kann ein Entwickler an manchen Themen doppelt so schnell arbeiten, weil der Code sich von selbst schreibt.
Auf die Auswirkungen davon wird im Video nicht wirklich eingegangen, also hat er da meines Erachtens das Thema komplett verfehlt.
Dabei sind die Modelle (vor allem LLMs) bereits heute gut, dass sie bei echten Aufgaben teilweise mit einem Menschen mithalten können.
Hast du das Video überhaupt geschaut? Ein zentraler Punkt des Videos ist doch genau das: für manche Dinge eignet sich diese Art von KI, für sehr vieles aber eben nicht. By design. Es ist absolut relevant, wie diese Modelle funktionieren.
Saying that ChatGPT "can't yet provide reliably correct answers to questions" is like saying your cat can't yet provide reliable services as a paralegal. You can't solve that task mismatch with a better cat