Das Problem der KI-Demenz (04.08.2023) |
Bisher werden die heute verbreiteten KI-Sprachmodelle (sog. LLM, Large Language Models), wie z.B. GPT-4, meist mit Datensätzen trainiert, die von Menschen generiert wurden. Und genau deshalb funktioniert das aktuell auch ganz gut. |
In Zukunft wird es aber sehr viel schwieriger, weil sich KI-generierter Text ziemlich schnell im Netz ausbreitet, was letztendlich und unweigerlich dazu führen wird, dass KI-Anwendungen zunehmend mit diesen Datensätzen konfrontiert werden und daraus "lernen", d.h. mit "Fakten" trainiert werden, die nicht mehr vom Menschen stammen. Das Internet wird sozusagen mit Blablabla verdreckt, was am Ende zu einem unumkehrbaren Effekt bzw. Defekt führt.
Auf einen Nenner gebracht: dies lässt ein KI-Modell kollabieren! Denn es entsteht ein Verlust der Verbindungen zum ursprünglichen Inhalt, was die "Künstliche Intelligenz" vergesslich werden lässt, d.h. sie wird dement und produziert Textmüll.
Der Umgang mit KI (Künstlicher Intelligenz) bzw. AI (Artificial Intelligence) muss deshalb sehr vorsichtig und mit grosser Umsicht weiterentwickelt werden, um diese wirklich als Gewinn für die Menscheit betrachten zu können. Leider sieht es danach gerade nicht aus, weil jeder schnellstmöglich auf den Zug aufspringen möchte, koste es, was es wolle. Die daraus enstehenden Probleme werden leider immens (dement) sein, wenn es die grossen, hauptsächlich damit befassten, IT-Riesen (mit dem vielen Geld) nicht hinbekommen sollten, verantwortungsvoll damit umzugehen und entsprechend zu handeln.
Update 27.12.2023, siehe auch Beitrag: KI lokal testen (27.12.2023)
|