Der letzte Fall war Maybrit Illner diese Woche. Die Moderatorin behauptete das fröhlich und musste von einem Gast aufgeklärt werden.
Und auch sonst findet sich praktisch kein längerer medialer Beitrag über ChatGPT, in dem nicht früher oder später der Name Elon Musk fällt - und das ist nicht erst so, seit er bei dieser Moratoriumsforderung mitgemacht hat.
Ich hatte bei dem Post von oben noch überlegt, was relativierendes dazu zuschreiben. Aber wenn ich diese Meldung von heute sehe, bekomme ich irgendwie das Gefühl, dass der Mann wirklich ein Ego-Problem hat und dass das Alles nicht nur PR-Stunts sind:
Er nennt seine KI „TruthGPT“? Und das, nachdem Trump „Truth Social“ gegründet hat und nachdem alle Welt kritisch auf das Thema Fake News bei KI blickt?
Weil der Forumsbeitrag etwas eingeschlafen ist, aber aus meiner Sicht nichts an Relevanz verloren hat, hier noch einmal ein aktuelles Video-Essay, welches das Thema mit verschiedensten Quellen beleuchtet:
Einen schönen Kommentar zu dieser Art von Untergangsfantasien habe ich unter dem verlinkten Video auf Youtube gefunden:
This isn’t like the „atom bomb“, where it really is a horrible murder machine just made to murder. This is an „apocalypse fantasy“ for people who are bored and don’t want to deal with real emergencies like kids starving in 3rd world countries, the US Education system collapsing, infrastructural collapse of utilities ( water / electricity ) that no one can maintain anymore because the education system has failed so badly etc…
Real disasters are not exciting like popular books and movies. They are boring, painful and nasty and we don’t like to look at them. Imagine watching Schindler’s List on repeat, but the movie is actually honest about how many concentration camp prisoners were murdered by Nazi cruelty but ALSO „allied“ bombings …
Das ist eher ein Paradebeispiel von Whataboutism… also das klassische „Aber XYZ ist ein viel größeres Problem, wir sollten uns lieber darum kümmern“.
Dass künstliche Intelligenz maßgebliche gesellschaftliche Umbrüche erzeugen und erhebliche, auch existenzielle Konsequenzen für viele Menschen haben kann, bezweifelt eigentlich kein Experte. Allenfalls das Ausmaß der potenziellen Gefahr wird unterschiedlich eingeschätzt.
Vor diesem Hintergrund erscheint es einfach naiv, zu sagen, wir sollten uns nur um die „realen“ Probleme kümmern. Viele dieser realen Probleme, die wir heute haben, haben wir genau wegen dieser Mentalität: Weil nicht langfristig gedacht wird, weil nicht genug Prävention betrieben wurde.
Also welchen Sinn hat es, zu argumentieren, man solle sich erst um die Gefahren von KI kümmern, wenn sie sich bereits manifestiert haben?
Wie gesagt, ich bin auch eher für einen liberalen Umgang mit KI, ich bin sicherlich nicht für ein Verbot der Weiterentwicklung, alleine schon, weil ich es für nicht durchsetzbar halte. Dennoch muss man sich Gedanken um die Gefahren machen und jetzt schon entsprechende Prävention betreiben, damit gar nicht erst ein „langweiliges, reales Problem“ akut wird.