Das wird vermutlich ein ähnlicher „Fortschritt“ wie die Verbreitung von Callcentern. Unternehmen können durch das Kanalisieren, Standardisieren und Abwimmeln von Anfragen zwischenmenschliche Kommunikation vermeiden und so ihre Kosten massiv reduzieren. Und wer ein etwas komplexeres Anliegen hat oder einfach mal seinen Frust ablassen will, schaut halt in die Röhre. Bleibt aus Kund:innensicht wenigstens die Hoffnung, dass eine KI nicht so schnell pampig wird, wie überforderte fachunkundige Callcenter-Agents.
Ich stimme Dir zu, dass Emotionen eine Schlüsselrolle bei der Verbreitung von Verschwörungserzählungen spielen. Aber genau deshalb ist meiner Meinung nach der Versuch, sie durch „wahrheitsgemäße Informationen“ einzudämmen, schon im Kern zum Scheitern verurteilt. Ich bin mal deiner Empfehlung gefolgt und habe ChatGPT gefragt, ob Rauchmelder zum illegalen Abhören genutzt werden - übrigens eine Verschwörungsfantasie, die sich 2017 zwei Journalisten ausgedacht haben, um das Funktionieren solcher Fantasien zu untersuchen und die sich leider ziemlich verselbständigt hat. Hier nun die Antwort:
Nein, Rauchmelder werden nicht zum Abhören genutzt. […] Es ist technisch möglich, Rauchmelder zu manipulieren und sie als Abhörgeräte zu verwenden. Es wäre jedoch illegal und moralisch unethisch, dies zu tun, da es eine Verletzung der Privatsphäre darstellt und gegen Gesetze zum Schutz der Privatsphäre und der Sicherheit verstößt. Es ist auch unwahrscheinlich, dass Rauchmelder eine effektive Abhörmethode darstellen, da sie nicht für diesen Zweck entwickelt wurden und andere Technologien, wie zum Beispiel Abhörgeräte oder Überwachungskameras, besser geeignet sind.
Auf den ersten Blick also alles super: Nein, stimmt nicht, wäre zwar theoretisch möglich, ist aber unwahrscheinlich. Nun aber der eigentliche Punkt: Wenn ich daran glaube, dass die Regierung oder wer auch immer mich abhören will (und diese Emotion, also der Wunsch, das für wahr zu halten, ist ja der Kern des Ganzen), dann werde ich auch in dieser Antwort genügend „Belege“ dafür finden, dass es stiimmt: Ich werde das Dementi am Anfang als Verschleierung abtun, werde auf die technische Möglichkeit verweisen und diese als Bestätigung meines Verdachts verstehen.
Das gilt wohlgemerkt ebenso für Versuche von Menschen, Verschwörungsfantasien mit Fakten zu widerlegen, aber die Hoffnung, dass sich aufgrund von KI-Systemen weniger Informationen im Netz tummeln werden, die verschwörungsfantastisch gedeutet werden können oder dass solche Deutungen im Netz weniger präsent werden, ist meiner Meinung nach unbegründet.
Zwar ist das ein durchaus denkbares Szenario, aber so wäre KI wirklich schlecht eingesetzt. Besser wäre ein assistierender Einsatz. LLMs könnten zum Beispiel die Kundendaten aufnehmen, damit der Callcenter-Mitarbeiter sich auf das Thema konzentrieren kann.
Oder LLMs könnten im Hintergrund Vorschläge für Produkte oder Lösungen auf Basis früherer Probleme vorschlagen. Dann muss der Agent nicht noch drei mal bei Kollegen um Rat bitten.
Du siehst, LLMs können auch für eine bessere Beratung genutzt werden.
Aus kulturwissenschaftlicher Sicht würde ich sagen, gab es immer Menschen, die neue Technologien extrem abgefeiert haben, welche, die ihnen gegenüber extrem skeptisch waren. Noch wichtiger, weil häufiger, sind die unzählingen Zwischenpositionen. Auch die Bewertung, ob die ein oder andere Haltung nun besser ist (zumindest für mich klingt „konservativ“ bei Dir eindeutig negativ) hängt in erster Linie von der eigenen Sichtweise ab. Und es spielt eine Rolle, aus welcher zeitlichen Perspektive diese Bewertung erfolgt. Niemand wird wohl betreiten, dass Auto und Handy so gut wie alle Lebensbereiche revolutioniert haben. Aber gibt es wirklich Menschen, die sagen, dass dies ausschließlich positive bzw. ausschließlich negative Folgen hatte?
Zu einer solch informierten Sichtweise würde dann aus meiner Sicht aber auch die Frage gehören, wer diese KI-Projekte betreibt, welche Interessen damit verfolgt werden, was das für Implikationen für die Funktionsweise dieser Systeme bedeutet und wie sie genutzt und rezipiert werden. In einem anderen Thread habe ich schon auf einen Artikel verwiesen, der diesbezüglich einige wichtige Probleme anreißt:
Könnten sie. Das wird aber nur da passieren, wo es sich für das jeweilige Unternehmen rechnet. Callcenter können auch dafür genutzt werden, schneller und besser zu beraten. Die häufigste Nutzung ist jedoch, a) Leuten Produkte aufzuschwatzen und b) dafür zu sorgen, dass kompetente Mitarbeiter:innen möglichst wenig Zeit mit Anfragen verbringen - es sei denn, die Kund:innen zahlen extra dafür. Zugegeben, so war es vor 20 Jahren, als ich noch in Callcentern gejobbt habe, aber meine Erfahrung als Kunde weicht nicht besonders stark davon ab. Vielleicht hab ich ja immer besonderes Pech, aber bei einem Agent, der sich Rat von Kolleg:innen holt, um meine Frage beantworten zu können, bin ich ja schon ganz aus dem Häuschen vor Freude
Einer der ersten Unterzeichner des Briefes für ein „KI-Moratorium“ war der renommierte, kanadische Informatiker Yoshua Bengio, der als Informatiker und Ingenieur seit Jahrzehnten an neuronalen Netzwerken forscht und unterrichtet. Er ist außerdem Mitglied der kanadischen Royal Society.
In einem Interview (auf deutsch übersetzt) erklärt er, warum er den Brief unterschrieben hat und welche Probleme er in den aktuellen KI-Entwicklungen sieht:
Er beschreibt dabei verschiedene gesellschaftliche Gefahren, wie eine leichtere Verbreitung von Fakenews usw., die auch alle nachvollziehbar sind.
Die Gefahr der Entwicklung einer, dem Menschen ebenbürtigen, künstlichen Intelligenz sieht er aber offenbar nicht.
Das tue ich auch nicht, wie ich weiter oben ja schon geschrieben hatte:
Da hast du mich falsch verstanden. Ich kritisiere maschine learning nicht. Wir haben nur unterschiedliche Ansichten über die Frage, ob sich aus den heutigen KI-Systemen eine Menschen-ähnliche Intelligenz entwickeln kann.
Und auch der Vorstellung, dass ich ChatGPT benutzen müsste, um mir ein Urteil über dessen Funktion und Grenzen zu bilden, stimme ich so pauschal nicht zu.
Man muss ja auch kein Pilot sein, um zu verstehen warum ein Flugzeug fliegen kann, sondern nur die Grundlagen der Aerodynamik kennen.
Genauso weiß man dann auch, dass ein Flugzeug z.B. nicht zum Mond fliegen kann.
Und genauso reichen, meiner Ansicht nach, die theoretischen Grundlagen von Chatbots aus, um abzuschätzen, ob sie unseren Grad an Intelligenz erreichen können.
Was aber die Frage nach dem konkretem, heutigem Nutzen oder den gesellschaftlichen Gefahren der Chatbots angeht, da mag es sicher helfen, Chatbots selbst zu benutzen. Aber bei dem Thema waren wir uns ja, zumindest meiner Meinung nach, weitestgehend einig.
Zumal das nicht helfen würde. Wie in jeder Konversation gilt: Wer die Antwort finden will muss die richtigen Fragen stellen. Und da geht nun jeder andere Wege. Die Erfahrungen, die man mit chatGPT macht, hängen also nur zu einem kleinen Teil von ChatGPT ab.
Scheinbar wollte Musk mit seiner Unterstützung für das Moratorium nur Zeit gewinnen:
Ich fand, das war der durchsichtigste Grund von allen Unterzeichnern. Elon ist nix wichtiger als Elon. Als ob den irgendwelche Gefahren für die Menschheit von irgendwas abhalten würden - hab selten so gelacht.
Und man mag sich nicht vorstellen, unter welch gewaltigen Schmerzen dieser Mann seit Monaten leiden muss. Der unfehlbare, geniale Geschäftsmann, das Genie mit der weltbesten Nase für Chancen, der selbsternannte Technoking, hat sich ein paar Jahre vor dem gigantischen Durchbruch aus dem von ihm mitgegründeten Start-Up rauskaufen lassen. Von Microsoft! Und Microsoft wird jetzt überall in den siebten Himmel gelobt für die Weitsicht und die Genialität dieses Investments!
Und der arme Elon muss die Brotkrumen auflesen - sprich: hoffen, dass genügend Leute nicht mitbekommen haben, dass er gar keine OpenAI-Anteile mehr hält, und ihm somit trotzdem Präsenz in jedem Beitrag über ChatGPT einräumen.
Was in meiner Wahrnehmung immer noch ein gewaltiger Haufen Brotkrumen ist, faktisch glaubt die halbe Welt offenbar, Elon Musk stünde hinter OpenAI. Aber für ein so gewaltiges Ego wie Musk ist der Trostpreis halt nicht genug.
Woher nimmst du das? Ich bin bisher auf niemanden getroffen, der das behauptet hat. Aber vielleicht bin ich auch in der falschen Bubble.
Der letzte Fall war Maybrit Illner diese Woche. Die Moderatorin behauptete das fröhlich und musste von einem Gast aufgeklärt werden.
Und auch sonst findet sich praktisch kein längerer medialer Beitrag über ChatGPT, in dem nicht früher oder später der Name Elon Musk fällt - und das ist nicht erst so, seit er bei dieser Moratoriumsforderung mitgemacht hat.
Ich hatte bei dem Post von oben noch überlegt, was relativierendes dazu zuschreiben. Aber wenn ich diese Meldung von heute sehe, bekomme ich irgendwie das Gefühl, dass der Mann wirklich ein Ego-Problem hat und dass das Alles nicht nur PR-Stunts sind:
Er nennt seine KI „TruthGPT“? Und das, nachdem Trump „Truth Social“ gegründet hat und nachdem alle Welt kritisch auf das Thema Fake News bei KI blickt?
Weil der Forumsbeitrag etwas eingeschlafen ist, aber aus meiner Sicht nichts an Relevanz verloren hat, hier noch einmal ein aktuelles Video-Essay, welches das Thema mit verschiedensten Quellen beleuchtet:
Don’t Look Up - The Documentary: The Case For AI As An Existential Threat
17 Minuten lang. Fokus liegt darauf Bewusstsein für das Problem zu schaffen, nicht auf Lösungen bzw. Lösungsansätzen. Als Einstieg gut geeignet.
Einen schönen Kommentar zu dieser Art von Untergangsfantasien habe ich unter dem verlinkten Video auf Youtube gefunden:
This isn’t like the „atom bomb“, where it really is a horrible murder machine just made to murder. This is an „apocalypse fantasy“ for people who are bored and don’t want to deal with real emergencies like kids starving in 3rd world countries, the US Education system collapsing, infrastructural collapse of utilities ( water / electricity ) that no one can maintain anymore because the education system has failed so badly etc…
Real disasters are not exciting like popular books and movies. They are boring, painful and nasty and we don’t like to look at them. Imagine watching Schindler’s List on repeat, but the movie is actually honest about how many concentration camp prisoners were murdered by Nazi cruelty but ALSO „allied“ bombings …
Das ist eher ein Paradebeispiel von Whataboutism… also das klassische „Aber XYZ ist ein viel größeres Problem, wir sollten uns lieber darum kümmern“.
Dass künstliche Intelligenz maßgebliche gesellschaftliche Umbrüche erzeugen und erhebliche, auch existenzielle Konsequenzen für viele Menschen haben kann, bezweifelt eigentlich kein Experte. Allenfalls das Ausmaß der potenziellen Gefahr wird unterschiedlich eingeschätzt.
Vor diesem Hintergrund erscheint es einfach naiv, zu sagen, wir sollten uns nur um die „realen“ Probleme kümmern. Viele dieser realen Probleme, die wir heute haben, haben wir genau wegen dieser Mentalität: Weil nicht langfristig gedacht wird, weil nicht genug Prävention betrieben wurde.
Also welchen Sinn hat es, zu argumentieren, man solle sich erst um die Gefahren von KI kümmern, wenn sie sich bereits manifestiert haben?
Wie gesagt, ich bin auch eher für einen liberalen Umgang mit KI, ich bin sicherlich nicht für ein Verbot der Weiterentwicklung, alleine schon, weil ich es für nicht durchsetzbar halte. Dennoch muss man sich Gedanken um die Gefahren machen und jetzt schon entsprechende Prävention betreiben, damit gar nicht erst ein „langweiliges, reales Problem“ akut wird.
Es gibt einen neuen Thread zu diesem Thema:
Darin auch
und der Folgepost
Vielleicht könnte man ja diesen Thread hier dann schließen und dort weiter diskutieren?