Ich denke, dass es relativ einfach wäre, einer KI-Emotionen zu verpassen: Das wären letztlich nur eine Handvoll Fließkomma-Parameter, deren Werte sich verändern können (neben einem trainierten riesigen neuronalen Netz mit ~10^12 Parametern). Aber will man das ?
Fehlinformationen und Verschwörungstheorien verbreiten sich ja oft gerade deshalb so gut weil sie menschliche Emotionen triggern und die Leute wider jeder Vernunft irgendwelchen Blödsinn glauben.
Ich denke, KI-Systeme, die verantwortungsvoll (d.h. mit wahrheitsgemäßen Informationen) trainiert wurden, sind sehr gut darin, Falschinformationen zu erkennen. Insofern ist KI auch eine Hoffnung für das Eindämmen von Fehlinformationen.
Ich bin da absolut bei dir, ich sage ja ausdrücklich nicht, dass ich eine „völlig ungezügelte KI“ haben wollen würde. Im Gegenteil, das wäre möglicherweise der Anfang für eine schlimme Dystopie. Also ja, Emotionen und das Bilden eigener Meinungen kann man „programmieren“ bzw. durch Programmierung die Grundlagen dafür legen, dass sich eine eigene Persönlichkeit (mit unterschiedlich ausgeprägten Emotions-Parametern) (weiter-)entwickeln kann. Aber nein, das sollte man wohl eher nicht tun.
Die Frage bleibt dabei, was wir tun, wenn jemand eine völlig ungezügelte KI entwickelt, z.B. China. Ab wann erkennen wir eine KI als Persönlichkeit an? Was unterscheidet eine völlig ungezügelte KI letztlich vom Menschen, außer, dass sie keinen Körper hat (wobei das ja auch nicht zwingend ist…)? @Matder ist beispielsweise grundsätzlich dagegen, eine KI als Persönlichkeit zu akzeptieren (und ihr damit auch Rechte zuzubilligen), ich hingegen sehe das anders, ich halte KI-Persönlichkeiten für möglich und somit auch juristisch schutzwürdig.
Ich sehe es wie Daniel. Ich habe überhaupt keinen Zweifel daran, dass wir theoretisch etwas bauen können (und werden), das uns überlegen ist. Das Prinzip, das aus etwas Einfachem ohne Zutun einer höheren Intelligenz etwas Komplexes wird, nennt man auch Emergenz (Link). Ein Beispiel für Emergenz ist die Evolutionsgeschichte, die (jedenfalls wenn man der Evolutionstheorie glaubt) mit einfachen Organismen begann und in deren Verlauf sich - ohne Planung von außen - immer komplexere Organismen entwickelt haben. Interessant übrigens, dass in dem eben zitierten Wikipedia-Artikel auch die Rede davon ist, dass einige Philosophen der Meinung sind, dass das Bewusstsein eine emergente Eigenschaft des Gehirns sei.
Im Zusammenhang Emergenz will ich noch mal auf Kapitel 10.3 des Microsoft-Papiers (Link) und auf das andere Papier (Link) verweisen. Die Forscher haben keine Ahnung, warum die Large Language Models, wenn sie größer werden, plötzlich neue (emergente) Fähigkeiten entwickeln.
Ist das beunruhigend ? Schon. Ist das der Weg in Richtung AGI ? Absolut! @Matder: ich gebe dir Recht, dass es nicht realistisch ist, zu glauben, dass Menschen menschenähnliche Intelligenz bis ins Letzte „ausprogrammieren“ können. Das wird aufgrund der Komplexität nicht funktionieren. Es kann nur funktionieren, wenn Menschen Strukturen schaffen, in denen sich höhere Fähigkeiten von selbst herausbilden können. Der Preis: man wird nicht mehr vollständig nachvollziehen können, was wirklich vor sich geht.
Das kannst du durchaus so sehen. Aber über so eine „zügellose KI“, wie du sie nennst, zu spekulieren, macht für mich einfach keinen Sinn, da es sie mMn, auf Jahrzehnte nicht geben wird. Alles was ich tun kann, ist zu argumentieren warum das, meiner Ansicht nach, so ist, aber mehr auch nicht.
Ja, ähh, das ist ein überspezifische Aussage, also quasi eine Lüge. Microsoft hat 11 Mrd. als größter Investor in OpenAI LLC gebuttert und hostet deren Chat-Bots. Die wissen sehr genau, wie ChatGPT funktioniert und was er kann und nicht kann. Getreu dem Motto von Warren Buffet:
„Investiere niemals in ein Geschäft, das Du nicht verstehst.“
Die Frage ist also, wie können die „Microsoft-Forscher“ dann so etwas in ihrem Paper schreiben? Und die Antwort darauf, steht im ersten Satz in dem, von dir genannten, Abschnitt 10.3:
Our study of GPT-4 is entirely phenomenological: We have focused on the surprising things that GPT-4 can do, but we do not address the fundamental questions of why and how it achieves such remarkable intelligence.
Das ist die wissenschaftliche Bankrott-Erklärung des gesamten Papers. Alle 155 Seiten sind mit diesem Statement nur noch Marketing. Dort steht nämlich sinngemäß:
Es interessiert uns [die Verfasser des Papers] überhaupt nicht, wie Chat-Bots funktionieren, sondern wir lassen uns nur davon blenden, was das Programm vorgaukelt zu können.
Das wäre ungefähr so, als ginge man in eine Zaubervorstellung, sähe dort diverse Zaubertricks und würde hinterher an Magie glauben.
Und mit so einer Herangehensweise können die „Forscher“ dann natürlich auch schreiben, dass sie keine Ahnung haben, warum ChatGPT irgendwas kann, denn sie haben sich das ja auch nie angesehen. Und diese gewollte Ahnungslosigkeit verkauft Microsoft dann als „mysteriöse AGI-Funken“.
Danke für den Hinweis, das hätte ich hier fast noch übersehen @Jens2
Ich finde das Papier ganz gut und interessant. In Abschnitt 10.3 sind ja dann auch die Papiere anderer Forscherteams zitiert, wie das mit dem Titel „Emergent Abilities of Large Language Models“, bei dem es ausführlich um das Thema und die Unvorhersehbarkeit dieser emergenten Fähigkeiten geht. Fakt ist jedenfalls: das größere GPT-4 Modell ist deutlich besser als der Vorgänger. Es schnitt in vielen offiziellen Tests wie dem amerikanischen „Bar Exam“ deutlich besser ab als GPT-3 (Link) und das Microsoft-Papier gibt ja auch ganz viele Beispiele dafür.
An Microsofts Stelle würde ich auch 11 Milliarden (oder mehr) da rein stecken. Die verstehen natürlich das Geschäft und ihre Chance diesmal vor Google zu landen. Das Geschäft entsteht dadurch, was das Modell kann - die prinzipielle Funktionsweise der neuronalen Netze und der Transformer-Architektur ist natürlich bekannt, aber eben nicht, wie große LLMs diese überraschenden Fähigkeiten im Einzelnen ausbilden.
Du schriebst weiter oben, dass die Fake-News um „Hillary Clinton“ nur deshalb erkannt wurden, weil eine Zensurfunktion einprogrammiert wurde. Das glaube ich nicht. Ich habe GPT-4 mit verschiedenen auch selbst-ausgedachten Fake-News konfrontiert. Und keine einzige wurde nicht erkannt. Wenn du magst als Challenge für dich: probier doch mal herum und poste hier eine Fake-News, die nicht erkannt wird.
Generell schlage ich vor, dass wir einfach mal einen Deckel auf die philosophische Diskussion machen ob KI aktuell oder irgendwann Funken von AGI oder mehr hat. Ich persönlich sehe aktuell Funken und glaube, dass wir sehr bald mehr sehen werden. Du glaubst nicht an Funken oder überhaupt an AGI - völlig ok, die Meinung kann man ja haben. Lets agree to disagree.
Das erinnert mich an Leute, die zu Beginn Mobiltelefone, das Internet, Wikipedia, Rechtschreibeunterstützungen oder jede andere Neuigkeit (vermutlich damals auch das Auto, die Bahn usw.) abgelehnt haben, weil sie den Vorteil dieser neuen Technologien nicht erkannt und sich dagegen gesträubt haben. Das ist eine im Kern sehr konservative Haltung.
Dass ChatGPT jetzt schon sinnvolle Anwendungszwecke hat, bestreitet eigentlich kaum jemand. Und gerade wenn du diese neuen Entwicklungen so stark kritisierst, wie du es hier tust, würde es deiner Kritik eine höhere Kredibilität verleihen, wenn du dich auch mit dem Objekt deiner Kritik praktisch auseinandersetzen würdest.
Ein Forscherteam beschreibt im März, wie GPT-4 einen Clickworker manipuliert, einen Captcher für ihn zu lösen, und zwar mit der Lüge, es sei keine Maschine, aber sehbehindert.
Das wird vermutlich ein ähnlicher „Fortschritt“ wie die Verbreitung von Callcentern. Unternehmen können durch das Kanalisieren, Standardisieren und Abwimmeln von Anfragen zwischenmenschliche Kommunikation vermeiden und so ihre Kosten massiv reduzieren. Und wer ein etwas komplexeres Anliegen hat oder einfach mal seinen Frust ablassen will, schaut halt in die Röhre. Bleibt aus Kund:innensicht wenigstens die Hoffnung, dass eine KI nicht so schnell pampig wird, wie überforderte fachunkundige Callcenter-Agents.
Ich stimme Dir zu, dass Emotionen eine Schlüsselrolle bei der Verbreitung von Verschwörungserzählungen spielen. Aber genau deshalb ist meiner Meinung nach der Versuch, sie durch „wahrheitsgemäße Informationen“ einzudämmen, schon im Kern zum Scheitern verurteilt. Ich bin mal deiner Empfehlung gefolgt und habe ChatGPT gefragt, ob Rauchmelder zum illegalen Abhören genutzt werden - übrigens eine Verschwörungsfantasie, die sich 2017 zwei Journalisten ausgedacht haben, um das Funktionieren solcher Fantasien zu untersuchen und die sich leider ziemlich verselbständigt hat. Hier nun die Antwort:
Nein, Rauchmelder werden nicht zum Abhören genutzt. […] Es ist technisch möglich, Rauchmelder zu manipulieren und sie als Abhörgeräte zu verwenden. Es wäre jedoch illegal und moralisch unethisch, dies zu tun, da es eine Verletzung der Privatsphäre darstellt und gegen Gesetze zum Schutz der Privatsphäre und der Sicherheit verstößt. Es ist auch unwahrscheinlich, dass Rauchmelder eine effektive Abhörmethode darstellen, da sie nicht für diesen Zweck entwickelt wurden und andere Technologien, wie zum Beispiel Abhörgeräte oder Überwachungskameras, besser geeignet sind.
Auf den ersten Blick also alles super: Nein, stimmt nicht, wäre zwar theoretisch möglich, ist aber unwahrscheinlich. Nun aber der eigentliche Punkt: Wenn ich daran glaube, dass die Regierung oder wer auch immer mich abhören will (und diese Emotion, also der Wunsch, das für wahr zu halten, ist ja der Kern des Ganzen), dann werde ich auch in dieser Antwort genügend „Belege“ dafür finden, dass es stiimmt: Ich werde das Dementi am Anfang als Verschleierung abtun, werde auf die technische Möglichkeit verweisen und diese als Bestätigung meines Verdachts verstehen.
Das gilt wohlgemerkt ebenso für Versuche von Menschen, Verschwörungsfantasien mit Fakten zu widerlegen, aber die Hoffnung, dass sich aufgrund von KI-Systemen weniger Informationen im Netz tummeln werden, die verschwörungsfantastisch gedeutet werden können oder dass solche Deutungen im Netz weniger präsent werden, ist meiner Meinung nach unbegründet.
Zwar ist das ein durchaus denkbares Szenario, aber so wäre KI wirklich schlecht eingesetzt. Besser wäre ein assistierender Einsatz. LLMs könnten zum Beispiel die Kundendaten aufnehmen, damit der Callcenter-Mitarbeiter sich auf das Thema konzentrieren kann.
Oder LLMs könnten im Hintergrund Vorschläge für Produkte oder Lösungen auf Basis früherer Probleme vorschlagen. Dann muss der Agent nicht noch drei mal bei Kollegen um Rat bitten.
Du siehst, LLMs können auch für eine bessere Beratung genutzt werden.
Aus kulturwissenschaftlicher Sicht würde ich sagen, gab es immer Menschen, die neue Technologien extrem abgefeiert haben, welche, die ihnen gegenüber extrem skeptisch waren. Noch wichtiger, weil häufiger, sind die unzählingen Zwischenpositionen. Auch die Bewertung, ob die ein oder andere Haltung nun besser ist (zumindest für mich klingt „konservativ“ bei Dir eindeutig negativ) hängt in erster Linie von der eigenen Sichtweise ab. Und es spielt eine Rolle, aus welcher zeitlichen Perspektive diese Bewertung erfolgt. Niemand wird wohl betreiten, dass Auto und Handy so gut wie alle Lebensbereiche revolutioniert haben. Aber gibt es wirklich Menschen, die sagen, dass dies ausschließlich positive bzw. ausschließlich negative Folgen hatte?
Zu einer solch informierten Sichtweise würde dann aus meiner Sicht aber auch die Frage gehören, wer diese KI-Projekte betreibt, welche Interessen damit verfolgt werden, was das für Implikationen für die Funktionsweise dieser Systeme bedeutet und wie sie genutzt und rezipiert werden. In einem anderen Thread habe ich schon auf einen Artikel verwiesen, der diesbezüglich einige wichtige Probleme anreißt:
Könnten sie. Das wird aber nur da passieren, wo es sich für das jeweilige Unternehmen rechnet. Callcenter können auch dafür genutzt werden, schneller und besser zu beraten. Die häufigste Nutzung ist jedoch, a) Leuten Produkte aufzuschwatzen und b) dafür zu sorgen, dass kompetente Mitarbeiter:innen möglichst wenig Zeit mit Anfragen verbringen - es sei denn, die Kund:innen zahlen extra dafür. Zugegeben, so war es vor 20 Jahren, als ich noch in Callcentern gejobbt habe, aber meine Erfahrung als Kunde weicht nicht besonders stark davon ab. Vielleicht hab ich ja immer besonderes Pech, aber bei einem Agent, der sich Rat von Kolleg:innen holt, um meine Frage beantworten zu können, bin ich ja schon ganz aus dem Häuschen vor Freude
Einer der ersten Unterzeichner des Briefes für ein „KI-Moratorium“ war der renommierte, kanadische Informatiker Yoshua Bengio, der als Informatiker und Ingenieur seit Jahrzehnten an neuronalen Netzwerken forscht und unterrichtet. Er ist außerdem Mitglied der kanadischen Royal Society.
In einem Interview (auf deutsch übersetzt) erklärt er, warum er den Brief unterschrieben hat und welche Probleme er in den aktuellen KI-Entwicklungen sieht:
Er beschreibt dabei verschiedene gesellschaftliche Gefahren, wie eine leichtere Verbreitung von Fakenews usw., die auch alle nachvollziehbar sind.
Die Gefahr der Entwicklung einer, dem Menschen ebenbürtigen, künstlichen Intelligenz sieht er aber offenbar nicht.
Das tue ich auch nicht, wie ich weiter oben ja schon geschrieben hatte:
Da hast du mich falsch verstanden. Ich kritisiere maschine learning nicht. Wir haben nur unterschiedliche Ansichten über die Frage, ob sich aus den heutigen KI-Systemen eine Menschen-ähnliche Intelligenz entwickeln kann.
Und auch der Vorstellung, dass ich ChatGPT benutzen müsste, um mir ein Urteil über dessen Funktion und Grenzen zu bilden, stimme ich so pauschal nicht zu.
Man muss ja auch kein Pilot sein, um zu verstehen warum ein Flugzeug fliegen kann, sondern nur die Grundlagen der Aerodynamik kennen.
Genauso weiß man dann auch, dass ein Flugzeug z.B. nicht zum Mond fliegen kann.
Und genauso reichen, meiner Ansicht nach, die theoretischen Grundlagen von Chatbots aus, um abzuschätzen, ob sie unseren Grad an Intelligenz erreichen können.
Was aber die Frage nach dem konkretem, heutigem Nutzen oder den gesellschaftlichen Gefahren der Chatbots angeht, da mag es sicher helfen, Chatbots selbst zu benutzen. Aber bei dem Thema waren wir uns ja, zumindest meiner Meinung nach, weitestgehend einig.
Zumal das nicht helfen würde. Wie in jeder Konversation gilt: Wer die Antwort finden will muss die richtigen Fragen stellen. Und da geht nun jeder andere Wege. Die Erfahrungen, die man mit chatGPT macht, hängen also nur zu einem kleinen Teil von ChatGPT ab.
Ich fand, das war der durchsichtigste Grund von allen Unterzeichnern. Elon ist nix wichtiger als Elon. Als ob den irgendwelche Gefahren für die Menschheit von irgendwas abhalten würden - hab selten so gelacht.
Und man mag sich nicht vorstellen, unter welch gewaltigen Schmerzen dieser Mann seit Monaten leiden muss. Der unfehlbare, geniale Geschäftsmann, das Genie mit der weltbesten Nase für Chancen, der selbsternannte Technoking, hat sich ein paar Jahre vor dem gigantischen Durchbruch aus dem von ihm mitgegründeten Start-Up rauskaufen lassen. Von Microsoft! Und Microsoft wird jetzt überall in den siebten Himmel gelobt für die Weitsicht und die Genialität dieses Investments!
Und der arme Elon muss die Brotkrumen auflesen - sprich: hoffen, dass genügend Leute nicht mitbekommen haben, dass er gar keine OpenAI-Anteile mehr hält, und ihm somit trotzdem Präsenz in jedem Beitrag über ChatGPT einräumen.
Was in meiner Wahrnehmung immer noch ein gewaltiger Haufen Brotkrumen ist, faktisch glaubt die halbe Welt offenbar, Elon Musk stünde hinter OpenAI. Aber für ein so gewaltiges Ego wie Musk ist der Trostpreis halt nicht genug.