Neue Technologie: Chat GPT, Künstliche Intelligenz und Implikationen auf politischen Diskurs

Es ist glaube ich müßig, über Code zu diskutieren den wir nicht sehen können (und es macht auch sicherlich keinen Sinn, hier Code zu posten). Wenn man Chat-GPT ein Code-Schnipsel mit unvollständigen informatioen gibt, dann wird es natürlich irgendwann auch versuchen, anhand der Variablennamen Sinn in den Code hinein zu interpretieren - genau wie ein Mensch dies bei fehlenden Informationen auch tun würde.
Ich empfinde GPT-4 bei der Software-Entwicklung (wie viele Kollegen auch) als ausgesprochen hilfreiche Unterstützung - auch wenn man natürlich nicht immer alles ungeprüft übernehmen/akzeptieren kann.

Der Vergleich mit statischen Code-Analyse-Werkzeugen, die es tatsächlich schon lange gibt, ist eher irreführend. Denn KI-Systeme verstehen Code ja auf komplett andere Weise.
Bei den klassischen Werkzeugen muss das Wissen über jede einzelne Programmiersprache mühevoll hinein programmiert werden. Das heißt: hier muss zunächst der/die Programmierer:in „verstehen“ wie die zu analysierende Programmiersprache funktioniert. Der Programmcode für ein System wie Chat-GPT ist dagegen vergleichsweise einfach und allgemein. Es wird nur das neuronale Netz programmiert, welches initial praktisch „leer“ ist. Das ganze Wissen ergibt sich erst durch das monatelange Training. Das Modell lernt aus der gigantischen Menge an Trainingsdaten (z.B. Tutorials oder dem Code in GitHub) was Programmiersprachen sind und wie die einzelnen Sprachen (sicherlich auch MatLab) funktionieren. Es muss dabei ein ziemlich tiefes Verständnis für die Funktionsweisen und Konzepte der einzelner Sprachen und für Programmierung ganz allgemein entwickeln. Denn ohne dieses tiefe Verständnis könnte es nicht die Problemstellungen in der Generalität lösen, wie es sie anschließend lösen kann.

Beeindruckend finde ich auch, dass die Modelle Kenntnisse aus den verschiedensten Bereichen praktisch mühelos kombinieren können. Und das mit einer gewissen „Elastizität“. Z.B. ist es für Chat-GPT (genau wie für Menschen) überhaupt kein Problem wenn im Programm-Code mal Typos sind (ganz anders bei den starren Code-Analyse-Tools).

Ich finde es wirklich beeindruckend, wie du ohne echte Beispiele die angeblichen Fähigkeiten von KI-Software lobst und sogar immer wieder „Verständnis“ als Ausdruck benutzt, obwohl inzwischen alle Leute, die einigermaßen in dem Thema stecken, verstehen, dass KI-Programme eben gerade nichts verstehen.

Ich glaube wir drehen uns hier nur noch im Kreis.

Das kommt, wie oben schon öfter gesagt, sehr stark darauf an, wie wir „verstehen“ definieren.

Die klassische Definition von „verstehen“ ist, den Sinn von etwas zu erfassen. Aber das ist natürlich auch noch nicht hilfreich, weil man immer die Frage stellen könnte, bis zu welchem Grad der Überordnung der „Sinn“ von etwas verstanden werden muss, damit wir von „verstehen“ reden.

Die höchste Ebene dieses „Verstehens“ ist die ungelöste Frage nach dem Sinn der Existenz des Universums, diese Ebene erreicht auch kein Mensch. Also wie viele Ebenen muss ein Computerprogramm verstehen können, damit wir ihm zugestehen, etwas zu verstehen?!?

Ich finde die Arroganz der Menschen, einem Computerprogramm das „verstehen“ abzusprechen, hier „beeindruckend“. Verstehen heißt, Dinge in einen Kontext setzen zu können und bei Problemlösungen diesen Kontext auch zu berücksichtigen. Und das kann eine gut programmierte und trainierte KI genau so wie ein Mensch, vermutlich sogar besser.

Welches Element des „Verstehens“ ist es, das du einem Computerprogramm nicht zugestehst?

Ich finde es nebenbei sehr amüsant, dass eine KI beim Vorliegen fehlender Informationen das gleiche tut, was ein menschlicher Verstand tut: Sie versucht die Lücke mit vorhandenem Wissen und der eigenen Vorstellungskraft (dh. der Summe des vorhandenen Wissens und dessen, was man daraus für ein „größeres Ganzes“ ableiten kann) zu füllen. Bei der KI nennen wir das „fantasieren“, beim Menschen nennen wir das je nach Kontext Religion, Verschwörungstheorie oder ausufernde Fantasie.

Also, wenn die Behauptung aufgestellt wird, ein Computer könne grundsätzlich nichts „verstehen“, wäre meine Forderung an diejenigen, die das behaupten: Gebt mir eine Definition von „Verstehen“, die diese Behauptung untermauert. Eine Definition, aus der hervorgeht, was dem Computer fehlt, um etwas „verstehen“ zu können. Definitionen, die dazu aufgeführt werden, gleiten in aller Regel in’s religös-philosophische ab und schwadronieren von Dingen wie „Menschengeist“ - klar, wenn wir auf diese Ebene gehen können Maschinen nichts verstehen. Aber ich persönlich halte derartige Definitionen für ziemlich unsinnig, weil der Kern der Argumentation wäre: „Computer können nichts verstehen, weil wir verstehen so definieren, dass nur Menschen verstehen können!“.

4 „Gefällt mir“

Noch ergänzend zu dem was Daniel gesagt hat: Ich meinte Verständnis auch ganz allgemein. Wenn man etwa fragt: kann eine Ameise die chemischen Signale anderer Ameisen verstehen ? Dann wird man das in der Regel mit Ja beantworten. Selbst bei einem klassisch starr ausprogrammierten Code-Analyse-Werkzeug werden einige Leute vielleicht davon reden, dass das Werkzeug bestimmte Programmiersprachen „versteht“.
Der Grad des Verständnisses einer KI wird sicherlich irgendwo zwischen dem Verständnis von klassischer Software und dem Verständnis eines Menschen liegen. Ich würde argumentieren: prinzipbedingt viel näher am Menschen als an klassischer Software.

Ganz gut verdeutlicht das auch diesem Interview mit Manolis Kellis. Er ist Informatik-Professor am MIT und leitet den Bereich „Computational Biology“. Das Interview ist schon zwei Jahre alt, was erklärt, dass er noch von GPT-2 und GPT-3 redet.

Ich habe mal den Anfang des YouTube-Transscriptes ins Deutsche übersetzen lassen und etwas editiert. Manolis Kellis sagt im Interview:

In unseren kognitionsfähigen künstlichen Systemen gibt es emergentes Verhalten, das wir sicherlich modellieren können, aber nicht direkt kodieren.
Das ist ein entscheidender Unterschied!
Wir sagen gern: Oh, natürlich ist das nicht wirklich intelligent - weil wir es programmiert haben. Und wir haben dort diese sechs Milliarden Parameter eingefügt und wenn sie einmal gelernt wurden, verstehen wir irgendwie die Layer [des neuronalen Netzes].
Aber das ist eine Vereinfachung.
Es ist so, als würde man sagen: Oh, natürlich verstehen wir Menschen. Sie bestehen nur aus Neuronen und Kortex-Schichten und es gibt ein visuelles Areal und …
Aber jeder Mensch wird von einer lächerlich kleinen Anzahl von Genen kodiert, verglichen mit der Komplexität unserer kognitiven Fähigkeiten.
20000 Gene sind wirklich nicht viel. Und von denen kodiert nur ein winziger Bruchteil tatsächlich alle unsere kognitiven Funktionen. Der Rest ist emergentes Verhalten.
Der Rest sind die kortikalen Schichten, die ihr Ding machen…
Genauso wie wir diese Deep-Learning-Systeme aufbauen. Wir stellen die grundlegende Architektur bereit, aber dann machen sie ihr Ding.
In gewisser Weise schafft das etwas, das eine eigene Identität hat. Es ist nicht wie bei der frühen KI, wo, wenn man nicht genau programmiert hat […] das System nicht wusste, was zu tun ist. Man programmiert im Grunde genommen jetzt nur noch die primitiven Strukturen und dann lernt das System darin. […]
Wenn man sich Menschen anschaut, haben wir im Grunde die gleiche kognitive Architektur wie Affen, wie die großen Menschenaffen, nur eine Menge mehr davon. Wenn man sich GPT-3 im Vergleich zu GPT-2 anschaut, ist es wieder die gleiche Architektur, nur mehr davon, und doch kann es so viel mehr leisten…

2 „Gefällt mir“

Ich sagte ja schon, dass wir uns hier im wahrscheinlich Kreis drehen. Und wenn ihr jetzt schon solche Wortklaubereien aufmacht, um doch irgendwie das Label „Verstehen“ an Maschine-Learning-Software anzubringen, meinetwegen.

Es gibt ja auch Leute, die verteidigen Homöopathie mit der Begründung, dass es den Leuten ja besser gehen, wenn sie ihre Zucker-Pillchen nehmen, daher muss es ja Medizin sein.

Vielleicht sollte man daher nicht von „künstlicher Intelligenz“ reden, sondern von „homöopathischer Intelligenz“? :wink:

Die Frage nach einer Definition als Grundlage für eine Diskussion, ob etwas vorhanden ist, ist keine Wortklauberei, sondern die Basis für jede sinnvolle Diskussion und Teil jeder sinnvollen Diskussionskultur.

Wenn wir weiterhin im luftleeren Raum diskutieren, weil wir nicht mal die gleiche Definition von „Verstehen“ zu Grunde legen, drehen wir uns in der Tat nur sinnlos im Kreis.

4 „Gefällt mir“

Was ich grade bei ChatGPT interessant fand, ist die erste Reaktion. In den USA war es Begeisterung über die Möglichkeiten, die man wahrgenommen hat, in Deutschland als erster Reflex die Gefahren, die ganz oben auf der Agenda standen.
Hat wohl auf was mit nationaler Persönlichkeit zu tun…

3 „Gefällt mir“

Das letzte Mal, als ich geschaut habe, waren Sam Altman, Elon Musk und die NYTimes in den USA beheimatet.

Ja, in den USA gibt es durchaus auch Stimmen, die auf die Gefahren hinweisen - insbesondere auch wenn es um das existenzielle Risiko geht (bei diesem Thema liegen die Amerikaner wahrscheinlich sogar noch vor den Deutschen).

Möglichkeiten und Gefahren sind zwei Seiten eines Trends. Aber für beide ist notwendig, dass man zunächst einmal die Relevanz des Themas anerkennt. Wenn Leute den Klimawandel klein reden oder sagen, das Corona-Virus sein ja letztlich nur eine Grippe, dann erstickt das jedwede Diskussion. die aber notwendig ist, um die realen Gefahren zu adressieren.

Das Thema KI ist hochrelevant für uns alle. Es hat erhebliches disruptives Potenzial für die Arbeitswelt. Es kann Demokratien destabilisieren, da es Desinformation vereinfacht und das Potential hat, eine Klima zu schaffen, in dem niemandem mehr klar ist, was überhaupt noch wahr ist. Und es gibt das (zugegebenermaßen noch etwas diffuse) existenzielle Risiko.

Ja, die Stimmen gibt es natürlich auch in den USA.
Nichtsdestotrotz war die Grundstimmung in den USA eher von Poiniergeist geprägt am Anfang, bei uns eher Inquisition…

1 „Gefällt mir“

Ja, das stimmt wohl - der Pioniergeist ist dort stärker.
Interessant, dass Pioniere wie Sam Altman die Technologien vorantreiben, aber auf der anderen Seite auch auf die Risiken hinweisen. Ich vermute, dahinter steckt die Erkenntnis, dass die KI-Weiterentwicklung nicht zu stoppen ist und dass man in dem Fall besser selbst Teil dieser Entwicklung sein will, weil man sie dann in gewissem Rahmen noch mit beeinflussen kann. Könnte ich mir jedenfalls vorstellen. Altman ist ja auch Befürworter eines bedingungslosen Grundeinkommens („universal income“), was zeigt, dass er sich schon Gedanken um die Auswirkungen auf den Arbeitsmarkt macht.

Ich glaube, vielen von uns ist intuitiv klar, dass die KI-Entwicklung nicht zu stoppen ist. Mo Gawdat erklärt das in diesem Interview recht anschaulich mit dem „Gefangenendilemma“. Selbst wenn sich alle Staaten der Welt (z.B. im Rahmen der UN) zusammen tun und beschließen, die KI-Entwicklung zu bremsen oder zu kontrollieren. Kein Land, keine Firma würde den anderen trauen, dass diese nicht doch heimlich weiter an immer mächtigerer KI arbeiten. Ergo arbeiten alle weiter daran. Die für die Menschheit als Ganzes eigentlich günstigste Variante eines langsamen und überlegten Vorgehens, das alle Gefahren berücksichtigt, ist aufgrund fehlenden Vertrauens unrealistisch. Der Fortschritt in der KI (auch in Richtung AGI) ist also wohl unausweichlich. Also machen wir uns besser über die potentiellen Risiken Gedanken.

Oben ging es mehrere Beiträge lang um das Verstehen von Code. Damit ist der Kontext, zumindest für diesen Teil des Threads doch eigentlich gesetzt: Es geht um das Niveau an Verständnis, dass es braucht um z.B. Computercode zu verstehen.

Erstmal: Man sollte hier nicht von Computern allgemein reden, den nahezu alle Computer auf der Welt sind elektronische Maschinen, die absolut vorhersehbar das tun, was sie sollen, weil sie strengen physikalischen Gesetzen gehorchen.
Das beim Thema maschinelles Lernen immer gleich von „die Computer“ gesprochen wird, ist mMn Teil des aktuellen Hype-Problemes. Es geht nur um ganz wenige, spezielle Computer-Programme (KI-Programme), die ihre Funktion entsprechend von Trainingsdaten anpassen.

Und damit ist auch KI-Software beim Thema Verstehen und Verstand auch schon raus. Sie sind einfach nur Maschinen, deren Funktionalität (z.B. Textsynthese) sich ändert. Aber nur weil diese Funktionsänderung nicht explizit einprogrammiert wurde, sondern sich aus riesigen Datenbergen ergibt (das Training), sind es nicht plötzlich etwas anderes als Maschinen.

Wir Menschen haben uns mit Hilfe der Evolution von Affen, die auf Bäumen gelebt haben, zu einer Spezies entwickelt, die im Weltraum fliegt und auf diesem Weg unzählige Probleme gelöst. Da finde ich es schon seltsam, dass ein Computer plötzlich genauso gut sein soll, nur weil wir Menschen nicht mehr auf einem Blick erkennen, was er tut.
Denn es ist ja nicht so, dass z.B. die Leute von OpenAI nicht nachvollziehen könnten warum, die ChatGPT-Software einen bestimmten Satz schreibt. Es nur wahnsinnig aufwändig und zeitraubend und damit teuer, aber es würde gehen.

@Slartie
Die ganzen Warnungen aus den USA, vor allem von den KI-Software-Firmen selbst, sind doch nur PR. In Wirklichkeit wollen die natürlich genau sowenig eine staatliche Regulierung, wie jede andere Branche auch. Das hat Sam Altmann ja kürzlich sehr schön bewiesen:

Wahrscheinlich haben sie sich das von Tesla abgeschaut und versuchen darüber Werbekosten zu sparen:

Genau solche Aussagen meine ich damit. Pures Werbegold. Vielleicht sollte @Jens2 sich dafür bezahlen lassen. :wink:

Ich würde eher sagen, die jenigen, die das Thema hoch jazzen wollen, sind in den USA noch lauter als bei uns. Ist ja auch kein Wunder, da sitzen ja auch die ganzen Silicon Valley Buden, die mit der KI-Hype jetzt ihre Aktienkurse frisieren.

…ein erster marktwirtschaftlich positiver Effekt der Ki, oder? :wink:

1 „Gefällt mir“

Wenn du mit positivem, marktwirtschaftlichen Effekten irgendwelche Blasen am Aktienmarkt meinst, absolut. :wink:

1 „Gefällt mir“

Jeder (halbwegs moderne) Computer kann eine (mehr oder weniger starke) KI betreiben, es ist uns allen klar, dass wir von einem Programm sprechen („Software“), welches einen Computer („Hardware“) zur Funktionsfähigkeit benötigt. Dieser „Computer“ kann Teil eines riesigen Servernetzwerks sein, aber es kann auch ein einfacher Desktop-Computer oder sogar Smartphone sein. In diesem Sinne kann man schon vereinfacht von „Computern“ allgemein sprechen.

Doch. Genau das ist der Punkt, weshalb wir eine Definition von „Verstehen“ brauchen.

Aus meiner Sicht ist der Mensch auch nur eine biologische Maschine. Das, was im Menschen evolutionär auf biologischer Basis passiert, wird aktuell zu guten Teilen durch KIs auf technischer Basis wiederholt, natürlich in deutlich höherer Geschwindigkeit.

Vom Einzeller bis zum Tier hat es in der menschlichen Evolution Äonen gedauert, ebenso wie der Sprung vom Tier zum Menschen. Aber diese Dinge sind nicht „gottgegeben“, sondern Resultat biologischer Prozesse, die es uns ermöglichen, Erinnerungen auf Basis von Neuronen zu speichern und komplex zu verknüpfen. Daraus sind alle diese „emergenten“ Fähigkeiten entstanden, bis zur Raketenwissenschaft und darüber hinaus.

Noch haben wir keine „starke KI“, aber eine „starke KI“ ist schon jetzt denkbar und liegt vermutlich nicht mehr in ferner Zukunft.

Und hier stellt sich eben die Frage, wo „Verstehen“ anfängt.

Ein Kleinkind versteht keine Ironie - weil ihm die „Trainingsdaten“ fehlen. Ebenso versteht eine KI am Beginn ihres Trainings keine Ironie. Mit genug „Trainingsdaten“ ändert sich das in beiden Fällen. Das gleiche gilt auch für alle anderen Bereiche - die KI ist ebenso wie der Mensch auf Trainingsdaten angewiesen, der einzige Unterschied ist, dass durch die relative Instabilität biologischer Speichermöglichkeiten (im Vergleich zur digitalen Speicherung) mehr fehlerhafte Verknüpfungen entstehen. Diese können auch durchaus zu Kreativität führen (man könnte behaupten, dass Kreativität für das Denken das Äquivalent zu einer funktionalen Mutation im Rahmen der Evolution ist; ein „Fehler“, aus dem sich etwas positives ergibt). Derartige Fehler sind aber auch in KIs denkbar („Trial-and-Error“ als Teil des autokreativen Prozesses ist in einer KI durchaus denkbar).

In diesem Sinne bleibst du der Erklärung schuldig:
Was soll dieses „Verstehen“ sein, welches eine KI nicht leisten kann?!?

1 „Gefällt mir“

Tatsächlich gibt es bei den GPT-Modellen einen „Temperatur“ Wert, der die Zufälligkeit der Antwort bestimmt (Link). Den Temperatur-Wert kann man angeben, wenn man das API nutzt. Auch Bing-Chat bietet die Möglichkeit bei Anfragen einen von drei vorgegebenen Temperatur-Werten zu wählen (von präzise über balanciert bis kreativ).
Man hat festgestellt, dass Temperatur 0 (absolut präzise, keine Zufälligkeit) nicht die besten Antworten liefert. Eine leichte Temperatur verbessert die Wirkung der generierten Texte und die Texte wirken kreativer und lebendiger. Ich glaube der Standardwert ist 0.8, weshalb Antworten auf die gleiche Frage auch immer unterschiedlich sind.

Na ja, dass KI disruptives Potential für die Arbeitswelt hat, darüber haben wir ja weiter oben in diesem Thread schon ausführlich diskutiert und es ist das, was alle Experten sagen. Es erstaunt mich, dass du das jetzt in Frage stellst. Wir sehen doch auch jetzt schon erste Ansätze dieser Umbrüche in der Arbeitswelt.
Für wen sollte ich denn Werbung machen ? Und warum ist das Werbung, wenn ich auf Risiken hinweise ? Vielleicht solltest du dich mehr auf sachliche Argumente konzentrieren.

1 „Gefällt mir“

@Matder hat mir dankenswerterweise sein Code-Snippet geschickt und ich hatte Zeit mir den Code mal anzuschauen. Ich würde meinen Eindruck, den ich @matder per PN geschildert habe, auch euch zur Verfügung stellen.

@matder hat darauf auch geantwortet. Ich überlasse es aber gern ihm seine Reaktion hier zu teilen, wenn er mag. :slight_smile:

1 „Gefällt mir“

Das stimmt, theoretisch ginge das. Aber praktisch ist es ja nicht so. Die meisten Computer führen ganz normale programmierte Software aus. Und das hat verschiedene Gründe:

  1. KI-Modelle wie die Large Language Models brauchen sehr viele teilweise sehr intensiv vorbearbeitete Trainings-Daten, damit sie ordentlich arbeiten und z.B. nicht die ganze Zeit sexistische oder rassistische Inhalte produzieren (Quelle). Ich halte es daher für sehr wahrscheinlich, dass KI-Systeme mit hochwertigen Trainingsdaten eine Ausnahme bleiben werden, weil die Trainingsdaten so etwas wie ein Geschäftsgeheimnis sein werden. Die eigentlichen KI-Systeme sind eher nur das Grundgerüst. (btw. Hier gibt es z.B. ein Video vom ehemaligen Tesla-AI Chef Andrej Karpathy in dem er ein open source LLM mit den Werken von Shakespeare trainiert. Sehr spannend und interessant, aber wozu braucht man eine KI, die nur in Shakespeare-Zitaten reden kann? Am Ende hat die Shakespeare-KI vlt. auch noch zu viel aus „Der Widerspenstigen Zähmung“ gelernt und dann muss man ihr obendrein als Erstes den ganzen historischen Sexismus wieder abgewöhnen.)
  2. Auch gut trainierte KI-Programme arbeiten mit einer Rest-Unsicherheit. Solch eine Rest-Unsicherheit ist in ganz vielen Bereichen, in denen Computer eingesetzt werden, aber ein No-GO. KI-Systeme können also sehr viele klassische Computer-Aufgaben gar nicht übernehmen.

Daher werden die meisten Computer sehr wahrscheinlich eben doch keine KI-Software ausführen oder wenn, dann nur zu einem sehr kleinen Anteil, also vielleicht in Form von Bilderkennung.
Sorry, wenn ich hier auf Definitionen herum reite, aber aktuell werden beim KI-Hype einfach viele Begriffe in einen Topf geworfen.