Neue Technologie: Chat GPT, Künstliche Intelligenz und Implikationen auf politischen Diskurs

Die KI hat kein Verständnis von dem was sie geschrieben hat. Sie versteht nichts davon.
Sie geht nur statistisch ein Wort ans andere, wie es mit hoher Wahrscheinlichkeit sein könnte.
Man darf nicht so formulieren, als würde ChatGPT etwas verstehen. Das Ergebnis wirkt nur auf dem Bewerter (Menschen) „intelligent“.

Die Grenzen der KI und die Grenzen der Möglichkeiten sind auch aus meiner Sicht noch lange nicht erreicht.

2 „Gefällt mir“

Da stimme ich voll zu. Man sollte bei künstlicher Intelligenz vielleicht auch eher an künstliche Pflanzen denken.
Die sehen von außen betrachtet auch wie echte Pflanzen aus, aber die wesentlichen Funktionen erfüllen sie nicht.

Okay, spannend. Was für Informationen bekommst du den da von ChatGPT so? Und könntest du diese Information auch mit einer „normalen“ Suchmaschine bekommen?

Ich bin eher Ingenieur als IT-ler, auch wenn ich gelegentlich in verschiedenen Sprachen programmieren muss.

Und dabei brauche ich gelegentlich auch mal Beispielcode für eine bestimmte Berechnung aus dem Internet.
Und es kann auch gut sein, dass eine Suchmaschine mit KI-Funktionen mir da helfen könnte, den gesuchten Code schneller zu finden. Aber das mach weniger als 1% meiner Arbeit aus.

Und generell dürften KI-Computerprogramme nur jene Arbeiten oder besser Prozesse ersetzen können, für die es sehr viele Eingangsdaten und ein Optimierungsziel gibt, das ein Computer verstehen kann (hat Linus Neumann bei Logbuch Netzpolitik passend beschrieben).
Da fallen meiner Meinung nach schon sehr viele Jobs bzw. Tätigkeiten raus.

Das ist ganz verschieden. Ich beschreibe beispielsweise die Datenstruktur wie ich sie habe und wie sie aussehen soll (runtergebrochen auf logische Zwischenschritte). Dann frage ich ChatGPT nach Beispielcode in der benötigten Programmiersprache um von A nach B zu kommen. Die Antwort ist dann oft Code, den ich etwas feintunen muss, damit er in die allgemeine Projektstruktur passt, der aber grundsätzlich lauffähig ist.

Auch Boilerplate-Code für oft verwendete Funktionalitäten lasse ich mir öfters mal von ChatGPT erstellen, vor allem wenn ich mit Technologien sprechen muss, mit denen mir die Erfahrung fehlt. Kürzlich brauchte ich zum Beispiel Code um einen Service mit einer MongoDB (Dokumentendatenbank) zu verbinden und Funktionen zu erstellen um bestimmte Daten auszulesen und oder zu schreiben.

Klar kann ich bei Stackoverflow 30 Minuten nach passenden Codesnippets für mein Beispiel suchen, die Erklärungen dazu lesen und versuchen zu verstehen. Anschließend (oder parallel) müsste ich dann anfangen diese Code-Snippets an meine Architektur anzupassen.

Stattdessen habe ich ChatGPT nach Boilerplate-Code gefragt und eine halbe Minute später erhalten. Danach habe ich ChatGPT nach den einzelnen Bestandteilen des Codes befragt und Unklarheiten mit der Dokumentation abgeglichen. Nach etwa 10 Minuten hatte ich lauffähigen und verständlichen Code für ein Topic, mit dem ich zuvor nie gearbeitet habe. Nach 30 weiteren war der Boilerplate-Code angepasst. Normalerweise hätte ich mich das wesentlich mehr Zeit gekostet.

Hmm, das ist dann vielleicht eine Eigenart in der (datengetriebenen) IT. Recherche ist ein großer Teil des Jobs, da die Tools noch relativ neu sind und sich noch schnell verändern. Ich würde schätzen, 1/3 der Zeit geht für Meetings drauf, 1/3 für Debugging und testen, fast 1/5 für Recherche und Dokumentation und der Rest (15 %) ist produktives Code schreiben. Da hilft ChatGPT ungemein.

Ist das so? Es gibt einige Technologien, die einfach nur die Nutzer und ihre Interaktionen aufzeichnen und daraus selbstständig Optimierungsziele ableiten. Process Mining ist da beispielsweise eine Option, die man auch gut mit KI-Prozessen kombinieren kann (ausreichend Daten vorausgesetzt). Die LLMs hingegen funktionieren auch überraschend gut wenig Daten, sofern keine exakten Antworten nötig sind. Ich verweise hier nochmal auf die Fähigkeit Fermi-Fragen zu beantworten.

2 „Gefällt mir“

Das ist klar, aber hier wird jetzt auch überreagiert.
Man kann auch ein Programm etwas schreiben lassen, das bedeutet nicht, dass man dem Programm „Intelligenz“ im klassischen Sinne zuspricht.

Wenn ich mit SAP arbeite und sage „Ich lasse den Zahlungslauf die Überweisungen machen“ heißt das auch nicht, dass ich dem Programm eine Intelligenz im Sinne von „kritischem Denken“ zuspreche.

Natürlich kann man ein Programm Klausuren schreiben lassen, das ist keine Formulierung, die „dem Programm“ ein Verständnis oder Intelligenz zuspricht.

Das ist auch nicht ganz korrekt, über dieses Stadium sind wir schon deutlich hinaus. Denn auch der Kontext wird in dieser statistischen Berechnung berücksichtigt, ebenso kann ChatGPT (=„das Programm“, nicht „das Wesen“) Datenbanken, mathematische Formeln und andere Sub-Programme nutzen und damit durchaus richtige Ergebnisse auf „Faktenfragen“ liefern, die sich gerade nicht aus statistischen Berechnungen, welches Wort i.d.R. folgt, ergeben.

Man sollte nicht den Fehler machen, ChatGPT zu viel Intelligenz zuzuschreiben, aber auch nicht den Fehler machen, es zu einfach darzustellen.

Da sind wir uns absolut einig.

1 „Gefällt mir“

Ja, ich arbeite auch in der IT in der Software-Entwicklung und nutze GPT-4 für alle mögliche.
Man muss betonen. dass es bei den LLMs nicht nur um reine Generierung von Text oder Code geht. Diese Modelle können auch Text oder Code analysieren, debuggen, transformieren oder Einschätzungen dazu geben. Beispielsweise kann ich GPT-4 mehrere Code-Schnipsel (vl. jeweils 20 Zeilen) aus verschiedenen Quellcode-Dateien vorlegen, die in irgend einer Weise zusammenarbeiten. Dann paste ich vielleicht noch eine obskure Fehlermeldung, die ich bei der Ausführung des Codes bekommen habe und frage: „Wo ist das Problem ?“.
Und fast immer findet das Modell den Fehler im Quellcode oder kann mir zumindestens hilfreiche Tipps geben, in welche Richtung ich weiter suchen soll. Dabei stellt es sich mühelos auf die von mir verwendete Terminologie (z.B. Variablen- und Methoden-Namen) ein. Ich finde das unglaublich.
Man mag jetzt sagen, dass das Modell nicht wirklich versteht, was es da tut. Aber es muss schon intern eine komplette Repräsentation meines (sehr individuellen) Codes aufgebaut haben - sonst würde es das Problem nicht hätte so individuell lösen können. Ich halte das schon für eine gewisse (wenigsten primitive) Form von Verständnis.

4 „Gefällt mir“

Es ist in jedem Fall eine Form von Verständnis.
Jede selbständige (dh. nicht über starre Algorithmen vorgegebene) Einordnung von Sachverhalten in ein komplexes Gesamtgefüge ist zweifellos eine Form von „Verständnis“ im weiteren Sinne.

An eine KI werden einfach nur absurd hohe Anforderungen gestellt, um von „Verständnis“ zu sprechen. Wie viele Ebenen in die Höhe muss das „Verständnis“ einer KI reichen, bis wir ihr „Verstehen“ zubilligen? In dem von dir gezeigten Beispiel hat die KI schon ein besseres Verständnis für die Zusammenhänge der einzelnen Aufgabenteile als der Anwender, sonst könnte sie die Probleme nicht finden. Selbst wenn die KI in der Lage ist, die Bewältigung dieser Aufgabe noch in den Kontext des Gesamtprojektes zu stellen, würden Leute noch ein „Verständnis“ bezweifeln. Selbst wenn die KI noch den Kontext mit ihrem gesamten Wissensschatz abgleichen würde, der deutlich über den Wissensschatz eines Menschen hinausgeht, würden viele der KI noch das „Verständnis“ absprechen, obwohl ein Mensch nichts anderes tut, als ein Problem, welches er lösen will, mit seinem Wissensschatz abzugleichen.

Das Problem ist hier wie so oft, dass Menschen ihre eigene Intelligenz (oder hier: den Begriff des Verständnisses) religiös-magisch überhöhen. Nach dem Motto: „Ohne göttlichen Funken kein Verständnis“. Dass dieser göttliche Funken nur in ihrer Einbildung existiert, kümmern den Menschen dabei nicht :wink:

1 „Gefällt mir“

Ich habe überlegt, ob ich darauf eingehen soll, woher denn deine Zuversicht kommt, welchen gesellschaftlichen Druck du wahrnimmst, und die Rolle von Arbeitskämpfen dafür. Aber dazu habe ich ja an anderer Stelle schon was gesagt. Daher nur folgendes:

Nein, großer Denkfehler. Nach dieser Logik dürfte Unternehmen ja auch an hohen Löhnen gelegen sein, weil sich für nicht wenige von ihnen aus dieser Lohnsumme ja die Kaufkraft ihrer Kunden speist. Aus der Realität wissen wir: Das ist natürlich Unsinn. Du setzt halt die Interessen des einzelnen Kapitalisten mit denen der Klasse der Kapitalisten insgesamt gleich. Derlei Bedenken werden wirklich niemanden von einer Automatisierung abhalten. Und was dabei dein Lebensstandard so hergibt ist ihm auch egal - der Kapitalist zahlt dir, was er dir zahlen muss.

3 „Gefällt mir“

Wie gesagt, aus den Erfahrungen der Geschichte.

Wir sind uns denke ich einig, dass es immer noch nicht genug Umverteilung gibt, daher die Schere zwischen Arm und Reich sich weiter öffnet, aber wenn man den historischen Kontext betrachtet wird sehr klar, dass es Menschen nach jeder industriellen Revolution langfristig besser ging.

Man kann natürlich darüber klagen, dass Mindestlohnempfänger und ALG-II-Empfänger immer noch verhältnismäßig arm sind, aber im Vergleich zur vorindustriellen Zeit, als Begriffe wie „Freizeit“ nur für die Oberschicht existierten und Menschen ohne Arbeit, so denn ihre Familie sie nicht versorgte, schlicht verhungerten oder betteln mussten, sind wir doch schon sehr weit gekommen.

Jede größere Automatisierungswelle wird zwangsläufig dazu führen, dass die Verteilungsfrage neu gestellt wird - und desto größer der Anteil der Bevölkerung ist, der auf die Umverteilung angewiesen ist, desto größer wird auch der Druck auf die Oberschicht sein, Umverteilungen zuzulassen (denn an einer Revolution wie in Russland 1917 hat wohl wirklich kein Industrieller ein Interesse…). Und desto mehr Automatisierung geschieht, desto größer wird der Anteil der Bevölkerung, der von einer Umverteilung profitiert.

Mich würde nun interessieren:
Bist du grundsätzlich gegen weitere Automatisierung, also für den Erhalt von „Arbeitsplätzen“?
Da du in der Vergangenheit mal mit marxistischer Theorie argumentiert hast (wenn ich mich recht erinnere): Was sagt diese dazu? Die Post-Work-Bewegung, die auch mit Marx argumentiert, vertritt jedenfalls (wie ich auch) eher einen Pro-Automatisierung-Standpunkt - natürlich auch mit der kritischen Frage, wie der durch Automatisierung erzeugte Reichtum verteilt wird. Siehe dazu diesen interessanten Artikel der Zeit.

Mich stört in diesem Zusammenhang das Wort Umverteilung etwas. Es setzt ja voraus, dass die vorher existierende Ungleichverteilung eine Art Naturzustand ist, in den vom Menschen in Form Umverteilung eingegriffen wird.
Das macht die Umverteilung, die zu der großen Ungleichverteilung geführt hat unsichtbar.

2 „Gefällt mir“

Nun, zu diesen Erfahrungen der Geschichte gehört eben auch die Existenz eines mächtigen Arbeiterblocks. Inklusive Massenprotesten, Generalstreiks, blutigem Arbeitskampf, bis zur Androhung des bösen bösen Sozialismus (damals war der Name bei Sozialdemokraten noch Programm). Erst die widerwillige Einsicht einer strauchelnden Regierung, dass es leider mit Repression allein nicht getan ist, führte zu diesen Zugeständnissen, die heute Selbstverständlichkeiten sind.

Und es ist dieser Umstand, der mich angesichts deines Optimismus so ratlos zurücklässt… Siehst du heute in Deutschland ein solches linkes Korrektiv? Irgendwo? Wer ist denn ernstzunehmender Repräsentant der Arbeiter? Das ist doch alles marginal bis nicht-existent.

Denn ja, wenn die Bevölkerung für die Unternehmer zunehmend überflüssiger, und die Lage prekärer wird, dann kommt gewiss irgendwie Bewegung rein. Aber dass dieser gesellschaftliche Druck sich in die o.g. Richtung kanalisiert ist doch kein Selbstläufer. Ganz aktuell findet dank fortschreitender Inflation ebenfalls Verarmung statt, wir sehen aber keine Arbeitervertreter erstarken, sondern die AfD.

Den Artikel fand ich tatsächlich interessant, danke dafür. Meine Antwort wird dich aber enttäuschen: Weder noch. Aber nicht wegen der Technologien, sondern wegen ihrer Verwendung. Da Deutschland ums verrecken nicht von diesem Wirtschaftssystem lassen will, wird diese neue Technologie -wie jede andere- unter dem Gesichtspunkt Anwendung finden, die Produktionsprozesse aus Sicht des Unternehmers zu optimieren. Sprich teure menschliche Arbeitskraft daraus zu entfernen.
Und das ist ja keine Randerscheinung, die unsere Gesellschaft mal eben wegsteckt. Der Artikel zitiert Quellen die bis zu 50% der Arbeitsplätze dauerhaft bedroht sehen. Die Arbeitslosigkeit während der großen Depression war ~25%. Wer für das Kapital unbrauchbar wird landet dann schlimmstenfalls auf der Straße, bestenfalls in staatlichen Institutionen zur Armenverwaltung, und darf dann auf Basis von ALG II etc. eher überleben als leben.

Gleichzeitig ist der bisherige Arbeitsplatz als solcher ebenfalls nicht bekannt für seine Berücksichtigung der Bedürfnisse des Arbeiters. Ihn zu „erhalten“ bedeutet nicht selten Ausbeutung in übelsten Ausprägungen zu erhalten. Dafür könnte die Automatisierung/Technisierung tatsächlich die Erlösung sein. Sie wird es nur nicht.

1 „Gefällt mir“

Naja, ich denke, es zieht sich durch nahezu alle Gesellschaftsordnungen, dass der Eigentümer einer Sache die Früchte daraus ziehen darf. Daher: Wer die automatisierten Maschinen besitzt, dem steht i.d.R. der Gewinn aus diesen Maschinen zu. Ich denke, das ist ein relativ natürlicher Eigentumsbegriff, den man sogar in der Tierwelt schon beobachten kann („Eigentum“ ist in diesem Sinne das Revier).

Dass die Eigentumsverteilung generell in Frage gestellt werden muss, weil sie ähnlich wie in der Tierwelt oft auf dem Recht des Stärkeren basiert und sich hier über Jahrhunderte massive Eigentumsmengen akkumuliert haben, steht außer Frage.

Aber das ist dann eben eine Umverteilung - für die ich absolut bin.

Ich verstehe, dass man diesen Begriff kritisiert, weil eine solche Umverteilung natürlich besser verkauft werden kann, wenn man sie als natürlichen Zustand und nicht als „Eingriff“ darstellt, aber ich argumentiere aus der aktuellen Rechtslage heraus, und aus der heraus (vor allem aus dem Eigentumsbegriff des Art. 14 GG) sind Sozialbindungen des Eigentums zwar keine Enteignungen, aber in jedem Fall (völlig legitime!) Eingriffe bzw. Schranken des Eigentums (die man korrekt eigentlich nur als „Umverteilung“ bezeichnen kann).

Das ist wohl korrekt, aber im Gegensatz zu früher haben wir heute eine halbwegs funktionierende Demokratie. Es hängt daher viel davon ab, ob man der Demokratie zutraut, diese Problematiken zum Wohle der absoluten Mehrheit der Bevölkerung zu lösen. Daher: Heute brauchen wir (hoffentlich) keine blutigen Arbeiterproteste mehr, um den Kaiser und seinen Vasallen Bismarck davon zu überzeugen, dass soziale Ausgleiche nötig sind, sondern im Rahmen einer funktionierenden Demokratie sollte das selbstverständlich sein.

Das Problem ist: Wenn dieses Szenario durch KI-Automatisierung möglich wird, sehe ich nicht, wie man es verhindern könnte (selbst wenn man es wollte). Gerade weil die internationalen Zusammenhänge berücksichtigt werden müssen, wäre hier eine deutsche oder europäische Abschottungs-Lösung im Sinne eines Automatisierungsverbotes auch nicht erfolgversprechend.

Genau deshalb bin ich dafür, sich schon jetzt darauf vorzubereiten, statt dagegen zu kämpfen - einfach weil ich nicht glaube, dass man die Automatisierung verhindern können wird. Wir können nur versuchen, das Beste daraus zu machen.

Ja, so sehe ich das auch. Wir können es nicht verhindern und müssen uns damit auseinander setzen. Insofern bringt es auch nichts, von Hype zu reden und das Problem zu negieren. Es ist wichtig, dass wir uns klar werden, dass es hier ein Problem gibt - und zwar eines, das erhebliche soziale Sprengkraft hat und womöglich schneller kommt, als viele glauben. Wenn 50% der bisherigen Arbeitsplätze entfallen, dann müssen kreative Wege gefunden werden, neue zu schaffen. Und teure menschliche Arbeit muss günstiger werden, z.B. in dem die Sozialversicherung vom Staat übernommen wird.
Ich bin nicht so super optimistisch. Mag sein, dass wir nach der Revolution Strukturen finden, in denen es allen besser geht. Aber der Weg dahin wird steinig.

1 „Gefällt mir“

Da hast du wohl Recht, von Verhindern kann keine Rede sein, das stimmt. Aus der Perspektive des Realisten kannst du also guten Gewissens mein Gejammer ignorieren. :wink:

Was das Vorbereiten angeht, da wäre ich ja voll dabei. Eine echte gemeinsame Entscheidung auf demokratischer Basis, ob, wie und ggf. wo wir das wollen und wo nicht. Das wäre toll. Nur das scheint mir nirgends in Planung. Stattdessen lassen halt einige Tech-Bro-Unternehmer die Technologie von der Leine, und wenn dann irgendwann nachher die Folgen unübersehbar sind, wird sich eine Regierung vielleicht zum Handeln berufen fühlen. Im verlinkten „AI Dilemma“ wird’s wunderbar deutlich.

Hoffentlich ist ein gutes Stichwort. Ich vermute wir werden den Ausgang beide noch erleben. Bleiben wir gespannt!

Ob man mit Biologismus oder der Kodifizierung des kritisierten Umstands diesen legitimieren kann/sollte?
Mit Biologismus sind wir ruckzuck bei Sozialdarwinismus. Und genauer hingesehen gibt es im Tierreich keine weltumspannende Reviere. Wenn das „Eigentum“ dementsprechend auf dem was man fußläufig erreichen kann beschränkt wäre, wären wir vermutlich recht nah an einer Gleichverteilung.

Es geht mir nicht um das Legitimieren.

Das, was hier stattfindet, ist ein klassischer „Kampf um die Deutungshoheit“ - das kann ich absolut nachvollziehen. Aus linker Sicht will man natürlich nicht von einer „Umverteilung“ sprechen, sondern lieber von einer „Wiederherstellung von Gerechtigkeit“, aus konservativer Sicht wird man natürlich auf die historische und gesellschaftliche Entwicklung des Eigentumsbegriffs und der Eigentumsrechte verweisen (also quasi auf Tradition) und deshalb monieren, dass man hier etwas „wegnehmen“ würde.

Der Begriff der Umverteilung hingegen ist mMn relativ neutral. Die Kapitalakkumulation sowohl im Feudalismus (Adel und Klerus horten den Großteil des Eigentums) als auch nach der industriellen Revolution (Unternehmer horten den Großteil des Eigentums) waren jeweils Umverteilungen. Eine Umkehrung dieses Prozesses ist ebenso eine Umverteilung. Ich kann verstehen, dass man es gerne anders framen würde, aber ich bin da zu juristisch geprägt, weshalb ich mich an den Wertungen des Eigentumsbegriffs des Grundgesetzes orientiere. Und der Sozialbindung des Eigentums („Eigentum verpflichtet“) liegt der Gedanke zu Grunde, dass Eigentum durchaus eine starke Rechtsposition ist, diese aber eingeschränkt werden kann - und das ist eine klassische Umverteilung (die ich absolut befürworte!).

Wie gesagt, ich habe vollstes Verständnis dafür, dass man aus einer linken Sicht lieber von „Wiederherstellung einer gerechten Verteilung“ sprechen möchte, aber ich nehme lieber den juristischen als den politischen Standpunkt ein.

2 „Gefällt mir“

Bisschen neben dem eigentlichen Thema:
Ich glaube im Verlauf des Chats würde erwähnt, das eine Synopse eines Gesetzes durch KI dich rasch möglich sein sollte.
Könnte Chat GPT eine Synopse des jetzigen GEG mit dem ursprünglichen Entwurf erstellen?

Dem kann ich weitgehend zustimmen bis auf dass in meinen Augen der Begriff Umverteilung durch die vorherrschende (konservative) Prägung als Eingriff in den Urzustand (Tradition) an Neutralität eingebüßt hat.
Als neutral würde ich eher etwas wie „Änderung der Umverteilung“ ansehen.

Eine Diskussion der Deutungstradition ist in meinen Augen ein wichtige Bedingung für gesellschaftlichen Fortschritt, da es sehr schwer ist Zustände zu ändern, die mit den vorherrschenden Deutungsmustern verschleiert werden.
Vorherrschende Deutungen „framen“ zB bei Eigentum den Schutz des Eigentums als Naturgesetz und die Sozialbindung als nice to have. Dabei sind das ja eher zwei Hälften eines Gesellschaftsvertrags.

Ich hatte das mal mit ChatGPT 3.5 getestet und war zunächst auch einigermaßen überrascht, wie schnell die Chat-Software den Zweck der Programm-Funktion erkennen konnte, die ich ihr gegeben hatte.

Dann habe ich allerdings mal alle „sprechenden“ Variablen-Namen umgeändert und prompt wusste ChatGPT gar nichts mehr. Es hat sogar eine Funktionalität in meinen Programm-Code hinein-interpretiert, der nicht ansatzweise da war.

Es handelte sich um ein kleines Programm, dass einen Kreis auf einem Display malen sollten, aber ChatGPT meinte dazu:

Dieses Programmcode-Segment ist eine Funktion mit dem Namen „beat_fbuf“, die aufgerufen wird, um ein Signal auf dem Lautsprecher auszugeben. Die Funktion wird mit vier Parametern aufgerufen: „left_ch0“, „right_ch0“, „noise_level“ und „freq_u32“.

Die Funktion verwendet eine Schleife, um eine sinusförmige Schwingung zu erzeugen, indem sie eine Formel verwendet, die auf der Werte von „Ch_l“ und „Ch_r“ basiert. „Ch_l“ und „Ch_r“ sind Variablen, die in der Schleife aktualisiert und verwendet werden, um die Amplitude auf beiden Kanälen des Lautsprechers zu steuern.

Die Lautstärke des Rauschens wird durch den Parameter „noise_level“ gesteuert, wobei niedrigere Werte zu weniger Rauschen führen. „Freq_u32“ wird dafür verwendet, um die Frequenz der Schwingung anzupassen, die über den Lautsprecher ausgegeben wird.

Insgesamt schreibt die Funktion die Audio-Samples direkt in den ADC-FIFO-Puffer. Die Samples werden auf acht unterschiedliche Kanäle geschrieben, um einen 3D-Soundeffekt zu erzeugen.

Diese Analyse, insbesondere der letzte Teil, ist so dermaßen falsch gewesen, wäre ich Personal-Entscheider und ein Anwärter hätte so eine Antwort geliefert, ich würde ihn nicht einstellen.

Und diese Fehleinschätzung von ChatGPT beruhte eben darauf, dass ich die Variablen-Namen so änderte, dass sie nach einem Programm für Sound-Bearbeitung klingen. Es ist eben doch nur eine Texterkennung und kann nicht programmieren. Zumindest nicht in Version 3.5.

Das schlimme daran ist übrigens nicht, dass ChatGPT den wesentlichen Inhalt des Programm-Codes nicht verstanden hat, sondern dass es sich eine Funktionalität „zusammengereimt“ hat. Und diese Eigenschaft, den Nutzer zu täuschen, ist meiner Meinung nach nicht zufällig drin, sondern bewusst eingebaut.

Na ja, du hast die alte Version GPT-3.x verwendet. GPT-3.5 basiert auf dem drei Jahre alten GPT-3 Modell und hat bekanntermaßen keine guten „Programmier“-Fähigkeiten.

Wenn es in Schlagzeilen oder Diskussionen um “Sparks of AGI”, logisches Denken oder komplexes Problemlösen geht, geht es IMMER um das neue Modell GPT-4. Ich hatte oben auch erwähnt, dass ich für die Code-Analysen GPT-4 genutzt hatte. Man darf hier nicht Äpfel mit Blaubeeren vergleichen. Siehe auch diesen Artikel.

Und natürlich reimt sich das Modell nicht einfach nur Dinge aus dem im Code enthaltenen Text zusammen, sondern entwickelt schon ein ganz gutes Verständnis dessen, was der Code macht. Klar, wir reden wir hier nicht über menschliche Intelligenz. Und sicherlich wird man Beispiele konstruieren können, bei denen auch GPT-4 an seine Grenzen stößt. Aber die „Programmier“-Fähigkeiten sind schon beeindruckend (und des öfteren hilfreich, wie auch pitus oben schon geschrieben hat).

@Christoph

Kurz: Ja, im Zweifelsfall geht das aber auch schon ohne KI. Synopsen sind nichts allzu kompliziertes (siehe auch „git diff“)