Neue Technologie: Chat GPT, Künstliche Intelligenz und Implikationen auf politischen Diskurs

Es geht mir nicht um das Legitimieren.

Das, was hier stattfindet, ist ein klassischer „Kampf um die Deutungshoheit“ - das kann ich absolut nachvollziehen. Aus linker Sicht will man natürlich nicht von einer „Umverteilung“ sprechen, sondern lieber von einer „Wiederherstellung von Gerechtigkeit“, aus konservativer Sicht wird man natürlich auf die historische und gesellschaftliche Entwicklung des Eigentumsbegriffs und der Eigentumsrechte verweisen (also quasi auf Tradition) und deshalb monieren, dass man hier etwas „wegnehmen“ würde.

Der Begriff der Umverteilung hingegen ist mMn relativ neutral. Die Kapitalakkumulation sowohl im Feudalismus (Adel und Klerus horten den Großteil des Eigentums) als auch nach der industriellen Revolution (Unternehmer horten den Großteil des Eigentums) waren jeweils Umverteilungen. Eine Umkehrung dieses Prozesses ist ebenso eine Umverteilung. Ich kann verstehen, dass man es gerne anders framen würde, aber ich bin da zu juristisch geprägt, weshalb ich mich an den Wertungen des Eigentumsbegriffs des Grundgesetzes orientiere. Und der Sozialbindung des Eigentums („Eigentum verpflichtet“) liegt der Gedanke zu Grunde, dass Eigentum durchaus eine starke Rechtsposition ist, diese aber eingeschränkt werden kann - und das ist eine klassische Umverteilung (die ich absolut befürworte!).

Wie gesagt, ich habe vollstes Verständnis dafür, dass man aus einer linken Sicht lieber von „Wiederherstellung einer gerechten Verteilung“ sprechen möchte, aber ich nehme lieber den juristischen als den politischen Standpunkt ein.

2 „Gefällt mir“

Bisschen neben dem eigentlichen Thema:
Ich glaube im Verlauf des Chats würde erwähnt, das eine Synopse eines Gesetzes durch KI dich rasch möglich sein sollte.
Könnte Chat GPT eine Synopse des jetzigen GEG mit dem ursprünglichen Entwurf erstellen?

Dem kann ich weitgehend zustimmen bis auf dass in meinen Augen der Begriff Umverteilung durch die vorherrschende (konservative) Prägung als Eingriff in den Urzustand (Tradition) an Neutralität eingebüßt hat.
Als neutral würde ich eher etwas wie „Änderung der Umverteilung“ ansehen.

Eine Diskussion der Deutungstradition ist in meinen Augen ein wichtige Bedingung für gesellschaftlichen Fortschritt, da es sehr schwer ist Zustände zu ändern, die mit den vorherrschenden Deutungsmustern verschleiert werden.
Vorherrschende Deutungen „framen“ zB bei Eigentum den Schutz des Eigentums als Naturgesetz und die Sozialbindung als nice to have. Dabei sind das ja eher zwei Hälften eines Gesellschaftsvertrags.

Ich hatte das mal mit ChatGPT 3.5 getestet und war zunächst auch einigermaßen überrascht, wie schnell die Chat-Software den Zweck der Programm-Funktion erkennen konnte, die ich ihr gegeben hatte.

Dann habe ich allerdings mal alle „sprechenden“ Variablen-Namen umgeändert und prompt wusste ChatGPT gar nichts mehr. Es hat sogar eine Funktionalität in meinen Programm-Code hinein-interpretiert, der nicht ansatzweise da war.

Es handelte sich um ein kleines Programm, dass einen Kreis auf einem Display malen sollten, aber ChatGPT meinte dazu:

Dieses Programmcode-Segment ist eine Funktion mit dem Namen „beat_fbuf“, die aufgerufen wird, um ein Signal auf dem Lautsprecher auszugeben. Die Funktion wird mit vier Parametern aufgerufen: „left_ch0“, „right_ch0“, „noise_level“ und „freq_u32“.

Die Funktion verwendet eine Schleife, um eine sinusförmige Schwingung zu erzeugen, indem sie eine Formel verwendet, die auf der Werte von „Ch_l“ und „Ch_r“ basiert. „Ch_l“ und „Ch_r“ sind Variablen, die in der Schleife aktualisiert und verwendet werden, um die Amplitude auf beiden Kanälen des Lautsprechers zu steuern.

Die Lautstärke des Rauschens wird durch den Parameter „noise_level“ gesteuert, wobei niedrigere Werte zu weniger Rauschen führen. „Freq_u32“ wird dafür verwendet, um die Frequenz der Schwingung anzupassen, die über den Lautsprecher ausgegeben wird.

Insgesamt schreibt die Funktion die Audio-Samples direkt in den ADC-FIFO-Puffer. Die Samples werden auf acht unterschiedliche Kanäle geschrieben, um einen 3D-Soundeffekt zu erzeugen.

Diese Analyse, insbesondere der letzte Teil, ist so dermaßen falsch gewesen, wäre ich Personal-Entscheider und ein Anwärter hätte so eine Antwort geliefert, ich würde ihn nicht einstellen.

Und diese Fehleinschätzung von ChatGPT beruhte eben darauf, dass ich die Variablen-Namen so änderte, dass sie nach einem Programm für Sound-Bearbeitung klingen. Es ist eben doch nur eine Texterkennung und kann nicht programmieren. Zumindest nicht in Version 3.5.

Das schlimme daran ist übrigens nicht, dass ChatGPT den wesentlichen Inhalt des Programm-Codes nicht verstanden hat, sondern dass es sich eine Funktionalität „zusammengereimt“ hat. Und diese Eigenschaft, den Nutzer zu täuschen, ist meiner Meinung nach nicht zufällig drin, sondern bewusst eingebaut.

Na ja, du hast die alte Version GPT-3.x verwendet. GPT-3.5 basiert auf dem drei Jahre alten GPT-3 Modell und hat bekanntermaßen keine guten „Programmier“-Fähigkeiten.

Wenn es in Schlagzeilen oder Diskussionen um “Sparks of AGI”, logisches Denken oder komplexes Problemlösen geht, geht es IMMER um das neue Modell GPT-4. Ich hatte oben auch erwähnt, dass ich für die Code-Analysen GPT-4 genutzt hatte. Man darf hier nicht Äpfel mit Blaubeeren vergleichen. Siehe auch diesen Artikel.

Und natürlich reimt sich das Modell nicht einfach nur Dinge aus dem im Code enthaltenen Text zusammen, sondern entwickelt schon ein ganz gutes Verständnis dessen, was der Code macht. Klar, wir reden wir hier nicht über menschliche Intelligenz. Und sicherlich wird man Beispiele konstruieren können, bei denen auch GPT-4 an seine Grenzen stößt. Aber die „Programmier“-Fähigkeiten sind schon beeindruckend (und des öfteren hilfreich, wie auch pitus oben schon geschrieben hat).

@Christoph

Kurz: Ja, im Zweifelsfall geht das aber auch schon ohne KI. Synopsen sind nichts allzu kompliziertes (siehe auch „git diff“)

Der Springer-Verlag hat laut Handelsblatt wohl Entlassungen zugunsten dem Einsatz von KI-Lösungen angekündigt. Es soll wohl eine dreistellige Anzahl Jobs auf der Führungsebene, aber vor allem in der Produktion, wegfallen.

Vor allem das Layout solle in Zukunft von KI-Lösungen (angepasstes Midjourney?) übernommen werden.
https://www.golem.de/news/entlassungen-bei-axel-springer-bild-mitarbeiter-sollen-durch-ki-ersetzt-werden-2306-175083.html

Side-Note: Ich frage mich warum nicht viel eher die Schreiberlinge wegfallen. Bei der Bild wäre KI-Halluzination doch eher ein Feature und kein Bug.

1 „Gefällt mir“

Dafür soll es doch dann bestimmt eine dreistellige Zahl neuer toller Jobs geben, oder?

Bei einer Rationalisierung / Automatisierung werden nie so viele neue Jobs geschaffen, wie alte wegfallen. Sonst würde man das Rationalisierungsziel auch krass verfehlen, weil die neuen Jobs i.d.R. pro Job teurer sind…

Daher:
Für 100 Jobs, die durch KI verschwinden, entstehen vielleicht 5 neue im Bereich Anwendungsentwicklung und Systemintegration, um die Software und Hardware zu pflegen (entweder im eigenen Betrieb, oder in anderen Unternehmen, die diese Software und Hardware-Lösungen stellen). Und das ist wie gesagt gut so.

Laut dem Artikel sollen 6 der verbleibenden 18 Regionalredaktionen wegfallen. Das klingt für mich jetzt schon so, als würden da auch einige Schreiberlinge wegfallen.

KI-generierte Nachrichtenposts habe ich übrigens in den letzten Wochen öfters gesehen, häufig einfache Info-Artikel unter denen dann sowas steht wie „Dieser Artikel wurde mithilfe maschineller Unterstützung erstellt und vor der Veröffentlichung von Redakteur XYZ geprüft“. Auf diese Weise steigt der Output pro Schreiberling natürlich immens, sodass der nötige Inhalt von deutlich weniger Redakteuren generiert werden kann. Bei diesen stumpfen Info-Artikeln geht da tatsächlich vermutlich nicht viel verloren…

Klang im Podcast anders…da sollten angeblich mehr neue Jobs entstehen.
Aber ich denke deine Zahl ist nicht unrealistisch, zudem völlig andere Qualifikationen.

Ich habe jetzt auch mal das GPT-4 aus der Bing-Suche benutzt und die Ergebnisse waren genauso schlecht wie vorher mit ChatGPT 3.5. Es ist eine Mischung aus dem Erkennen von Schlüssel-Bezeichnungen (wenn eine Variable im Programm-Code „Frequenz“ oder „Rauschen“ heißt, muss es um Audio-Bearbeitung gehen) und sog. statischer Code-Analyse (gibt es schon seit min. 30 Jahren als ganz normales Computerprogramm).

Da muss kein Programmierer Angst um seinen Job haben. :slight_smile:

Hast du den Artikel mal durchgelesen? Sie reden davon, auch Leute durch KI zu ersetzen. Und das es konkret das Layout treffen soll, dass sie vollständig durch KI machen lassen wollen.

Was würde diese Behauptung den tatsächlich bedeuten, wenn man sie mal ernst nehmen würde? Es würde ja bedeuten, dass die Anordnung der Artikel und Bilder in der Zeitung durch eine KI-Software übernommen werden würde, oder?

Macht das Sinn?

Eine KI-Software braucht immer sehr viele Trainingsdaten. Im Falle einer Layout-KI-Software wären das also Zeitungslayouts. Diese Daten muss aber jemand aufwendig aufbereiten, also der KI die Zeitung in verständliche Teile zerlegen, Fotos und Texte markieren und vor allem, muss in den Trainings-Layouts enthalten sein, welche Zeitungs-Layouts gut sind und welche eher schlecht. Gut und schlecht sind aber menschliche Kategorien und irgendjemand müsste also Millionen von Zeitungen lesen und deren Layout bewerten.

Das man daher ein komplettes Layout von einer KI erstellen lässt, erscheint mir unwahrscheinlich.

Es gibt offenbar sogar schon Software, die Layouts mit KI-Hilfe erstellt:

Aber dort heißt es:

So ersparen die neuen Funktionen der Publishinglösung InterRed den Redaktionen das bekannte, aufwändige Schreiben von Artikeln auf Zeile. […] Online- und Agenturinhalte werden dabei einfach per Drag & Drop auf eine Print-Seite gezogen. Alles weitere erledigt, wie von Geisterhand, die KI-Lösung von InterRed.

Das heißt, die Software schreibt hier lediglich (mit KI-Modul) automatisiert Texte um, damit sie ins Layout passen, oder erstellt aus einer Nachrichten-Agentur-Meldung einen Text.

Aber das sind eben genau die Text-Synthese-Fähigkeiten, für die „Large-Language-Modells“ (wie ChatGPT) gemacht wurden.

Fortsetzung im nächsten Post.

Fortsetzung vom letzten Post:

Der Springer-Verlag kann hier vielleicht ein paar Leute einsparen und das ist natürlich hart für diese Leute, aber dass jetzt mehrere hundert Leute wegen KI ihren Job verlieren stimmt, meiner Meinung nach, nicht. Aber das ist es ja leider, was der der Golem-Artikel mit seiner Überschrift suggerieren will.

Vielleicht sollten sich Journalisten auch mal Gedanken machen, ob sie nicht gerade deswegen durch Text-Synthese-Programme (ChatGPT) ersetzt werden können, weil sie gerade nur so oberflächliche Artikel schreiben, ohne in die Tiefe zu gehen.

Ansonsten ist der Umbau bei Springer „nur“ ein wirtschaftlich bedingtes Verkleinern der Belegschaft, von der das Unternehmen wohl gerne Ablenken möchte und deswegen auf „die böse KI“ zeigt.

Ich glaube, das ist in zweierlei Hinsicht eher umgekehrt der Fall.

Journalisten schreiben eher oberflächliche Artikel, weil die Kundschaft i.d.R. eine eher knappe Zusammenfassung wünscht (und keine wissenschaftlich-fundierten, unglaublich detaillierten Artikel). Das ist für Leute wie uns, die gerne ausführlichere Artikel hätten, natürlich schade, aber der Journalismus muss eben den Markt bedienen, der existiert… daher sind besonders ausführliche journalistische Formate eher eine Nische, während der Massenmarkt dominiert von „kurz-und-knapp-Journalismus“ ist.

Und wenn man Chat-GPT einen Fachartikel schreiben lässt, kommt dabei eher eine zu lange Antwort raus. Man muss Chat-GPT eher dazu auffordern, kürzere Antworten zu geben, als mehr ins Detail zu gehen. Grundsätzlich aber kann Chat-GPT beides schreiben: sehr kurz zusammengefasste (und damit „oberflächliche“) Artikel ebenso wie sehr, sehr ausführliche Artikel.

Naja, da Springer eine KI-Firma kaufen will, glaube ich nicht, dass Springer zu sehr auf „die böse KI“ zeigen möchte. Im Gegenteil, Springer ist ein Unternehmen und sieht in der KI eine Chance zur Profitmaximierung - wie viele Journalisten ihren Job verlieren dürfte das Letzte sein, was den Springer-Vorstand interessiert… das würde ja ein soziales Gewissen implizieren, welches bei Springer wohl kaum vorhanden sein dürfte.

Ja, das habe ich und mache ich mit jedem Artikel den ich hier teile. Ich dachte das sei selbstverständlich.

Das habe ich meines Erachtens auch so geschrieben.

Das ist bei Retraining Aufgaben gar nicht so schwer. Wir machen das selbst in unseren Projekten so. 50 bis 100 Datenpunkte pro Klasse reichen oft schon aus um die KI auf ein moderates Niveau zu bringen. Ab da labelt sie selbst und man korrigiert nur. Das geht locker 10 mal schneller als selbst labeln. Man schafft nun also eher tausende Samples mit moderatem Aufwand und schon hat man genug gelabelte Daten aufbereitet.

Zumal Zeitungen im Allgemeinen ohnehin Firmen mit guter Datenhaltung und Archivierung sind.

Und das ist eben ein Job, den bisher vernünftig bezahlte Fachleute durchgeführt haben. Natürlich werden nicht alle freigesetzt. Aber durch die gestiegene Produktivität samt KI kann nun ein Setzer vielleicht die Arbeit von 2(?) Personen übernehmen.

Vielleicht solltest du uns mal dein Codesnippet zeigen. Du solltest auch darüber nachdenken, wie ein Projektunkundiger auf deinen Code schauen würde wenn dieser unkommentiert ist und unpassende Variablenbezeichnungen verwendet. Ohne Kontext wird es auch als Mensch sehr schwer solchen Code zu verstehen, weswegen solcher Code auch gegen gängige Style Guides verstößt.

Wie immer bei KI-Systemen gilt

Garbage in, Garbage out

Vielleicht erklärt das auch, warum BingGPT solche Probleme mit deinem Code hat. Oder vielleicht verwendest du auch seltenere Sprachen (Matlab?).

Als Bestätigung hierzu, folgender FAZ Artikel.

Ein seriös agierender Mensch würde dann aber zugeben, dass er den Code nicht versteht und vernünftige Variablennamen und die Verwendung von Kommentaren o.ä. einfordern. Das Problem mit ChatGPT ist ja, dass es irgend etwas erfindet und das dann im Brustton der Überzeugung zur Wahrheit erklärt. Das ist doch die eigentliche Gefahr im Umgang mit dieser KI.

1 „Gefällt mir“

So hofft man. Ganz sicher ist das allerdings nicht. Vor allem mit sehr jungen Kollegen hatte ich schon das Vergnügen, dass die Code nicht verstanden haben und das nicht zugeben wollten, aber egal.

Ein weit verbreitetes Missverständnis bezüglich ChatGPT ist seine vermeintliche Multifunktionalität. Tatsächlich handelt es sich bei ChatGPT um ein KI-basiertes Werkzeug zur kreativen Textgenerierung. Obwohl es in der Lage ist, Programmieraufgaben auszuführen oder Recherchen durchzuführen (in Version 4), ist dies nicht seine primäre Funktion. Es gibt nur wenige Regeln für den Umgang mit Unsicherheiten in Texten, was verständlich ist, da ChatGPT auf die Erzeugung kreativer Texte und nicht auf die Erzeugung von korrekten Texten ausgerichtet ist.

Der wahre Wert von ChatGPT liegt in seiner Fähigkeit, als leistungsstarkes Backend für andere KI-Lösungen zu dienen. Diese Lösungen können Antworten von ChatGPT verwerfen, die keinen ausreichenden Confidence-Score aufweisen.

Ein typischer Workflow könnte beispielsweise darin bestehen, eine Frage an ChatGPT mit geringfügigen Variationen 5-10 Mal zu senden. Die Antworten werden gesammelt und solche mit niedrigem Confidence-Score aussortiert. Die verbleibenden Antworten werden dann erneut an ChatGPT gesendet, mit der Bitte um eine Zusammenfassung. Nur diese Zusammenfassung wird dem Benutzer angezeigt. Wenn weniger als x Antworten mit einem guten Confidence-Score vorhanden sind, wird dem Benutzer mitgeteilt, dass die Frage nicht sicher beantwortet werden kann.

Lösungen, die sich auf korrekte Antworten konzentrieren (wie BingGPT), wenden bereits ein solches Verfahren an. Wenn man jedoch lediglich eine kreative Lösung sucht, um beispielsweise eine E-Mail umzuformulieren, ist ChatGPT völlig ausreichend.

Ungeachtet dessen sehe ich ChatGPT-basierte Lösungen derzeit noch als Werkzeuge für Experten an, die damit ihre Produktivität erheblich steigern können. Laien werden durch den Einsatz von KI-Werkzeugen nicht plötzlich zu Profis. Früher oder später wird dies zu unerwünschten Ergebnissen führen. Dies ist jedoch unerheblich. Es müssen nicht 100% der Mitarbeiter einer Branche durch KI ersetzt werden, um ein soziales Problem zu schaffen. Wenn jeder Mitarbeiter seine Produktivität um 1/3 bis 1/2 durch den Einsatz von KI-Tools steigern kann, werden bereits etliche Menschen langfristig ihren Arbeitsplatz verlieren.

Disclaimer: Der längere Antwort-Text wurde manuell vorgeschrieben und dann von BingGPT umformuliert. Das Ergebnis entspricht dem Ursprungstext. Das sprachliche Niveau hat sich aber wesentlich verbessert.

4 „Gefällt mir“

Fair enough. Das stimmt natürlich auch.

Da wäre ich mir gar nicht so sicher. Ein ein sehr fachlich tiefer Text, z.B. über ein Gesetz, bei dem aus auf fachliche Richtigkeit im Detail ankommt, könnte von einem ChatBot-Programm eventuell auch inhaltlich verfälscht werden.

Insofern wäre ich persönlich bei ausführlichen journalistischen Texten, die mit einer KI-Software für Textsynthese (z.B. ChatGPT oder Bard) erstellt wurden, nicht bereit mich auf die Informationen zu verlassen. Und dann bräuchte ich den Artikel im Grunde auch gar nicht zu lesen.

Auf jeden Fall. Die Frage für mich wäre hier: Wie konkret sehen sie diese Chance? Vielleicht gehen sie diesen Weg auch nur, weil „alle gerade in KI machen“.

Stimmt, das hast du. Das habe ich unglücklich formuliert. Ich wollte damit auch nur den folgenden Texte oben über eine abstrakte KI-Software zum Layouten einleiten.

Also nach allem was ich gelesen und gehört habe, nicht nur von OpenAI, sondern auch von Google (die mit ihrem Paper von 2017 den heutigen KI-Hype möglich gemacht haben), dann liegt die Stärke von ChatGPT , Bard usw. in der schieren Menge der Trainingsdaten und darin, wie stark diese bearbeitet wurden.

Aktuelle open source KI-Programme kommen z.B. lange nicht an die aktuellen Platzhirsche, wie ChatGPT und Bard ran. Und ich glaube das liegt weniger daran, dass die open source KI-Software viel schlechter wäre, sondern daran, dass die Trainingsdaten bei open source KI-Programmen nicht so viel und nicht so hochwertig sind.

Das mag in der Tat angehen.

Ich kann es dir gerne per PM schicken, wenn du Interesse hast.

Stimmt. Ein Mensch hätte mit diesem Code auch Probleme, aber er würde es mit genügend Zeit schaffen. Die KI aber versucht es nicht mal, stattdessen liefert es eine Verlegenheitsanwort.

Der Programm-Code war in C geschrieben. Das erkennt ChatGPT auch.

Genau.

Wenn dein Argument an dieser Stelle aber ist, dass die KI-Software auch nicht besser sei, als ein Mensch, dann Frage ich mich, brauchen wir sie überhaupt?

Das ist ja ein netter Prozess, den du da beschreibst, aber da wäre meine Frage spontan: Warum errechnet die KI-Software diesen „Confidence-Score“ nicht gleich selbst? Warum muss ich dafür eine zusätzliche Software nachträglich die Ergebnisse aufarbeiten lassen? Klingt irgendwie unausgegoren.

Oder wir erreichen eine einfach eine Produktivitätssteigerung bei der die vorhandenen Menschen einfach bessere Produkte leisten. Es ist ja nicht so, als ob wir einen Überfluss an qualitativ hochwertiger Software hätten, die keine gravierenden Schwachstellen enthält.

Vielleicht nutzt man also die vermeintlich höhere Produktivität der Programmierer (wie groß oder klein sie am Ende tatsächlich sein mag) und lässt die Leute ihre Produkte besser testen usw.

Weil ChatGPT es nicht (gut) kann. Das Modell ist nicht auf Bewertung von Texten nach ihrem Wahrheitsgehalt ausgelegt, sondern auf ihre Generierung.

Andere Systeme können deutlich besser Texte auf Plausibilität prüfen und Fakten checken, aber sie können keine Texte erzeugen. Also kombiniert man ein solches anderes System mit ChatGPT und bekommt eine Kombination, die letztlich mehr ist als die Summe ihrer Teile.

Das ist auch ganz abseits des KI-Hypes schon immer eines der grundlegenden Prinzipien im Software-Engineering gewesen: Kombination verschiedener spezialisierter Subsysteme zu komplexeren größeren Systemen, die dann insgesamt eine kompliziertere Gesamt-Problemstellung lösen können als es die jeweiligen Subsysteme können.

3 „Gefällt mir“