Neue Technologie: Chat GPT, Künstliche Intelligenz und Implikationen auf politischen Diskurs

Der Springer-Verlag hat laut Handelsblatt wohl Entlassungen zugunsten dem Einsatz von KI-Lösungen angekündigt. Es soll wohl eine dreistellige Anzahl Jobs auf der Führungsebene, aber vor allem in der Produktion, wegfallen.

Vor allem das Layout solle in Zukunft von KI-Lösungen (angepasstes Midjourney?) übernommen werden.
https://www.golem.de/news/entlassungen-bei-axel-springer-bild-mitarbeiter-sollen-durch-ki-ersetzt-werden-2306-175083.html

Side-Note: Ich frage mich warum nicht viel eher die Schreiberlinge wegfallen. Bei der Bild wäre KI-Halluzination doch eher ein Feature und kein Bug.

1 „Gefällt mir“

Dafür soll es doch dann bestimmt eine dreistellige Zahl neuer toller Jobs geben, oder?

Bei einer Rationalisierung / Automatisierung werden nie so viele neue Jobs geschaffen, wie alte wegfallen. Sonst würde man das Rationalisierungsziel auch krass verfehlen, weil die neuen Jobs i.d.R. pro Job teurer sind…

Daher:
Für 100 Jobs, die durch KI verschwinden, entstehen vielleicht 5 neue im Bereich Anwendungsentwicklung und Systemintegration, um die Software und Hardware zu pflegen (entweder im eigenen Betrieb, oder in anderen Unternehmen, die diese Software und Hardware-Lösungen stellen). Und das ist wie gesagt gut so.

Laut dem Artikel sollen 6 der verbleibenden 18 Regionalredaktionen wegfallen. Das klingt für mich jetzt schon so, als würden da auch einige Schreiberlinge wegfallen.

KI-generierte Nachrichtenposts habe ich übrigens in den letzten Wochen öfters gesehen, häufig einfache Info-Artikel unter denen dann sowas steht wie „Dieser Artikel wurde mithilfe maschineller Unterstützung erstellt und vor der Veröffentlichung von Redakteur XYZ geprüft“. Auf diese Weise steigt der Output pro Schreiberling natürlich immens, sodass der nötige Inhalt von deutlich weniger Redakteuren generiert werden kann. Bei diesen stumpfen Info-Artikeln geht da tatsächlich vermutlich nicht viel verloren…

Klang im Podcast anders…da sollten angeblich mehr neue Jobs entstehen.
Aber ich denke deine Zahl ist nicht unrealistisch, zudem völlig andere Qualifikationen.

Ich habe jetzt auch mal das GPT-4 aus der Bing-Suche benutzt und die Ergebnisse waren genauso schlecht wie vorher mit ChatGPT 3.5. Es ist eine Mischung aus dem Erkennen von Schlüssel-Bezeichnungen (wenn eine Variable im Programm-Code „Frequenz“ oder „Rauschen“ heißt, muss es um Audio-Bearbeitung gehen) und sog. statischer Code-Analyse (gibt es schon seit min. 30 Jahren als ganz normales Computerprogramm).

Da muss kein Programmierer Angst um seinen Job haben. :slight_smile:

Hast du den Artikel mal durchgelesen? Sie reden davon, auch Leute durch KI zu ersetzen. Und das es konkret das Layout treffen soll, dass sie vollständig durch KI machen lassen wollen.

Was würde diese Behauptung den tatsächlich bedeuten, wenn man sie mal ernst nehmen würde? Es würde ja bedeuten, dass die Anordnung der Artikel und Bilder in der Zeitung durch eine KI-Software übernommen werden würde, oder?

Macht das Sinn?

Eine KI-Software braucht immer sehr viele Trainingsdaten. Im Falle einer Layout-KI-Software wären das also Zeitungslayouts. Diese Daten muss aber jemand aufwendig aufbereiten, also der KI die Zeitung in verständliche Teile zerlegen, Fotos und Texte markieren und vor allem, muss in den Trainings-Layouts enthalten sein, welche Zeitungs-Layouts gut sind und welche eher schlecht. Gut und schlecht sind aber menschliche Kategorien und irgendjemand müsste also Millionen von Zeitungen lesen und deren Layout bewerten.

Das man daher ein komplettes Layout von einer KI erstellen lässt, erscheint mir unwahrscheinlich.

Es gibt offenbar sogar schon Software, die Layouts mit KI-Hilfe erstellt:

Aber dort heißt es:

So ersparen die neuen Funktionen der Publishinglösung InterRed den Redaktionen das bekannte, aufwändige Schreiben von Artikeln auf Zeile. […] Online- und Agenturinhalte werden dabei einfach per Drag & Drop auf eine Print-Seite gezogen. Alles weitere erledigt, wie von Geisterhand, die KI-Lösung von InterRed.

Das heißt, die Software schreibt hier lediglich (mit KI-Modul) automatisiert Texte um, damit sie ins Layout passen, oder erstellt aus einer Nachrichten-Agentur-Meldung einen Text.

Aber das sind eben genau die Text-Synthese-Fähigkeiten, für die „Large-Language-Modells“ (wie ChatGPT) gemacht wurden.

Fortsetzung im nächsten Post.

Fortsetzung vom letzten Post:

Der Springer-Verlag kann hier vielleicht ein paar Leute einsparen und das ist natürlich hart für diese Leute, aber dass jetzt mehrere hundert Leute wegen KI ihren Job verlieren stimmt, meiner Meinung nach, nicht. Aber das ist es ja leider, was der der Golem-Artikel mit seiner Überschrift suggerieren will.

Vielleicht sollten sich Journalisten auch mal Gedanken machen, ob sie nicht gerade deswegen durch Text-Synthese-Programme (ChatGPT) ersetzt werden können, weil sie gerade nur so oberflächliche Artikel schreiben, ohne in die Tiefe zu gehen.

Ansonsten ist der Umbau bei Springer „nur“ ein wirtschaftlich bedingtes Verkleinern der Belegschaft, von der das Unternehmen wohl gerne Ablenken möchte und deswegen auf „die böse KI“ zeigt.

Ich glaube, das ist in zweierlei Hinsicht eher umgekehrt der Fall.

Journalisten schreiben eher oberflächliche Artikel, weil die Kundschaft i.d.R. eine eher knappe Zusammenfassung wünscht (und keine wissenschaftlich-fundierten, unglaublich detaillierten Artikel). Das ist für Leute wie uns, die gerne ausführlichere Artikel hätten, natürlich schade, aber der Journalismus muss eben den Markt bedienen, der existiert… daher sind besonders ausführliche journalistische Formate eher eine Nische, während der Massenmarkt dominiert von „kurz-und-knapp-Journalismus“ ist.

Und wenn man Chat-GPT einen Fachartikel schreiben lässt, kommt dabei eher eine zu lange Antwort raus. Man muss Chat-GPT eher dazu auffordern, kürzere Antworten zu geben, als mehr ins Detail zu gehen. Grundsätzlich aber kann Chat-GPT beides schreiben: sehr kurz zusammengefasste (und damit „oberflächliche“) Artikel ebenso wie sehr, sehr ausführliche Artikel.

Naja, da Springer eine KI-Firma kaufen will, glaube ich nicht, dass Springer zu sehr auf „die böse KI“ zeigen möchte. Im Gegenteil, Springer ist ein Unternehmen und sieht in der KI eine Chance zur Profitmaximierung - wie viele Journalisten ihren Job verlieren dürfte das Letzte sein, was den Springer-Vorstand interessiert… das würde ja ein soziales Gewissen implizieren, welches bei Springer wohl kaum vorhanden sein dürfte.

Ja, das habe ich und mache ich mit jedem Artikel den ich hier teile. Ich dachte das sei selbstverständlich.

Das habe ich meines Erachtens auch so geschrieben.

Das ist bei Retraining Aufgaben gar nicht so schwer. Wir machen das selbst in unseren Projekten so. 50 bis 100 Datenpunkte pro Klasse reichen oft schon aus um die KI auf ein moderates Niveau zu bringen. Ab da labelt sie selbst und man korrigiert nur. Das geht locker 10 mal schneller als selbst labeln. Man schafft nun also eher tausende Samples mit moderatem Aufwand und schon hat man genug gelabelte Daten aufbereitet.

Zumal Zeitungen im Allgemeinen ohnehin Firmen mit guter Datenhaltung und Archivierung sind.

Und das ist eben ein Job, den bisher vernünftig bezahlte Fachleute durchgeführt haben. Natürlich werden nicht alle freigesetzt. Aber durch die gestiegene Produktivität samt KI kann nun ein Setzer vielleicht die Arbeit von 2(?) Personen übernehmen.

Vielleicht solltest du uns mal dein Codesnippet zeigen. Du solltest auch darüber nachdenken, wie ein Projektunkundiger auf deinen Code schauen würde wenn dieser unkommentiert ist und unpassende Variablenbezeichnungen verwendet. Ohne Kontext wird es auch als Mensch sehr schwer solchen Code zu verstehen, weswegen solcher Code auch gegen gängige Style Guides verstößt.

Wie immer bei KI-Systemen gilt

Garbage in, Garbage out

Vielleicht erklärt das auch, warum BingGPT solche Probleme mit deinem Code hat. Oder vielleicht verwendest du auch seltenere Sprachen (Matlab?).

Als Bestätigung hierzu, folgender FAZ Artikel.

Ein seriös agierender Mensch würde dann aber zugeben, dass er den Code nicht versteht und vernünftige Variablennamen und die Verwendung von Kommentaren o.ä. einfordern. Das Problem mit ChatGPT ist ja, dass es irgend etwas erfindet und das dann im Brustton der Überzeugung zur Wahrheit erklärt. Das ist doch die eigentliche Gefahr im Umgang mit dieser KI.

1 „Gefällt mir“

So hofft man. Ganz sicher ist das allerdings nicht. Vor allem mit sehr jungen Kollegen hatte ich schon das Vergnügen, dass die Code nicht verstanden haben und das nicht zugeben wollten, aber egal.

Ein weit verbreitetes Missverständnis bezüglich ChatGPT ist seine vermeintliche Multifunktionalität. Tatsächlich handelt es sich bei ChatGPT um ein KI-basiertes Werkzeug zur kreativen Textgenerierung. Obwohl es in der Lage ist, Programmieraufgaben auszuführen oder Recherchen durchzuführen (in Version 4), ist dies nicht seine primäre Funktion. Es gibt nur wenige Regeln für den Umgang mit Unsicherheiten in Texten, was verständlich ist, da ChatGPT auf die Erzeugung kreativer Texte und nicht auf die Erzeugung von korrekten Texten ausgerichtet ist.

Der wahre Wert von ChatGPT liegt in seiner Fähigkeit, als leistungsstarkes Backend für andere KI-Lösungen zu dienen. Diese Lösungen können Antworten von ChatGPT verwerfen, die keinen ausreichenden Confidence-Score aufweisen.

Ein typischer Workflow könnte beispielsweise darin bestehen, eine Frage an ChatGPT mit geringfügigen Variationen 5-10 Mal zu senden. Die Antworten werden gesammelt und solche mit niedrigem Confidence-Score aussortiert. Die verbleibenden Antworten werden dann erneut an ChatGPT gesendet, mit der Bitte um eine Zusammenfassung. Nur diese Zusammenfassung wird dem Benutzer angezeigt. Wenn weniger als x Antworten mit einem guten Confidence-Score vorhanden sind, wird dem Benutzer mitgeteilt, dass die Frage nicht sicher beantwortet werden kann.

Lösungen, die sich auf korrekte Antworten konzentrieren (wie BingGPT), wenden bereits ein solches Verfahren an. Wenn man jedoch lediglich eine kreative Lösung sucht, um beispielsweise eine E-Mail umzuformulieren, ist ChatGPT völlig ausreichend.

Ungeachtet dessen sehe ich ChatGPT-basierte Lösungen derzeit noch als Werkzeuge für Experten an, die damit ihre Produktivität erheblich steigern können. Laien werden durch den Einsatz von KI-Werkzeugen nicht plötzlich zu Profis. Früher oder später wird dies zu unerwünschten Ergebnissen führen. Dies ist jedoch unerheblich. Es müssen nicht 100% der Mitarbeiter einer Branche durch KI ersetzt werden, um ein soziales Problem zu schaffen. Wenn jeder Mitarbeiter seine Produktivität um 1/3 bis 1/2 durch den Einsatz von KI-Tools steigern kann, werden bereits etliche Menschen langfristig ihren Arbeitsplatz verlieren.

Disclaimer: Der längere Antwort-Text wurde manuell vorgeschrieben und dann von BingGPT umformuliert. Das Ergebnis entspricht dem Ursprungstext. Das sprachliche Niveau hat sich aber wesentlich verbessert.

4 „Gefällt mir“

Fair enough. Das stimmt natürlich auch.

Da wäre ich mir gar nicht so sicher. Ein ein sehr fachlich tiefer Text, z.B. über ein Gesetz, bei dem aus auf fachliche Richtigkeit im Detail ankommt, könnte von einem ChatBot-Programm eventuell auch inhaltlich verfälscht werden.

Insofern wäre ich persönlich bei ausführlichen journalistischen Texten, die mit einer KI-Software für Textsynthese (z.B. ChatGPT oder Bard) erstellt wurden, nicht bereit mich auf die Informationen zu verlassen. Und dann bräuchte ich den Artikel im Grunde auch gar nicht zu lesen.

Auf jeden Fall. Die Frage für mich wäre hier: Wie konkret sehen sie diese Chance? Vielleicht gehen sie diesen Weg auch nur, weil „alle gerade in KI machen“.

Stimmt, das hast du. Das habe ich unglücklich formuliert. Ich wollte damit auch nur den folgenden Texte oben über eine abstrakte KI-Software zum Layouten einleiten.

Also nach allem was ich gelesen und gehört habe, nicht nur von OpenAI, sondern auch von Google (die mit ihrem Paper von 2017 den heutigen KI-Hype möglich gemacht haben), dann liegt die Stärke von ChatGPT , Bard usw. in der schieren Menge der Trainingsdaten und darin, wie stark diese bearbeitet wurden.

Aktuelle open source KI-Programme kommen z.B. lange nicht an die aktuellen Platzhirsche, wie ChatGPT und Bard ran. Und ich glaube das liegt weniger daran, dass die open source KI-Software viel schlechter wäre, sondern daran, dass die Trainingsdaten bei open source KI-Programmen nicht so viel und nicht so hochwertig sind.

Das mag in der Tat angehen.

Ich kann es dir gerne per PM schicken, wenn du Interesse hast.

Stimmt. Ein Mensch hätte mit diesem Code auch Probleme, aber er würde es mit genügend Zeit schaffen. Die KI aber versucht es nicht mal, stattdessen liefert es eine Verlegenheitsanwort.

Der Programm-Code war in C geschrieben. Das erkennt ChatGPT auch.

Genau.

Wenn dein Argument an dieser Stelle aber ist, dass die KI-Software auch nicht besser sei, als ein Mensch, dann Frage ich mich, brauchen wir sie überhaupt?

Das ist ja ein netter Prozess, den du da beschreibst, aber da wäre meine Frage spontan: Warum errechnet die KI-Software diesen „Confidence-Score“ nicht gleich selbst? Warum muss ich dafür eine zusätzliche Software nachträglich die Ergebnisse aufarbeiten lassen? Klingt irgendwie unausgegoren.

Oder wir erreichen eine einfach eine Produktivitätssteigerung bei der die vorhandenen Menschen einfach bessere Produkte leisten. Es ist ja nicht so, als ob wir einen Überfluss an qualitativ hochwertiger Software hätten, die keine gravierenden Schwachstellen enthält.

Vielleicht nutzt man also die vermeintlich höhere Produktivität der Programmierer (wie groß oder klein sie am Ende tatsächlich sein mag) und lässt die Leute ihre Produkte besser testen usw.

Weil ChatGPT es nicht (gut) kann. Das Modell ist nicht auf Bewertung von Texten nach ihrem Wahrheitsgehalt ausgelegt, sondern auf ihre Generierung.

Andere Systeme können deutlich besser Texte auf Plausibilität prüfen und Fakten checken, aber sie können keine Texte erzeugen. Also kombiniert man ein solches anderes System mit ChatGPT und bekommt eine Kombination, die letztlich mehr ist als die Summe ihrer Teile.

Das ist auch ganz abseits des KI-Hypes schon immer eines der grundlegenden Prinzipien im Software-Engineering gewesen: Kombination verschiedener spezialisierter Subsysteme zu komplexeren größeren Systemen, die dann insgesamt eine kompliziertere Gesamt-Problemstellung lösen können als es die jeweiligen Subsysteme können.

3 „Gefällt mir“

Nur als Ergänzung zu @Slartie, ChatGPT kann den Confidence Score einer Anfrage ausgeben. Man bestimmt die Confidence-Scores nicht neu, sondern nimmt die von ChatGPT.

Die nachfolgenden Schritte sind aber trotzdem wichtig. Denn man fragt normalerweise in produktiven Lösungen mehrfach an und es ist sehr wahrscheinlich, dass mal eine, mal viele und mal alle Antworten verworfen werden müssen. Dafür muss es dann Logiken geben (Antwort verweigern, zusammenfassen mehrerer Antworten usw.).

Stimmt. Das ist aber ja eben nicht die Botschaft mit der OpenAI und andere Firmen die aktuellen KI-Programme bewerben. Da wird viel eher so getan, als könnte und wüsste das KI-System eigentlich alles besser, salopp gesagt.

Du meinst also Computerprogramme, die automatisiert und (ausreichend) zuverlässig den Wahrheitsgehalt einer Nachricht oder einer Behauptung prüfen? Was sind denn gängige Programme oder Dienste, die so etwas können?

Hast du eine Quelle, die beschreibt, wie solche nachgelagerte Auswertung von ChatGPT konkret in der Realität aussieht?

Nichts offizielles was ich teilen dürfte. Wir arbeiten in unseren ChatGPT Projekten aktuell mit Microsoft zusammen und die lassen dann halt solche Erfahrungen fallen. Und natürlich haben wir auch intern ein gewisses Knowledge und Erfahrungen mit dem Bau von KI-Lösungen und der Vermeidung von fehlerhaften Predictions.

Ich kann aber mal suchen, ob ich im Internet was finde.

1 „Gefällt mir“

Im Bildungssektor als auch im Marketing testen wir chatGPT auch grad aus, zum Teil mit einigen zeitlichen Einsparungen. Mal drüberlesen muss man trotzdem, ungesehen nutzen wprde ich es noch nicht.
Aber zum Thema Arbeit: bei der Automatisierung in Unternehmen werden ja zumeist niederschwellige bis mittlere Anforderungsniveaus an Tätigkeiten durch Technik ersetzt. Bedeutet ja meist, das die betreffenden Arbeitskräfte sich neu qualifizieren müssen, teils sogar in höherwertige Qualifizierungen.
Aus Erfahrung: das geht, auch im fortgeschrittenen Alter, aber nicht in jedem Bereich. Und es liegt dann nicht an fehlendem Willen, sondern das die intellektuelle Leistungsfähigkeit teils Grenzen hat.
Wie ist das bei einer KI, die durchaus auch höherwertige Tätigkeiten übernehmen kann, bis aufs akademische Niveau.
Auch da muss es ja zumindest artverwandte Tätigkeitsbereiche für die Betreffenden geben, zur Anpassungsqualifizierung.
Denn ob man einen Journalisten mal eben zum Chirurg oder einen Juristen zum Architekten machen kann und ob die das wollen, ist eine andere Frage.
Zumindest müsste man Erwachsenenbildung neu denken.

Mir ist kein öffentlich verfügbares System der Art bekannt (wobei ich nicht ausschließen will dass es welche gibt, ich habe da bei Weitem keinen vollständigen Marktüberblick), ich weiß aber, dass z.B. High-Frequency-Trading-Buden solche Systeme haben, um den automatisierten Meldungsfluss aus News, Social Media und Co. zu bewerten, bevor aufgrund von Falschinformationen teure Fehlentscheidungen getroffen werden.

Natürlich sind das am Ende auch zum guten Teil auf ML basierende Systeme, aber eben Modelle mit einer völlig anderen Zielsetzung als das hinter ChatGPT. Entsprechend performen sie in ihrer Disziplin dann auch erheblich besser.

Hier sehe ich vor allem das Problem der aktuellen Gesetzeslage.

Aktuell ist es ja leider so, dass wenn ein Akademiker in seinem Bereich Arbeitsunfähig wird, er während des ALG II-Bezugs nichts neues (z.B. verwandtes) studieren darf, sondern nur Umschulungen machen darf. Daher: Das aktuelle System zwingt Akademiker, die aus ihrem Beruf „vertrieben“ werden, zu einer „Umqualifizierung nach Unten“. Das liegt schlicht daran, dass mit der Bürgergeld-Reform eine wichtige Änderung nicht gekommen ist: § 7 Abs. 5 SGB II, sieht weiterhin vor, dass eine theoretische(!) Förderfähigkeit nach BAföG eine tatsächliche Förderfähigkeit nach SGB II ausschließt - und zwar auch dann, wenn eine tatsächliche BAföG-Förderung nicht möglich ist. Daher: Alle Studiengänge, für die ein 19-jähriger Abiturient theoretisch BAföG beziehen könnte, sind unvereinbar mit einem Bürgerfeld-Bezug, selbst wenn der z.B. 40-jährige Betroffene definitiv keinen BAföG-Anspruch hat.

Das halte ich nach wie vor auch im Hinblick auf den Fachkräftemangel für eine katastrophale Regelung. Sollte diese Regelung so bleiben, würde Leute, die wegen KI-Automatisierungen ihre akademischen Jobs verlieren und deshalb im Bürgergeldbezug landen, eine sinnvolle, akademische Umqualifizierung verweigert werden. Diese Regelung hätte schon mit der Bürgergeldreform fallen müssen, aber leider vertritt die Politik weiterhin den altmodischen Ansatz, dass ein Studium etwas ist, das man sich „verdienen“ muss.

Das müsste man wie gesagt ohnehin. Wir müssen endlich die Grenze zwischen „beruflicher Weiterbildung“ und „Hochschulausbildung“ einreißen und damit die Hochschulen auch in die Erwachsenenbildung einbeziehen - und zwar als Normalfall, nicht als Ausnahme.

1 „Gefällt mir“