Neue Technologie: Chat GPT, Künstliche Intelligenz und Implikationen auf politischen Diskurs

Nicht nur im Zusammenhang mit Waffensystem: KI wird umso gefährlicher, je mehr sie in Systeme eingebunden werden und dort vollautomatisch autonome Entscheidungen trifft. Genau dafür gibt es die von der EU vorgeschlagene Regulierung. Ich habe noch kein Überblick darüber, was dort genau geregelt wird, gehe aber davon aus, dass der Einsatz von KI bei der Entscheidungsunterstützung reguliert wird, sobald das Wohl und Wehe anderer Menschen davon betroffen ist. Das müssen gar nicht Waffen sein. Das kann schon der Antrag auf eine Krankenversicherung oder ein Darlehen sein.

Es ist zu befürchten, dass es kreativere Formen von Waffensystemen geben wird, als klassische Drohnen. Das “Future of Life Institute” (das sind die mit dem Offenen Brief für das Moratorium) hat schon vor vier Jahren zusammen mit dem britischen KI-Forscher Stuart Russel das Video “Slaughterbots” produziert, welches ein Horrorszenario für die Nutzung autonomer Waffensysteme an die Wand malt:

Hier eine gekürzte Fassung in deutscher Sprache.

Eine Gefahr solcher Waffen ist auch, dass praktisch nicht mehr nachvollziehbar ist, wer der Urheber eines Angriffs ist, was die Hürde für ihre Anwendung senken dürfte.

1 „Gefällt mir“

Da bin ich eigentlich bei dir. Aber warum sollte man KI-Systeme allein wichtige Entscheidungen treffen lassen? Inzwischen wissen doch alle wie unzuverlässig diese Systeme sein können.

Würde z.B. eine Bank die Entscheidung über Kreditvergabe per KI erledigen lassen, wie stellt man sicher, dass die KI keine Kredite vergibt, die zu Ungunsten der Bank sind? So etwas muss doch die Bank zwangsläufig überwachen, oder?

Wenn ich darauf ausführlich antworten würde, würde ich damit wohl ein zu großes Fass aufmachen und wir würden uns in Detailfragen über die technische Machbarkeit und militärische Sinnhaftigkeit solcher Waffensysteme verlieren.

Das würde ich bei Interesse eher per PM diskutieren.

Aber kurzum halte ich die Entscheidungsqualität von heutigen KI-Systemen für viel zu schlecht, um sie selbstständig Entscheidung treffen zu lassen.

Das gilt für Menschen aber eben auch.
Die Frage ist letztlich bei jeder einzelnen KI Anwendung, ob der Mensch zuverlässiger oder unzuverlässiger ist als die KI. Gerade bei Masse-Vorgängen dürfte es sehr schnell KIs geben, die zuverlässiger als Menschen agieren.

Weitere Punkte, warum es Sinn machen kann, KIs statt Menschen Entscheidungen treffen zu lassen, sind unter andere:

  1. Schutz des Menschen vor psychischen Traumatisierungen beim Einsatz tödlicher Gewalt. Die von dir genannten Drohnenpiloten fallen jetzt schon teilweise massenhaft aus und werden Dienstunfähig, weil eben das Drücken des „Kill-Buttons“ für die meisten Menschen psychisch nicht ohne Folgen bleibt. Ein skrupelloser Staat hat hier ein großes Interesse an Automatisierung durch KIs.

  2. Schlicht die Reaktionszeit. Gerade wenn es um immer modernere Waffensystem geht sind Millisekunden absolut entscheidend, vor allem z.B. bei Dingen wie Raketenabwehr, aber auch im Angriff. Bei den Drohneneinsätzen der USA, die ja teilweise aus Ramstein gesteuert werden, kommt es bei menschlicher Steuerung alleine schon wegen des Übertragungsweges des Bildmaterials und der Befehle zu erheblichen Verzögerungen, selbst wenn der Drohnenführer „blitzschnell“ reagiert. Eine On-Board-KI würde hier die Effizienz erheblich steigern. Aber auch außerhalb des militärischen Bereichs ist die Reaktionszeit oft wichtig, z.B. beim autonomen Fahren oder - auch ein sehr heißes Thema - beim Hochfrequenzhandel an den Börsen. Auch hier können autonome KIs auf Grund der Reaktionsgeschwindigkeit einen immensen Wettbewerbsvorteil bringen, aber bei Fehlern theoretisch auch das gesamte Wirtschaftssystem zum Einsturz bringen.

Das ist dann wohl eine Frage der Einschätzung der Entwicklung. Meiner Meinung nach stehen wir hier noch ganz am Anfang einer rasanten Entwicklung und man sollte nicht den Fehler machen, davon auszugehen, dass diese Entwicklung gar nicht stattfindet oder sehr lange brauchen wird, denn dann ist es im Zweifel zu spät für Interventionen.

Hier ist es ähnlich wie beim Thema Klimawandel:
Selbst wenn wir davon ausgehen wollen, dass es keine rasante, gefährlichen Entwicklung der KI-Technologie gibt, haben wir kaum etwas zu verlieren, jetzt trotzdem Regulierungen für den Fall zu machen, dass es doch anders kommt. Also die logische Folgenabwägung sagt einfach, dass man etwaige Regulierungen eher nach dem schlimmsten Szenario ausrichten sollte.

Naja, bei auf bestimmte Themen spezialisierten KIs ist die Zuverlässigkeit deutlich höher und der Produktivitätsgewinn einer Automatisierung ist natürlich verlockend.

Zu dem Thema KI und Arbeitswelt gab es gestern einen, meiner Meinung nach, recht guten und wenig techniklastigen Vortrag von tante auf der re:publica:

Er beschäftigt sich Anfangs kurz mit dem ganzen, aktuellen Hype um „KI“ und von wem dieser Hype kommt, nämlich von den interessierten Parteien (Früher: Big data, heute: „KI“)

Anschließend geht er viel auf die Folgen von „KI“ für die Gesellschaft allgemein und die Arbeitswelt im speziellen ein. Einer seiner Punkte ist, dass viele der Probleme, die wir eventuell bald mit „KI“ haben werden, schon heute mit der etablierten Technik vorhanden sind, also so vielleicht so etwas wie z.B. die Transparenz von Algorithmen (Stichwort: Schufa). Und er hinterfragt in dem Zusammenhang auch, ob wir wirklich so viel neue Regelungen für „KI“ brauchen.

Sehr schönen Vortrag, kann man nur empfehlen.

Solange es noch andere Jobs gibt. Und diese ebenfalls im Gehaltskorridor liegen wie die bisherigen Jobs (z.B. Buchhalter, Steuerberater könnten wegfallen, Alternative sind Pflegeberufe).

Wenn der Staat diese unterstützen soll bei der Suche nach neuen Jobs, stellt sich mir die Frage, woher das Geld nehmen? Wenn durch KI die Wertschöpfung nicht mehr in dem Unternehmen (Abteilung Rechnungswesen in einem Konzern) wie bisher erzeugt wird, sondern durch die KI - wer bekommt diese Wertschöpfung „ausgezahlt“? Das Unternehmen, welches KI einsetzt oder das die KI erzeugt hat? Welcher Steuer wird die KI als Produktionsmittel unterworfen? Welches Land kann die KI besteuern?

Was Texte und Ergebnisse angeht, halte ich eine Kennzeichnungspflicht für mit KI erzeugt Texte, Bilder und Beiträge für erforderlich und aus meiner Sicht technisch einfach umsetzbar (z.B. Wasserzeichen, Hinweistext). Natürlich gibt es auch dort die Möglichkeit der Manipulation, aber es wäre ein Anfang. Vielleicht lässt sich hier Blockchain sinnvoll einsetzen.

Warum hältst du das für notwendig?

Wie willst du das durchsetzen? Viele KI-Modelle sind zum Glück open-source. Was ist, wenn ich einfach eine Variante nutze, die es nicht kennzeichnet?

Wenn die KI wirklich so gut ist, dass es zur Erkennung eine Kennzeichnung braucht, wie willst du erkennen, wenn die Kennzeichen dann doch weggelassen werden?

Hast du Blockchain einfach nur als Schlagwort eingeworfen, oder meinst du einen konkreten Einsatzzweck? Wieso sollte eine Blockchain hier in irgendeiner Form notwendig oder sinnvoll sein?

2 „Gefällt mir“

Blockchain als sichere Nachweiskette erzeugter Produkte durch KI, nicht so anfällig für Fälschungen. Daher der Gedankengang.

Warum ich die Kennzeichnung für relevant halte?
Um eine Unterscheidung zu ermöglichen zwischen menschlichen Produkten und KI generieren Produkten.
Natürlich gibt es ausreichend Möglichkeiten für Betrug, aber die Software die man kennt, kann man regulieren.

Naja, wenn es um Urheberrecht geht und Texte so gekennzeichnet sind, geht es ja auch.
Wenn z.B. ein Auswahlprozess durch KI unterstützt wurde, sollte jeder Bewerber bei Absage, Einladung zum Gespräch, etc. im Anschreiben den Hinweis bekommen, würde durch KI unterstützt oder vorgenommen. Wenn Behörden KI verwenden, sollten die Ergebnisse diesen Hinweis erhalten. Zeitungen, Portale, sollten bei Autorenschaft verpflichtet werden auf die Verwendung/Unterstützung durch KI hinzuweisen.

Ansonsten durchsetzen wie immer: Recht setzen, Einhaltung prüfen, Recht durchsetzen.

Vielleicht naiv, aber anders geht es ja beim Parkverbot auch nicht😉

Ich nicht😉, aber es wird auch hier technische Lösungen geben. Vielleicht entsteht auch so Vertrauen in die Leistungen von KI, wenn Produkte als solche erkennbar sind und andere nicht. Aber ich stecke nicht so tief in den technischen Details solcher Programme.

Mir persönlich macht vielmehr Sorgen, wer den die Wertschöpfung von Leistungen der KI abschöpft. Das hoffe ich auf deine Aussage, dass die meisten Modelle Open Source sind und relativ dezentral verwendet werden können. Wenn sich große Unternehmen durchsetzen, kommt es noch mehr zur Konzentration von Vermögen.

Großkonzerne. Die haben das Geld, die LLMs und neural networks mit entsprechendem Ressourcenaufwand mit den riesigen benötigten Datenmengen zu trainieren.

Ich habe mich vllt etwas missverständlich ausgedrückt. Es gibt da verschiedene Ebenen

  1. die zugrundeliegende Theorie ist frei verfügbar, bringt für sich genommen aber erstmal nicht viel
  2. Programmbibliotheken für Machine Learning (zB Pandas, PyTorch, TensorFlow) sind in der Regel frei verfügbar und open source
  3. KI-Modelle können mit 1 und 2 erstellt werden und müssen dann erstmal von Hand trainiert/kalibriert werden. Das ist der ressourcenaufwendige Teil, der die finanzielle Einstiegshürde darstellt. OpenChatKit
  4. das fertige, trainierte KI-Produkt (zB OpenAssistant, Stable Diffusion)

Auf allen Ebenen gibt es auch open-source Varianten (siehe die Beispiele oben), bei 3 und 4 nimmt aber natürlich der proprietäre Anteil klar zu. Deswegen meinte ich, dass man die Entwickler schwer zu etwas zwingen kann. Im Zweifelsfall macht man sich eben einen Fork, der zB den KI-Hinweis nicht beinhaltet. Trotzdem werden auf absehbare Zeit die relevanten KIs von großen Playern kommen, die die Ressourcen (Daten, Geld, Zeit, Rechenleistung) haben, die KI-Modelle zu trainieren.

2 „Gefällt mir“

Dafür braucht es keine Blockchain:
Wenn es vertrauenswürdige Stellen gibt, können die einfach Zertifikate ausgeben. zB TÜV, irgendwelche Behörden,…

Wenn du so eine Nachweiskette ohne vertrauenswürdige Instanz realisieren wolltest (wieso?), bräuchtest du zwar eine Blockchain, aber dann müsstest du auch sicherstellen, dass alle KI-Produkte die auch nutzen (wie?). Um das sicherzustellen brauchst du auch wieder eine zuständige stelle und die kann dann auch gleich Zertifikate austeilen und sich die Blockchain sparen.

Die werden aber nicht mit Hinweistexten und Wasserzeichen gekennzeichnet, das würde dort auch nicht viel bringen… Kopierschutz ist im eigenen Interesse der Industrie, Kennzeichnung von KI ist es nur eventuell.

Ich hab nochmal nachgedacht und stimme dir hier sogar zu. Es wäre wahrscheinlich schon irgendwie sinnvoll, KI-Nutzung zu kennzeichnen. Meine Skepsis bezüglich der Durchsetzung bleibt allerdings bestehen.

Möglicherweise. Ich sehe grad allerdings noch nicht, wie.

Es wird sicherlich viele Unternehmen geben, die ihre KI Nutzung öffentlich bewerben und das Vertrauen steigern wollen. Das sind allerdings nicht die, wegen denen man eine Kennzeichnungspflicht braucht

1 „Gefällt mir“

Ja, die Frage ist tatsächlich, welche andere Jobs es dann in ausreichender Zahl noch gibt. Wir werden hier wohl massive Verschiebungen im Arbeitsmarkt sehen. Pflege und Gastronomie sind wahrscheinlich noch die mit am wenigsten betroffenen Bereiche.

Ich bin skeptisch, in wie weit man die Markierung KI-generierter Inhalte wirklich durchsetzen kann. Regulatorisch kann man bei großen Anbietern vielleicht Wasserzeichen für generierte Bilder, Videos und Audios erzwingen. Aber sobald die Generatoren als (Open Source) Software auf lokalen Rechnern laufen, wird das schwierig. Und bei Text- und Code-Ausgaben kann man generell nicht viel machen, da die leicht nachzubearbeiten sind.
Ja, rechtliche Regeln für die Nutzung und Kennzeichnung von KI bei Bewerbungsprozessen und Online-Medien sind wichtig.
Ich denke hier gibt es viel zu tun und zu diskutieren…

1 „Gefällt mir“

Die „ausreichende“ Zahl von Jobs beträgt mMn Null.
Ganz im Ernst, eine vollautomatisierte Produktionsgesellschaft ist doch nichts Negatives. Das Menschen aktuell einen Großteil ihrer Selbstverwirklichung über die Arbeit erreichen, ist eher eine Tragödie als ein Erfolg. In einer Zukunftsutopie verwirklichen sich Menschen über Ehrenamt, Politik und co. und nicht darüber, dass sie am Fließband stehen oder Zahlen für ein Unternehmen schubsen…

Bei Pflege kommt es langfristig darauf an, wie offen wir für Automatisierung sind. In Japan ist man da weit offener als in Deutschland. In einer utopischen Gesellschaft stellt sich das Problem allerdings gar nicht mehr, da die Menschen nicht mehr im Produktionssystem arbeiten müssen und sich deshalb wieder selbst um ihre Angehörigen kümmern können und durch Ehrenamt genug Menschen persönlichen Kontakt zu alten Menschen herstellen.

In der Gastronomie ist heute schon ein hoher Automatisierungsgrad möglich.

Die Kernfrage wird in der Tat sein, wie Automatisierungsgewinne verteilt werden - und da wird sich entscheiden, ob es zur Utopie oder Dystopie wird. Eine weitere Vermögensakkumulation in den Unternehmen bei gleichzeitiger höherer Belastung der Staaten durch Versorgung der Arbeitslosen ist natürlich extrem problematisch, andererseits ist das Potential an Effektivitätsgewinn ähnlich wie bei der Industrialisierung so hoch, dass man durchaus von einer durchschnittlichen Erhöhung der Lebensqualität aller Beteiligten ausgehen kann.

Wäre eher die Frage, wie die Erhöhung der Lebensqualität finanziert wird…also eine grundsätzliche Frage, ob unser aktuelles Prinzip der Erwerbsarbeit noch so zukunftsträchtig ist vor diesem Hintergrund.
Die Produktion von Gütern in vollautomatisierten Betrieben folgt ja keinem Selbstzweck, sondern braucht zur Gewinnerzielung auch Abnehmer.

Ich nenne es mal die Raumschiff Enterprise Utopie. Keiner arbeitet, trotzdem gibt es alles.
Ich frage mich schon lange, warum jeder vom Wegfall von Jobs, steigendem BIP, sinkender Erwerbstätigkeit, alternativen Jobs, etc. spricht, aber keiner sagen will, wie er sich die Gesellschaft dazu vorstellt.

Ohne Erwerbstätigkeit keine Teilnahme am gesellschaftlichen Leben - das predigen unisono alle Parteien, selbst die Linken.

Was ist die Utopie der Parteien? Arbeiten wie immer?

Ich lehne diesen Arbeitsmythos prinzipiell ab, wie wohl viele andere, die ein Bedingungsloses Grundeinkommen für die Zukunft für unausweichlich halten, auch.

Ich sehe hier einfach einen massiven konservativen Reflex - auch auf Seiten der linken Parteien. Eben weil die linken Parteien klassischerweise „Arbeiterparteien“ sind und folglich „Arbeit“ hier ein maßgebliches Element der Selbstidentifikation ist.

Ich halte diese „Wer nicht arbeitet, soll auch nicht essen“-Mentalität, mit der auch die Sichtweise „ohne Erwerbstätigkeit keine Teilnahme am gesellschaftlichen Leben“ verwandt ist, für grundfalsch. Diese Aussagen gehören in Zeiten, in denen die Arbeitskraft jedes Einzelnen nötig war, um Hungersnöte oder andere Probleme zu vermeiden - nicht in Zeiten, in denen wir den Dienstleistungssektor immer weiter und weiter aufpumpen, um sinnlose Jobs zu schaffen, damit bloß niemand arbeitslos sein muss.

2 „Gefällt mir“

Ich muss zugeben, das mir die Richtung dieser Entwicklung noch nicht ganz klar ist.
Wie viele technische Entwicklungen soll KI unser Leben und speziell Arbeitsprozesse vereinfachen, ggf automatisieren.
Das bedeutet perspektivisch, das schrittweise viele zeitintensive Tätigkeiten wegfallen, und teils durch deutlich weniger zeitintensive Tätigkeiten ersetzt werden.
Bei diesem Trend wäre es denkbar, das wir viele mögliche Arbeitskräfte ohne auskömmliche Erwerbsarbeit haben, andererseits Unternehmen mit erhöhter Produktivität und Effektivität und damit ggf höherer Produktion.

  1. Wer ist letzlich Käufer dieses erhöhten Aufkomnens von Produkten?
  2. Wie werden für die möglicherweise beschäftigungslosen Arbeitskräfte die Lebenshaltungskosten erwirtschaftet?

Ist jetzt sehr weit gedacht und sehr theoretisch, aber wäre mal eine Denkrichtung.

Ich schmeiß einfach mal den Begriff „Grundeinkommen“ ins Rennen.
Das wird eine harte Revolution erfordern. Aber nur, wenn wir derartige Dinge neu denken, können wir diese Transformation schaffen. Und ich sehe da großes Potential, Ehrenamt und Care-Arbeit völlig neu zu bewerten.

Finde die Idee sehr charmant weil damit u.a. die bislang unbezahlte Arbeit wie CareArbeit/Hausarbeit gewürdigt wird.

Allerdings stelle ich mir die Finanzierung schwierig vor, wenn weniger Menschen einer klassischen Erwerbsarbeit nachgehen, somit weniger Steuern zahlen.
Ob die Unternehmen dann mehr in die Gemeinschaft einzahlen? Die ggf höheren Gewinne durch mehr ki-gestütze Produktivität wären dann quasi wieder weg. Welcher Anreiz besteht da für Unternehmen?

Oder hat sich unser Verständnis von Kapitalismus und Marktwirtschaft überlebt?

Ich kann mir auch sehr gut vorstellen, dass aktuelle Schlagzeilen wie „KI wird Job XY überflüssig machen!“, oder „So und soviel tausend Jobs durch KI bedroht!“ und so weiter, sich in ein paar Jahren als völlige Überhöhung der aktuellen Technik beurteilt werden.

Das autonome Fahren soll ja, laut einigen Leuten, auch schon seit Jahren seinen Durchbruch haben, führt aber weiter ein Nischen-Dasein. Gut möglich, dass wir jetzt eine Situation bekommen werden, in der es ständig heißt: „Nächstes Jahr könnte Ihr Job durch KI ersetzt werden“ aber nichts passiert wirklich. Außer vielleicht, dass sich ein paar Leute deswegen mit ihren Lohnforderungen zurück halten.

1 „Gefällt mir“