Neue Technologie: Chat GPT, Künstliche Intelligenz und Implikationen auf politischen Diskurs

Wird sich sicher - genau wie das Internet, das WWW oder die E-Mail - als Randphänomen entpuppen.

5 „Gefällt mir“

Hast du denn schon Microsoft-Aktien deswegen gekauft?

An einen Microsoft-Boom infolge der OpenAI Kooperation glaube ich persönlich ja nicht mehr.

Sowohl Sam Altman als auch Google Mitarbeiter sehen die Zukunft der KI (vor allem der LLMs) in Open Source. Es ist beeindruckend wie die Open-Source Forks von LLama und Co. gerade wie Pilze aus dem Boden spriezen. Dabei sind diese Modelle wesentlich kleiner, kostengünstiger im Betrieb und doch in ihrem trainierten Use Case mindestens so performant wie GPT 3.5 (die kostenfreie ChatGPT Version). Dabei kostet deren Training nur wenige hundert Euro und erfordert auch keine Hardcore-Data Scientists (mehr).

Will sagen, OpenAIs ChatGPT oder Googles Bard wird wohl nicht die Zukunft sein. Ich würde eher auf Cloud Provider (okay, dann also doch wieder MS, Google, AWS oder die LIDL-Cloud :smiley: ) setzen (der Rechenkapazität wegen) oder noch eher Hardware-Ausrüster, vor allem Grafikkartenhersteller.

Zum Thema:

Soll das ein Witz sein? Du scheinst bezüglich der Thematik etwas frustriert zu sein - warum denn? :smile:

Danke, das wollte ich auch schon posten. :slight_smile:

Nö, das war eine ernst gemeinte Frage. Wenn jemand sagt, er sehe in KI eine vielversprechende Technologie, dann kann man ja durchaus annehmen, er würde da sein Geld investieren.

Ist eigentlich eine gute Frage. Wenn man sich ansieht, wie die vermeintlichen Fachleute (denen entweder KI-Firmen gehören, die leitend für KI-Firmen arbeiten oder im KI-Bereich forschen) gerade mit Weltuntergangs-Warnungen um sich schmeißen, dann weiß man als intelligenter Mensch, dass das alles nur Hype sein kann und ihre Produkte in Wirklichkeit kaum mehr können, als das was wir schon gesehen haben.

Tatsächlich sehe ich genau 2 Probleme, die wir mit KI bekommen könnten: Werbetexter u.Ä. könnten ihren Job verlieren und Bild-KI könnten die Erstellung von Fakes erleichtern.

Insofern hast du natürlich irgendwo recht, das ist alles nichts Bedrohliches oder Gesellschaft-umwälzendes.

Also diese Schlussfolgerung erschließt sich mir nicht, zumindest nicht als derart zwingender Zusammenhang.

Ich finde es bei der Diskussion weiterhin sehr problematisch, dass zu sehr auf die Extreme geschaut wird. Die Einen sehen nur die Gefahren und warnen schon vor dem Weltuntergang, erkennen aber kaum einen Nutzen an, die anderen sehen nur den potentiellen Nutzen und sind bereit, die Gefahren größtenteils zu ignorieren.

Zu einer fairen Kosten-Nutzen-Abwägung gehört es, beide Seiten der Waagschale fair zu bewerten, daher sowohl die Chancen als auch die Gefahren. Ich bewerte die künstliche Intelligenz im Hinblick auf Schaden und Nutzen ähnlich wie das Internet (inklusive sozialer Medien und allem, was noch daraus gewachsen ist). Das Internet hat die Gesellschaft maßgeblich verändert und auch teilweise massive Verbesserungen herbeigeführt, hat aber auch eine erhebliche Schattenseite gerade für den demokratischen Prozess - und öffnet viele neue Angriffswege auf kritische Infrastrukturen sowie Möglichkeiten zu kriminellen Handlungen.

Man sollte bei der Frage nach Regulierungen weder nur auf die Chancen, noch nur auf die Risiken schauen - und man sollte die Technologie ganz bestimmt nicht aus Angst vor den Risiken im Keim ersticken, wie es manche fordern (alleine schon, weil das nicht weltweit funktionieren wird…).

Ich denke, die Gefahren sind wesentlich größer. „Jobverluste“ durch Automatisierung sind gesellschaftlich betrachtet generell ein Gewinn und kein Verlust, wer das anders sieht kann ja gerne wieder alle Maschinen in der Landwirtschaft verbieten, damit wieder 97% der Bevölkerung dort Arbeit finden können… Zum gesellschaftlichen Fortschritt gehört es leider auch, dass wenn Jobs automatisiert werden können, manche Menschen sich einen anderen Job suchen müssen - und der Staat diese Menschen dabei unterstützen muss.

Die tatsächlichen Gefahren liegen eher in den subtilen gesellschaftlichen Wandlungsprozessen, wenn immer mehr Texte, die wir konsumieren, aus einer KI stammen. Die Manipulation von Menschenmassen und gesellschaftlichen Aushandlungsprozessen (sowohl Wahlen als auch Sachfragen) ist hier eine in der Tat erhebliche Gefahr, die man kaum überschätzen kann.

Da bin ich nicht ganz bei dir.
Der aktuelle Fortschritt der KI (also Large Language Models) ist sicher beeindruckend, insbesondere für Übersetzungen, den dafür waren sie ja auch ursprünglich gedacht.

Allerdings sehe ich Erfindungen wie Buchdruck, Telefonie, Internet und einige andere noch mal auf einem höheren Level, als KI. Und damit meine Ich jegliche KI-Entwicklungen, jemals. Ich denke nämlich, dass für uns Menschen die Kommunikation mit anderen Menschen immer das Wichtigste sein wird.

Und in den aktuellen KI-Systemen sehe ich eher ein Hilfsmittel für die bereits existierenden Kommunikations-Formen, also z.B. für Textumgestaltung bei Mails und solche Dinge, im Grunde eine Hightech-Rechtschreibhilfe. Vielleicht hilft KI auch noch bei Rechercheaufgaben, vor allem beim Suchen.

Aber selbst beim Zusammenfassen von Texten scheinen mir KI-Systeme prinzipbedingt zu riskant zu sein, um sich darauf zu verlassen. Liegt hauptsächlich daran, dass die Informationen, mit denen eine „wahrheitsgemäße“ KI gefüttert werden müsste, ja alle von Menschen kontrolliert werden müssten. Das halte ich für unpraktikabel.

Eine Gefahr ist das sicher. Aber diese Gefahr gar es schon immer. Und Sie wird meiner Meinung nach durch KI nicht wesentlich größer. Ob ein Populist wie Trump seine Wähler nun mithilfe von KI-Texten einlullt oder durch ein Team von bezahlten Wahlkampf-Textern, ist doch eher zweitrangig.

Das hier könnte man theoretisch auch noch als eine Gefahr einordnen, die durch die aktuellen KI-Systeme entstehen könnte:

Aber im Grunde ist dieser Anwalt nur ein weiteres Opfer von übertriebenen Werbeversprechen über die vermeintlich so tollen KI-Systeme.

Und der Fall unterstreicht mein Argument von oben, dass man solchen Systemen nicht trauen darf, wenn es um Recherchen geht.

Ich glaube diese Meinung würdest du spätestens ändern, wenn wir in das Zeitalter vollautonomer Waffensysteme eintreten, was, wenn es keine Regulierungen gibt, zwangsläufig irgendwann passieren wird. Auch Überwachungssysteme könnten durch KI unglaublich viel effektiver werden, da die Auswertung von Big Data durch Menschen einfach jetzt schon nicht möglich ist, die Möglichkeiten einer KI hier aber nahezu unbegrenzt sind.

Auf den positiven Seiten hat die Fortentwicklung von KI im Bereich der Produktionsverfahren und Produktionssteuerung erhebliches Optimierungspotential, das tatsächlich im besten Fall mit dem Optimierungspotential durch die Industrialisierung vergleichbar sein könnte.

Es ist eher ein weiteres Beispiel dafür, dass der Nutzer das Problem ist, nicht das Werkzeug.
KI ist ein Werkzeug - und um dieses Werkzeug optimal nutzen zu können, muss der Nutzer eine gewisse Kompetenz mitbringen, daher in der Lage sein, offensichtlich falsche Ergebnisse zu erkennen und die KI zum richtigen Ergebnis zu leiten.

Kürzlich habe ich ChatGPT zum Beispiel benutzt, um Wahrscheinlichkeitsrechnungen zu machen. Ich war zu faul, die Formeln für diskrete Wahrscheinlichkeitsrechnungen, Markovketten und co. rauszusuchen und dachte mir: Lass es halt ChatGPT machen.

Die ersten Ergebnisse waren offensichtlich falsch (mir war klar, dass das Ergebnis im niedrigen einstelligen Prozentbereich liegen muss, ChatGPT spuckte Zahlen im Bereich von 25% und höher aus). Einmal habe ich ChatGPT aufgefordert, den Rechenweg anzuzeigen - dann kam plötzlich das richtige Ergebnis raus. Ein anderes Mal habe ich ChatGPT direkt vorgegeben, diskrete Wahrscheinlichkeitsrechnung und in einem anderen Fall die Markovkette zu verwenden und es kam ebenfalls zum richtigen Ergebnis, nachdem ChatGPT vorher ein völlig falsches Ergebnis phantasiert hat.

Das zeigte sehr schön, dass ChatGPT in jedem Fall ein nützliches Werkzeug sein kann, aber man muss halt halbwegs kompetent damit umgehen können. Es erinnerte mich ein wenig an die Anfänge der Suchmaschinen - und hat ein ähnliches Potential, wie es die Suchmaschinen damals hatten (bis hin zur Entstehung eines der größten Konzerne der Welt…).

Damit kommen wir zwar etwas vom Thema ab, aber ich antworte mal trotzdem. Vorweg: Ich halte die Entwicklung von effektiven und ausreichend sicheren autonomen Waffensystemen, für ziemliche Zukunftsmusik.

Aber nehmen wir mal an, es gebe solche autonomen Systeme, sagen wir mal eine echte autonome Drohne, der man nur eine Zielkoordinate gibt, die dann selbstständig losfliegt und eine Rakete an dem Zielort abschießt.

Wo wäre da die große Veränderung gegenüber der heutigen Situation mit halb-autonomen Drohnen, mit denen die USA in Afghanistan und anderen Ländern von den USA aus operieren? Die US-Drohnenpiloten bekommen von den Folgen, die ihre Einsätze vor Ort auslösen doch jetzt schon kaum etwas mit.

Und das ist, meiner Meinung nach das eigentliche Problem, wenn wir über Waffensysteme reden, dass der Krieg in immer größerer Entfernung geführt werden kann und dadurch immer stärker entmenschlicht wird. Diese Entwicklung würde durch autonome Waffen, wenn es sie den gäbe, sicher noch weiter voranschreiten, aber wir sind da, meiner Ansicht nach, bereits heute an einem sehr beunruhigenden Punkt.

Da bin ich völlig bei dir.

Aber widerspricht nicht genau das (also die Notwendigkeit eines kompetenten Anwenders und die Kontrolle der Ergebnisse der KI-Systeme), der Vorstellung, dass man mithilfe von KI viele Arbeitskräfte einsparen kann?
Den was würde es nützen, wenn eine KI zum Beispiel 100 Texte in 10 Sekunden erstellen würde, wenn danach noch ein Mensch 10 Minuten lang jeden Text durchlesen müsste und ggf. noch kleinere, inhaltliche Korrekturen vornehmen müsste?

Da bin ich auch fast deiner Meinung. Aber ich würde das nicht auf die Anfänge der Suchmaschinen beschränken. Noch heute ist es durchaus ein Softskill mit Google und Co. schnell zum richtigen Ergebnis zu kommen.
Vielleicht werden KI-Systeme da eine Verbesserung bringen, vielleicht aber auch nur neue Unsicherheiten, mal schauen.

Solange das Risiko nur darin besteht, dass man selbst falsche Ergebnisse bekommt und nutzt und dies nur einen selbst schadet, kann ich damit gut Leben. Jeder eines Glückes Schmied …

Aber wir geben ein offenbar unglaublich wirkmächtiges Instrument in die Hände der Öffentlichkeit und vertrauen darauf, dass niemand auf die ganz schlimmen Ideen kommt, was man damit anfange konnte. Das ist naiv.

Nicht ohne Grund wird der Zugang zu Sprengsstoff, Viren, gefährliche Chemikalien, Atomkraft, u.v.m. beschränkt.

Aber, ehrlich gesagt: Ich habe auch keine Lösung. Denn verbieten will ich hochentwickelte KIs (LLMs), die sog. emergente Fähigkeiten (unvorhersehbare und plötzliche Leistungssprünge oder Fähigkeiten, die von den Entwicklern gar nicht intendiert waren) entwickeln, nicht. Dazu sind die damit verbundenen Chancen für die Menschheit einfach zu verlockend.

Nicht nur im Zusammenhang mit Waffensystem: KI wird umso gefährlicher, je mehr sie in Systeme eingebunden werden und dort vollautomatisch autonome Entscheidungen trifft. Genau dafür gibt es die von der EU vorgeschlagene Regulierung. Ich habe noch kein Überblick darüber, was dort genau geregelt wird, gehe aber davon aus, dass der Einsatz von KI bei der Entscheidungsunterstützung reguliert wird, sobald das Wohl und Wehe anderer Menschen davon betroffen ist. Das müssen gar nicht Waffen sein. Das kann schon der Antrag auf eine Krankenversicherung oder ein Darlehen sein.

Es ist zu befürchten, dass es kreativere Formen von Waffensystemen geben wird, als klassische Drohnen. Das “Future of Life Institute” (das sind die mit dem Offenen Brief für das Moratorium) hat schon vor vier Jahren zusammen mit dem britischen KI-Forscher Stuart Russel das Video “Slaughterbots” produziert, welches ein Horrorszenario für die Nutzung autonomer Waffensysteme an die Wand malt:

Hier eine gekürzte Fassung in deutscher Sprache.

Eine Gefahr solcher Waffen ist auch, dass praktisch nicht mehr nachvollziehbar ist, wer der Urheber eines Angriffs ist, was die Hürde für ihre Anwendung senken dürfte.

1 „Gefällt mir“

Da bin ich eigentlich bei dir. Aber warum sollte man KI-Systeme allein wichtige Entscheidungen treffen lassen? Inzwischen wissen doch alle wie unzuverlässig diese Systeme sein können.

Würde z.B. eine Bank die Entscheidung über Kreditvergabe per KI erledigen lassen, wie stellt man sicher, dass die KI keine Kredite vergibt, die zu Ungunsten der Bank sind? So etwas muss doch die Bank zwangsläufig überwachen, oder?

Wenn ich darauf ausführlich antworten würde, würde ich damit wohl ein zu großes Fass aufmachen und wir würden uns in Detailfragen über die technische Machbarkeit und militärische Sinnhaftigkeit solcher Waffensysteme verlieren.

Das würde ich bei Interesse eher per PM diskutieren.

Aber kurzum halte ich die Entscheidungsqualität von heutigen KI-Systemen für viel zu schlecht, um sie selbstständig Entscheidung treffen zu lassen.

Das gilt für Menschen aber eben auch.
Die Frage ist letztlich bei jeder einzelnen KI Anwendung, ob der Mensch zuverlässiger oder unzuverlässiger ist als die KI. Gerade bei Masse-Vorgängen dürfte es sehr schnell KIs geben, die zuverlässiger als Menschen agieren.

Weitere Punkte, warum es Sinn machen kann, KIs statt Menschen Entscheidungen treffen zu lassen, sind unter andere:

  1. Schutz des Menschen vor psychischen Traumatisierungen beim Einsatz tödlicher Gewalt. Die von dir genannten Drohnenpiloten fallen jetzt schon teilweise massenhaft aus und werden Dienstunfähig, weil eben das Drücken des „Kill-Buttons“ für die meisten Menschen psychisch nicht ohne Folgen bleibt. Ein skrupelloser Staat hat hier ein großes Interesse an Automatisierung durch KIs.

  2. Schlicht die Reaktionszeit. Gerade wenn es um immer modernere Waffensystem geht sind Millisekunden absolut entscheidend, vor allem z.B. bei Dingen wie Raketenabwehr, aber auch im Angriff. Bei den Drohneneinsätzen der USA, die ja teilweise aus Ramstein gesteuert werden, kommt es bei menschlicher Steuerung alleine schon wegen des Übertragungsweges des Bildmaterials und der Befehle zu erheblichen Verzögerungen, selbst wenn der Drohnenführer „blitzschnell“ reagiert. Eine On-Board-KI würde hier die Effizienz erheblich steigern. Aber auch außerhalb des militärischen Bereichs ist die Reaktionszeit oft wichtig, z.B. beim autonomen Fahren oder - auch ein sehr heißes Thema - beim Hochfrequenzhandel an den Börsen. Auch hier können autonome KIs auf Grund der Reaktionsgeschwindigkeit einen immensen Wettbewerbsvorteil bringen, aber bei Fehlern theoretisch auch das gesamte Wirtschaftssystem zum Einsturz bringen.

Das ist dann wohl eine Frage der Einschätzung der Entwicklung. Meiner Meinung nach stehen wir hier noch ganz am Anfang einer rasanten Entwicklung und man sollte nicht den Fehler machen, davon auszugehen, dass diese Entwicklung gar nicht stattfindet oder sehr lange brauchen wird, denn dann ist es im Zweifel zu spät für Interventionen.

Hier ist es ähnlich wie beim Thema Klimawandel:
Selbst wenn wir davon ausgehen wollen, dass es keine rasante, gefährlichen Entwicklung der KI-Technologie gibt, haben wir kaum etwas zu verlieren, jetzt trotzdem Regulierungen für den Fall zu machen, dass es doch anders kommt. Also die logische Folgenabwägung sagt einfach, dass man etwaige Regulierungen eher nach dem schlimmsten Szenario ausrichten sollte.

Naja, bei auf bestimmte Themen spezialisierten KIs ist die Zuverlässigkeit deutlich höher und der Produktivitätsgewinn einer Automatisierung ist natürlich verlockend.

Zu dem Thema KI und Arbeitswelt gab es gestern einen, meiner Meinung nach, recht guten und wenig techniklastigen Vortrag von tante auf der re:publica:

Er beschäftigt sich Anfangs kurz mit dem ganzen, aktuellen Hype um „KI“ und von wem dieser Hype kommt, nämlich von den interessierten Parteien (Früher: Big data, heute: „KI“)

Anschließend geht er viel auf die Folgen von „KI“ für die Gesellschaft allgemein und die Arbeitswelt im speziellen ein. Einer seiner Punkte ist, dass viele der Probleme, die wir eventuell bald mit „KI“ haben werden, schon heute mit der etablierten Technik vorhanden sind, also so vielleicht so etwas wie z.B. die Transparenz von Algorithmen (Stichwort: Schufa). Und er hinterfragt in dem Zusammenhang auch, ob wir wirklich so viel neue Regelungen für „KI“ brauchen.

Sehr schönen Vortrag, kann man nur empfehlen.

Solange es noch andere Jobs gibt. Und diese ebenfalls im Gehaltskorridor liegen wie die bisherigen Jobs (z.B. Buchhalter, Steuerberater könnten wegfallen, Alternative sind Pflegeberufe).

Wenn der Staat diese unterstützen soll bei der Suche nach neuen Jobs, stellt sich mir die Frage, woher das Geld nehmen? Wenn durch KI die Wertschöpfung nicht mehr in dem Unternehmen (Abteilung Rechnungswesen in einem Konzern) wie bisher erzeugt wird, sondern durch die KI - wer bekommt diese Wertschöpfung „ausgezahlt“? Das Unternehmen, welches KI einsetzt oder das die KI erzeugt hat? Welcher Steuer wird die KI als Produktionsmittel unterworfen? Welches Land kann die KI besteuern?

Was Texte und Ergebnisse angeht, halte ich eine Kennzeichnungspflicht für mit KI erzeugt Texte, Bilder und Beiträge für erforderlich und aus meiner Sicht technisch einfach umsetzbar (z.B. Wasserzeichen, Hinweistext). Natürlich gibt es auch dort die Möglichkeit der Manipulation, aber es wäre ein Anfang. Vielleicht lässt sich hier Blockchain sinnvoll einsetzen.

Warum hältst du das für notwendig?

Wie willst du das durchsetzen? Viele KI-Modelle sind zum Glück open-source. Was ist, wenn ich einfach eine Variante nutze, die es nicht kennzeichnet?

Wenn die KI wirklich so gut ist, dass es zur Erkennung eine Kennzeichnung braucht, wie willst du erkennen, wenn die Kennzeichen dann doch weggelassen werden?

Hast du Blockchain einfach nur als Schlagwort eingeworfen, oder meinst du einen konkreten Einsatzzweck? Wieso sollte eine Blockchain hier in irgendeiner Form notwendig oder sinnvoll sein?

2 „Gefällt mir“