Neue Technologie: Chat GPT, Künstliche Intelligenz und Implikationen auf politischen Diskurs

Ich muss sagen, ich fand den Podcast etwas zu reißerisch. Da wurde zum Beispiel das Wort „Generative“ im Kürzel „GPT“ als echte „Kreativität“ ausgelegt. Das halte ich für weit übertrieben. Aber okay, der Podcast ist vom 16.12. und vielleicht wollte die New York Times da besonders schnell mit einer Einschätzung sein.

Bei HR-Info gibtes seit gestern einen sehr guten Podcast zu dem Thema, der sich kritisch mit der Bedeutung solcher „KI-Tools“ für die Bildung auseinander setzt.
Mir persönlich hat der Podcast insgesamt sehr gut gefallen, speziell wen sie da so befragt haben:

Generell habe ich aber das Gefühl, dass die journalistische Berichterstattung das ganze Thema etwas zu hoch hängt.

Die Wikipedia hat ja auch das Leben vieler Menschen durchaus bereichert und vereinfacht und wurde am Anfang wegen ihres Einflusses speziell auf den Bildungssektor stark diskutiert und auch kritisiert. Aber hat es zu wirklich gravierenden gesellschaftlichen Änderungen geführt? Eher nicht. Wir müssen alle immer noch zur Arbeit und die Kinder in die Schule.

Die Integration von chatGPT in das Microsoft Eco-System wird das next big thing… Klar, es wird Bing stärken aber für die Berufstätigen, die Office Produkte verwenden, werden diverse neue Arbeitsweisen ermöglicht. In einem unternehmensweiten Intranet basierend auf Sharepoint wird nicht mehr gesucht werden, diese Wissensbasis unterstützt zusammen mit dem weiteren Content aus den Office Produkte jede alltägliche Arbeit am PC. Hiermit ist auch die politische Diskussion, redaktionelle Arbeit, Bildung und Wissenschaft gemeint. Risiken und Nebenwirkung dürfen gerne beachtet werden.

1 „Gefällt mir“

Es sind immer wieder die gleichen Untergangsprophezeiungen, meist aus der konservativen Ecke. Eben weil dort nicht realisiert wird, dass „Veränderung“ nicht gleichbedeutend mit „Verschlechterung“ ist. Es wird sich so verkrampft an der gegenwärtigen Situation festgehalten, dass man gar nicht realisiert, dass man einfach auch mal die Rahmenbedingungen an eine neue Situation anpassen muss.

Klassisches Beispiel ist da die Einführung von Rechtschreibekorrektur und Textverarbeitungsprogrammen im Rahmen von (universitären) Hausarbeiten. Was wurde da gejammert, dass man eines der - vor allem in den Gesellschaftswissenschaften - maßgeblichen Bewertungskriterien verloren hatte? Denn plötzlich konnte man die Studenten nicht mehr anhand ihrer Rechtschreibung bewerten.

Aber wo ist da das Problem? Durch die Einführung der Rechtschreibekorrektur hat die Fähigkeit der Rechtschreibung im beruflichen Alltag einfach massiv an Wert verloren. Warum also an diesem Bewertungskriterium festhalten?

Ähnliches gilt für ChatGPT. Wenn eine Chat-KI es ermöglicht, verwertbare Zusammenfassungen von literarischen Werken oder politischen Diskussionen auf Knopfdruck zu erzeugen, wird diese Fähigkeit einfach in der Zukunft keinen Wert mehr haben. Dann muss man sich eben andere Prüfungsmöglichkeiten überlegen. Aber offensichtlich bevorzugen einige Menschen es, lieber die Technologie zu verbieten oder einzuschränken, statt die Realitäten dem technologischen Stand anzupassen. Was das wiederum für die internationale Konkurrenzfähigkeit langfristig bedeutet kann sich jeder selbst ausmalen. Einen Gefallen tun wir uns mit dieser Denkweise sicherlich nicht.

1 „Gefällt mir“

Es gibt aktuell eine Folge des Lanz+Precht-Podcasts zu dem Thema, die ich recht gut finde. Insbesondere Herr Precht äußert da einige sehr sinnvolle Punkte zu ChatGPT und KIs im Allgemeinen:

Ich halte die jüngste Keynote Yuval Hararis zum Thema für den gradlinigsten Gedankengang, jenseits der Ablenkung durch technische Details, abschließend und umfassend und in seiner Form und sprachlichen Aufbereitung unübertreffbar.

1 „Gefällt mir“

Na, dann werfe ich noch diesen Vortrag als ganz besonders Interessent wie auch beunruhigend in den Ring: The A.I. Dilemma - Tristan Harris & Aza Raskin - Center for Humane Technology - March 9, 2023 - YouTube. Das sind die 1 Stunde 10 Minuten auf jeden Fall wert.

Harris und Raskin haben sich mit ihrem Center for Humane Technology bereits einen Namen gemacht, in dem Sie auf die psychologischen und soziologischen Konsequenzen von Sozialen Medien auf die Gesellschaften hinweisen. Nun befassen Sie sich sehr kompetent und mit gebührendem Abstand mit dem Thema Künstliche Intelligenz.

Insgesamt bin ich, offen gestanden, etwas enttäuscht, wie unsere Medien sich dem Thema „Künstliche Intelligenz“ widmen.

Bei den Risiken geht es mir nicht nur um die Diskussion um die (offenbar eher philosophisch zu argumentierenden) Risiken einer „Superintelligenz“, um die einfache und daher massenhafte Produktion von Fake oder die Umwälzungen in der Arbeitswelt. Darüber wird viel (und immer wieder ab-) geschrieben.

Viel wichtiger sind die soziologischen und philosophischen Auswirkungen auf uns, die Menschen, die Gesellschaft. Und die Wirkmechanismen, wie diese Auswirkungen von der Technologie auf uns ausgeübt werden. Darüber wird leider fast überhaupt nicht gesprochen.

Wir haben ja die Wirkmechanismen und gesellschaftlichen Auswirkungen von Technologie auf die Gesellschaft bereits im Fall der sozialen Medien viel zu spät erkannt (und reden auch heute noch viel zu wenig darüber). Im Fall von Künstlicher Intelligenz könnten diese Auswirkungen noch viel umfassender und erheblicher sein.

Das CHT hat sich bereits im Kontext der systemischen Schäden der Aufmerksamkeitsökonomie (sozialen Medien) einen Namen gemacht. Die Einschätzung der beiden Technologen haben mich, der sich als ziemlich Technologie-affin einschätzt, sehr verunsichert zurückgelassen.

(Fortsetzung folgt)

3 „Gefällt mir“

Hier sind die wichtigsten Take-aways aus dem Vortrag (maschinelle Übersetzung, teils von mir korrigiert):

Die Hälfte der KI-Forscher glaubt, dass es eine 10%ige oder höhere Chance gibt, dass die Menschheit aufgrund ihrer Unfähigkeit, die KI zu kontrollieren, aussterben wird.

Wenn wir eine neue Technologie erfinden, entdecken wir eine neue Klasse von Verantwortung. Wenn diese Technologie Macht verleiht, beginnt ein Wettlauf – und wenn wir uns nicht koordinieren, endet der Wettlauf in einer Tragödie.

Der „Erste Kontakt“ der Menschheit mit KI war Social Media – und die Menschheit hat verloren. Wir haben die Fehlausrichtung durch kaputte Geschäftsmodelle, die maximale Aufmerksamkeit fördern, immer noch nicht behoben.

Große Sprachmodelle (LLM) sind der „Zweite Kontakt“ der Menschheit und wir sind bereit, dieselben Fehler zu machen.

Sicherheitsvorkehrungen, von denen man vielleicht annehmen, dass sie existieren, gibt es tatsächlich nicht. KI-Unternehmen setzen ihre Arbeit schnell beim Publikum ein, anstatt sie über einen längeren Zeitraum sicher zu testen. KI-Chatbots wurden auf Plattformen hinzugefügt, die Kinder nutzen, wie Snapchat (sie zeigen ein Beispiel, in dem der Snapchat KI eine 13-Jährige animiert, mit ihrer sehr viel älteren Internetbekanntschaft zu schlafen). Sicherheitsforscher sind knapp und der größte Teil der Forschung wird von gewinnorientierten Interessen angetrieben statt von der Wissenschaft.

Die Medien haben die Fortschritte in der KI nicht so dargestellt, dass wir wirklich sehen können, was auf dem Spiel steht.

Hausaufgaben mit KI zu betrügen oder urheberrechtlich geschützte Kunst für KI-generierte Bilder zu stehlen, sind nur kleine Beispiele für die systemischen Herausforderungen, die vor uns liegen.

Unternehmen befinden sich in einem Wettrüsten um den Einsatz ihrer neuen Technologien und um so schnell wie möglich Marktdominanz zu erlangen. Im Gegenzug werden die von ihnen präsentierten Erzählungen so gestaltet, dass sie mehr über Innovation und weniger über potenzielle Bedrohungen handeln.

Wir sollten die Verantwortung dafür bei den Machern von KI belassen – anstatt bei den Bürgern – um ihre Gefahr zu beweisen.

Transparenzhinweis: Ich habe keinerlei Beziehungen zum Center of Humane Technologie

3 „Gefällt mir“

Hoffentlich ist dieser ganze KI-Hype bald vorbei.

Wird sich sicher - genau wie das Internet, das WWW oder die E-Mail - als Randphänomen entpuppen.

5 „Gefällt mir“

Hast du denn schon Microsoft-Aktien deswegen gekauft?

An einen Microsoft-Boom infolge der OpenAI Kooperation glaube ich persönlich ja nicht mehr.

Sowohl Sam Altman als auch Google Mitarbeiter sehen die Zukunft der KI (vor allem der LLMs) in Open Source. Es ist beeindruckend wie die Open-Source Forks von LLama und Co. gerade wie Pilze aus dem Boden spriezen. Dabei sind diese Modelle wesentlich kleiner, kostengünstiger im Betrieb und doch in ihrem trainierten Use Case mindestens so performant wie GPT 3.5 (die kostenfreie ChatGPT Version). Dabei kostet deren Training nur wenige hundert Euro und erfordert auch keine Hardcore-Data Scientists (mehr).

Will sagen, OpenAIs ChatGPT oder Googles Bard wird wohl nicht die Zukunft sein. Ich würde eher auf Cloud Provider (okay, dann also doch wieder MS, Google, AWS oder die LIDL-Cloud :smiley: ) setzen (der Rechenkapazität wegen) oder noch eher Hardware-Ausrüster, vor allem Grafikkartenhersteller.

Zum Thema:

Soll das ein Witz sein? Du scheinst bezüglich der Thematik etwas frustriert zu sein - warum denn? :smile:

Danke, das wollte ich auch schon posten. :slight_smile:

Nö, das war eine ernst gemeinte Frage. Wenn jemand sagt, er sehe in KI eine vielversprechende Technologie, dann kann man ja durchaus annehmen, er würde da sein Geld investieren.

Ist eigentlich eine gute Frage. Wenn man sich ansieht, wie die vermeintlichen Fachleute (denen entweder KI-Firmen gehören, die leitend für KI-Firmen arbeiten oder im KI-Bereich forschen) gerade mit Weltuntergangs-Warnungen um sich schmeißen, dann weiß man als intelligenter Mensch, dass das alles nur Hype sein kann und ihre Produkte in Wirklichkeit kaum mehr können, als das was wir schon gesehen haben.

Tatsächlich sehe ich genau 2 Probleme, die wir mit KI bekommen könnten: Werbetexter u.Ä. könnten ihren Job verlieren und Bild-KI könnten die Erstellung von Fakes erleichtern.

Insofern hast du natürlich irgendwo recht, das ist alles nichts Bedrohliches oder Gesellschaft-umwälzendes.

Also diese Schlussfolgerung erschließt sich mir nicht, zumindest nicht als derart zwingender Zusammenhang.

Ich finde es bei der Diskussion weiterhin sehr problematisch, dass zu sehr auf die Extreme geschaut wird. Die Einen sehen nur die Gefahren und warnen schon vor dem Weltuntergang, erkennen aber kaum einen Nutzen an, die anderen sehen nur den potentiellen Nutzen und sind bereit, die Gefahren größtenteils zu ignorieren.

Zu einer fairen Kosten-Nutzen-Abwägung gehört es, beide Seiten der Waagschale fair zu bewerten, daher sowohl die Chancen als auch die Gefahren. Ich bewerte die künstliche Intelligenz im Hinblick auf Schaden und Nutzen ähnlich wie das Internet (inklusive sozialer Medien und allem, was noch daraus gewachsen ist). Das Internet hat die Gesellschaft maßgeblich verändert und auch teilweise massive Verbesserungen herbeigeführt, hat aber auch eine erhebliche Schattenseite gerade für den demokratischen Prozess - und öffnet viele neue Angriffswege auf kritische Infrastrukturen sowie Möglichkeiten zu kriminellen Handlungen.

Man sollte bei der Frage nach Regulierungen weder nur auf die Chancen, noch nur auf die Risiken schauen - und man sollte die Technologie ganz bestimmt nicht aus Angst vor den Risiken im Keim ersticken, wie es manche fordern (alleine schon, weil das nicht weltweit funktionieren wird…).

Ich denke, die Gefahren sind wesentlich größer. „Jobverluste“ durch Automatisierung sind gesellschaftlich betrachtet generell ein Gewinn und kein Verlust, wer das anders sieht kann ja gerne wieder alle Maschinen in der Landwirtschaft verbieten, damit wieder 97% der Bevölkerung dort Arbeit finden können… Zum gesellschaftlichen Fortschritt gehört es leider auch, dass wenn Jobs automatisiert werden können, manche Menschen sich einen anderen Job suchen müssen - und der Staat diese Menschen dabei unterstützen muss.

Die tatsächlichen Gefahren liegen eher in den subtilen gesellschaftlichen Wandlungsprozessen, wenn immer mehr Texte, die wir konsumieren, aus einer KI stammen. Die Manipulation von Menschenmassen und gesellschaftlichen Aushandlungsprozessen (sowohl Wahlen als auch Sachfragen) ist hier eine in der Tat erhebliche Gefahr, die man kaum überschätzen kann.

Da bin ich nicht ganz bei dir.
Der aktuelle Fortschritt der KI (also Large Language Models) ist sicher beeindruckend, insbesondere für Übersetzungen, den dafür waren sie ja auch ursprünglich gedacht.

Allerdings sehe ich Erfindungen wie Buchdruck, Telefonie, Internet und einige andere noch mal auf einem höheren Level, als KI. Und damit meine Ich jegliche KI-Entwicklungen, jemals. Ich denke nämlich, dass für uns Menschen die Kommunikation mit anderen Menschen immer das Wichtigste sein wird.

Und in den aktuellen KI-Systemen sehe ich eher ein Hilfsmittel für die bereits existierenden Kommunikations-Formen, also z.B. für Textumgestaltung bei Mails und solche Dinge, im Grunde eine Hightech-Rechtschreibhilfe. Vielleicht hilft KI auch noch bei Rechercheaufgaben, vor allem beim Suchen.

Aber selbst beim Zusammenfassen von Texten scheinen mir KI-Systeme prinzipbedingt zu riskant zu sein, um sich darauf zu verlassen. Liegt hauptsächlich daran, dass die Informationen, mit denen eine „wahrheitsgemäße“ KI gefüttert werden müsste, ja alle von Menschen kontrolliert werden müssten. Das halte ich für unpraktikabel.

Eine Gefahr ist das sicher. Aber diese Gefahr gar es schon immer. Und Sie wird meiner Meinung nach durch KI nicht wesentlich größer. Ob ein Populist wie Trump seine Wähler nun mithilfe von KI-Texten einlullt oder durch ein Team von bezahlten Wahlkampf-Textern, ist doch eher zweitrangig.

Das hier könnte man theoretisch auch noch als eine Gefahr einordnen, die durch die aktuellen KI-Systeme entstehen könnte:

Aber im Grunde ist dieser Anwalt nur ein weiteres Opfer von übertriebenen Werbeversprechen über die vermeintlich so tollen KI-Systeme.

Und der Fall unterstreicht mein Argument von oben, dass man solchen Systemen nicht trauen darf, wenn es um Recherchen geht.

Ich glaube diese Meinung würdest du spätestens ändern, wenn wir in das Zeitalter vollautonomer Waffensysteme eintreten, was, wenn es keine Regulierungen gibt, zwangsläufig irgendwann passieren wird. Auch Überwachungssysteme könnten durch KI unglaublich viel effektiver werden, da die Auswertung von Big Data durch Menschen einfach jetzt schon nicht möglich ist, die Möglichkeiten einer KI hier aber nahezu unbegrenzt sind.

Auf den positiven Seiten hat die Fortentwicklung von KI im Bereich der Produktionsverfahren und Produktionssteuerung erhebliches Optimierungspotential, das tatsächlich im besten Fall mit dem Optimierungspotential durch die Industrialisierung vergleichbar sein könnte.

Es ist eher ein weiteres Beispiel dafür, dass der Nutzer das Problem ist, nicht das Werkzeug.
KI ist ein Werkzeug - und um dieses Werkzeug optimal nutzen zu können, muss der Nutzer eine gewisse Kompetenz mitbringen, daher in der Lage sein, offensichtlich falsche Ergebnisse zu erkennen und die KI zum richtigen Ergebnis zu leiten.

Kürzlich habe ich ChatGPT zum Beispiel benutzt, um Wahrscheinlichkeitsrechnungen zu machen. Ich war zu faul, die Formeln für diskrete Wahrscheinlichkeitsrechnungen, Markovketten und co. rauszusuchen und dachte mir: Lass es halt ChatGPT machen.

Die ersten Ergebnisse waren offensichtlich falsch (mir war klar, dass das Ergebnis im niedrigen einstelligen Prozentbereich liegen muss, ChatGPT spuckte Zahlen im Bereich von 25% und höher aus). Einmal habe ich ChatGPT aufgefordert, den Rechenweg anzuzeigen - dann kam plötzlich das richtige Ergebnis raus. Ein anderes Mal habe ich ChatGPT direkt vorgegeben, diskrete Wahrscheinlichkeitsrechnung und in einem anderen Fall die Markovkette zu verwenden und es kam ebenfalls zum richtigen Ergebnis, nachdem ChatGPT vorher ein völlig falsches Ergebnis phantasiert hat.

Das zeigte sehr schön, dass ChatGPT in jedem Fall ein nützliches Werkzeug sein kann, aber man muss halt halbwegs kompetent damit umgehen können. Es erinnerte mich ein wenig an die Anfänge der Suchmaschinen - und hat ein ähnliches Potential, wie es die Suchmaschinen damals hatten (bis hin zur Entstehung eines der größten Konzerne der Welt…).

Damit kommen wir zwar etwas vom Thema ab, aber ich antworte mal trotzdem. Vorweg: Ich halte die Entwicklung von effektiven und ausreichend sicheren autonomen Waffensystemen, für ziemliche Zukunftsmusik.

Aber nehmen wir mal an, es gebe solche autonomen Systeme, sagen wir mal eine echte autonome Drohne, der man nur eine Zielkoordinate gibt, die dann selbstständig losfliegt und eine Rakete an dem Zielort abschießt.

Wo wäre da die große Veränderung gegenüber der heutigen Situation mit halb-autonomen Drohnen, mit denen die USA in Afghanistan und anderen Ländern von den USA aus operieren? Die US-Drohnenpiloten bekommen von den Folgen, die ihre Einsätze vor Ort auslösen doch jetzt schon kaum etwas mit.

Und das ist, meiner Meinung nach das eigentliche Problem, wenn wir über Waffensysteme reden, dass der Krieg in immer größerer Entfernung geführt werden kann und dadurch immer stärker entmenschlicht wird. Diese Entwicklung würde durch autonome Waffen, wenn es sie den gäbe, sicher noch weiter voranschreiten, aber wir sind da, meiner Ansicht nach, bereits heute an einem sehr beunruhigenden Punkt.

Da bin ich völlig bei dir.

Aber widerspricht nicht genau das (also die Notwendigkeit eines kompetenten Anwenders und die Kontrolle der Ergebnisse der KI-Systeme), der Vorstellung, dass man mithilfe von KI viele Arbeitskräfte einsparen kann?
Den was würde es nützen, wenn eine KI zum Beispiel 100 Texte in 10 Sekunden erstellen würde, wenn danach noch ein Mensch 10 Minuten lang jeden Text durchlesen müsste und ggf. noch kleinere, inhaltliche Korrekturen vornehmen müsste?

Da bin ich auch fast deiner Meinung. Aber ich würde das nicht auf die Anfänge der Suchmaschinen beschränken. Noch heute ist es durchaus ein Softskill mit Google und Co. schnell zum richtigen Ergebnis zu kommen.
Vielleicht werden KI-Systeme da eine Verbesserung bringen, vielleicht aber auch nur neue Unsicherheiten, mal schauen.

Solange das Risiko nur darin besteht, dass man selbst falsche Ergebnisse bekommt und nutzt und dies nur einen selbst schadet, kann ich damit gut Leben. Jeder eines Glückes Schmied …

Aber wir geben ein offenbar unglaublich wirkmächtiges Instrument in die Hände der Öffentlichkeit und vertrauen darauf, dass niemand auf die ganz schlimmen Ideen kommt, was man damit anfange konnte. Das ist naiv.

Nicht ohne Grund wird der Zugang zu Sprengsstoff, Viren, gefährliche Chemikalien, Atomkraft, u.v.m. beschränkt.

Aber, ehrlich gesagt: Ich habe auch keine Lösung. Denn verbieten will ich hochentwickelte KIs (LLMs), die sog. emergente Fähigkeiten (unvorhersehbare und plötzliche Leistungssprünge oder Fähigkeiten, die von den Entwicklern gar nicht intendiert waren) entwickeln, nicht. Dazu sind die damit verbundenen Chancen für die Menschheit einfach zu verlockend.