Neue Technologie: Chat GPT, Künstliche Intelligenz und Implikationen auf politischen Diskurs

Das ist in der Tat wieder so eine Sache, die dazu führt, dass irgendwann grundsätzlich allen Medien ein Hinweis hinzugefügt wird, den dann kein Mensch mehr beachtet. („Dauerwerbesendung“; „Unterstützt durch Product Placement“ usw.).

Es macht einfach Sinn, bei redaktionellen Inhalten eine KI für die einfachen Arbeiten unterstützend einzusetzen. Wenn daher die Kennzeichnungspflicht von KI-generierten Inhalten zu weit angelegt wird, wird sie jede Wirkung verlieren, weil absolut alles Kennzeichnungspflichtig wird. Wird sie hingegen zu eng angelegt, wird es zu viele Wege geben, um die Kennzeichnung zu vermeiden.

Ich sehe daher eine solche Kennzeichnung auch eher als Zeichen der Hilflosigkeit und kann mir kaum vorstellen, dass eine Kennzeichnungspflicht irgend etwas bringen wird. Einzig in der direkten Kommunikation („Chatbots als Customer Service“) ist eine Kennzeichnung in jedem Fall sinnvoll.

3 „Gefällt mir“

sehr sachlich und gut erklärt.

2 „Gefällt mir“

Interessanter Vortrag.

Gerade die Entwicklungsstufen (ab Minute 44:40) von Information über Wissen über Reasoning bis zu Bewusstsein sind ja genau das, was ich oben auch beschrieben habe. Da GPT-4 zumindest eindeutig die Schwelle des „Reasoning“ überschritten hat ist der Weg zum Bewusstsein tatsächlich nicht mehr weit.

Meines Erachtens setzt das nur noch voraus, dass die KI ein aktives Gedächtnis bekommt, daher dass sie in der Lage ist, sich auch nach der Trainingsphase noch (selbständig!) weiter zu entwickeln. Daraus erwächst dann zwangsläufig etwas, das man als „Bewusstsein“ definieren kann (wenn man sich von religiös-verklärten Bewusstseins-Definitionen frei macht…). Denn das Gedächtnis ermöglicht es, „Erfahrungen“ in Interaktionen mit anderen Wesen (Menschen oder andere KIs) zu machen und sich „Meinungen“ auf diesen Grundlagen zu bilden. Sobald es darüber keine menschliche Kontrolle mehr gibt (wie das aktuell im Rahmen der Trainingsdaten zumindest begrenzt noch der Fall ist) sind wir schon sehr nah an etwas, das man auch „Persönlichkeit“ nennen könnte.

Für eine KI gilt hier tatsächlich das Gleiche wie für den Menschen: „Das Ganze ist mehr als die Summe seiner Teile“. Auch der Mensch hat, wenn man es auf Neuronen und Hormone herunterbricht, kein bestimmbares Bewusstsein, dennoch sind wir uns einig, dass so etwas wie ein Bewusstsein existiert. Es entsteht aus dem Zusammenwirken all dieser kleinen Teile. Und nur, weil eine KI keine biologischen Störfeuer wie Hormone hat, heißt das nicht, dass hier ein Programm aus einer Unmenge individueller Interaktionen mit Menschen und anderen KIs keine „Persönlichkeit“ entwickeln könnte.

Der Sprung zu einer „starken KI“ könnte in der Tat nur noch wenige Jahre in der Zukunft liegen, die LLM, um die es in diesem Vortrag geht, sind relativ eindeutig eine Vorstufe auf diesem Weg und bieten im Prinzip schon fast alles, was als Basis zur Entstehung einer starken KI nötig ist.

Aber tatsächlich hängt das alles davon ab, wie wir Dinge wie „Bewusstsein“, „Persönlichkeit“, „Intelligenz“ oder - um zu der früheren Diskussion zurück zu kommen - „Verstehen“ definieren. Der Vortrag bestärkt mich jedenfalls darin, GPT-4 zuzugestehen, „verstehen“ zu können, da „verstehen“ eine unentbehrliche Grundlage für das „Reasoning“ ist, zu dem GPT-4 zweifelsohne schon in der Lage ist.

1 „Gefällt mir“

Bei Leschs Kosmos geht es in der aktuellen Folge auch um KI-Software und ob das echte „Intelligenz“ sein kann:

Die Freiburger Informatik-Professorin Hannah Bast, die offenbar ein glühender ChatGPT-Fan ist diskutiert mit Harald Lesch, der in der menschlichen Existenz definitiv mehr sieht, teilweise sehr kontrovers.

edit:
Und beim sehr guten Podcast Denkangebote von Katharina Nocun (bei dem Ulf auch schon zu Gast war) gibt es auch eine aktuelle Folge zu KI-Problemen allgemein mit Matthias Spielkamp von algorithm-watch:

Ja, der Vortrag von Thomas Stahl ist sehr gut und sachlich !

Dass die starke Emergenz in diesen Modellen und die sich damit entwickelnden Fähigkeiten (wie „Reasoning“) etwas absolut revolutionäres - etwas so noch nie da gewesenes - sind, geht in der Wahrnehmung der Öffentlichkeit tatsächlich aktuell weitgehend unter.
Die 2017 von Google entwickelte Transformer-Architektur ist sicherlich ein wichtiger Meilenstein in der Entwicklung hin in Richtung starker KI und die aktuellen Modelle (speziell GPT-4) sind sicherlich Vorstufen zu solchen starken KI-Systemen.

Was Thomas Stahl da in seinem Vortrag zitiert, ist das altbekannte Jubbel-Paper von Microsoft (dem OpenAI-Hauptinvestor) über das Produkt von OpenAI.

Was ich daran kritisch finde, habe ich hier schon mal geschrieben:

Das sehen auch andere Leute ähnlich:

Es gibt noch mehr kritische Artikel, die sich mit dem Problem befassen, wenn Firmen ihre Werbung als Wissenschaft verkaufen, nur weil die Texte nicht in der Marketing Abteilung sondern bei der Forschungsabteilung entstanden sind. Aber die will ich hier alle nicht zitieren.

Es gibt übrigens einen sehr guten Tweet von Arvind Narayanan (Computer Science Professor in Princeton) mit einem recht guten Erklärungsansatz, warum so viele Leute, die sich nicht näher mit den technischen Hintergründen beschäftigen, auf solche Tech-Hypes hereinfallen:
tweet

Das gilt natürlich nicht für die Leute bei Microsoft Research (die wurden von oben dazu verdonnert das Paper zu schreiben), nicht für Forscher wie Frau Prof. Bast und ihren Auftritt bei Lesch-Kosmos (für Prof. Bast ist der aktuelle KI-Hype ein potenzieller Forschungsgelder-Segen) und auch nicht für Thomas Stahl (dessen Arbeitgeber „B+M Informatik“ ja KI-Lehrgänge verkauft).

Kann ich mich nur anschliessen… sich auf ein gerade heute bekanntes Tool seine Diskussion zu begründen ist bei diesem Thema aus meiner Sichtweise zu kurz gegriffen. Als Beispiel kann der heute bekannte politischer Podcast mit KI geschärften Argumenten morgen vielleicht die Mehrheit überzeugen… Frage also wer hat morgen diesen KI-Engine hierfür… Yuval überzeugt mit dem von ihm beschrieben KI Generierung von „Intimacy“ in der morgigen Welt.

Na ja, das „Sparks of AGI“ Papier ist ein durchaus interessantes, seriöses und gut geschriebenes wissenschaftliches Papier, das die kognitiven Fähigkeiten aber auch die Grenzen des GPT-4-Modells (einer frühen Version davon) nachvollziehbar analysiert. Die Analyse erfolgte rein „phänomenologisch“, also von außen beobachtend. So wie Wissenschaftler die kognitiven Fähigkeiten eines Menschen beurteilen würden (das können sie ja auch tun, ohne deren Gehirne bis ins letzte zu verstehen). Klar, man kann über den Titel streiten: was „AGI“ und „Sparks“ bedeuten ist natürlich Interpretationssache und natürlich ist nicht optimal, dass OpenAI die Details zu GPT-4 nicht publik macht. Das hat jetzt aber erst einmal nichts mit dem Papier zu tun, denn jeder kann ja GPT-4 nutzen und die proklamierten Fähigkeiten selbst nachvollziehen. Es zweifelt glaube ich niemand ernsthaft daran, dass die im Papier genannte Beispiele real sind. Thomas Stahl hat in seinem Vortrag oben ja einige davon gut erklärt. Das Papier ist z.B. hier frei zugänglich. Wenn du es nicht kennst: schaue doch mal hinein. Und wenn du methodische Kritik am Inhalt hast oder glaubst, dass etwas darin nicht zutrifft, dann wären fundierte Argumente sehr hilfreich. Einfach nur zu behaupten oder zu suggerieren, dass sei ja nur Werbung greift zu kurz.

Hier sind gleich drei haltlose Behauptungen drin, für die du keine Belege bringst.
Das Muster ist doch immer das gleiche: Sobald Experten etwas sagen, das dir nicht gefällt, versuchst du die Experten (hier die Autoren des Papiers, Frau Prof. Bast oder Thomas Stahl) persönlich anzugreifen. Anstatt sachlich auf die von den Experten vorgebrachten Argumente einzugehen. Darum geht es doch hier: um eine sachliche Diskussion. Nicht um die von dir lediglich vermuteten unlauteren Beweggründe der Experten. Fast alle KI-Experten haben beruflich mehr oder weniger mit KI zu tun. Insofern kann man fast jedem von denen unterstellen, dass sie von einem angeblichen Hype finanziell profitieren. Dass du so argumentierst zeigt, dass es dir offenbar an sachlichen Argumenten fehlt.

1 „Gefällt mir“

Es ist 2024 Wahl in Deutschland und es wird über die 2030 ‚KI‘ diskutiert (AGI - LOL). Vie interessanter ist, was heute möglich ist. Ich halte einiges von dem was so grade, in Dauerwiederholungsschleife über den Äther geht, für Gatekeeping was die Leute im Diskurs halten soll und sie daran hindert ‚ins doing zu kommen‘.

Ich hab schon mal ein paar nette Sachen gebaut und recht coole Anwendungen. Beispiel: Sich Methoden der Wissenschaftsleugnung aus einem Posting herauslesen und dann entscheiden, ob man sich damit beschäftigt.

Jede Minute, die wir grade dasitzen und uns irgendwelche Leute mit Gatekeeping reinziehen - oder der sinnfreien Wiederholung von eh schon vorhandenen Informationen - sitzt auch jemand vom Zuschnitt eines Cambridge Analytics da und entwickelt ein Brexit Tool on Stereoids.
Die ‚AI‘ Revolution ist dieses Jahr im März ordentlich losgegangen (chatgpt 3.5) und ich schätze diesen Inovationszyklus auf etwa 36 Monate ein. In so fern ist es wirklich wichtig, vom Armchairmodus zum Handeln zu kommen und sich nicht am jetzt grade von einer Informatiktechnischen Doppelnull (z.B. Precht) erklären zu lassen was auch halt Germanisten nicht verstehen - Es ist weder seine Expertise, noch ist er intelligent dazu.
Die Technik wird Mitte der nächsten Legislaturperiode schon klare Auswirkungen zeigen (Steigerung der Produktivität und wahrscheinlich Arbeitslose) und die Politik hat genau keine Antworten. In so fern sind wir Bürger sehr gut beraten, sich damit zu beschäftigen, statt hier eine Diskussion zu führen, ob jemand das Thema Overhyped um Forschungsgelder zu kassieren.

Tatsächlich würde ich sogar sagen, dass wir seit März mit GPT-4 auch schon den nächsten Innovationszyklus sehen, den ich persönlich viel beeindruckender finde als GPT-3.5 (siehe dazu auch den oben verlinkten Vortrag von Thomas Stahl).

Absolut. Wir müssen endlich ins Doing kommen. Die Zeit drängt, das Thema ist hochrelevant und wir werden womöglich tatsächlich bald Arbeitslose oder verstärkte Desinformation sehen.

Ein Problem bei der bisherigen Diskussion ist, dass das Thema KI viele verschiedene Fassetten hat, aber der komplette Austausch dazu zuletzt in diesem einen Thread „Neue Technologie: Chat GPT, KI, …“ stattfand. Dadurch war die Diskussion (wie auch HansRiegel oben schon angemerkt hat) sehr ausschweifend.
Daher der Vorschlag: lieber schneller mal ein neues Fokus-Thema anlegen und in der Überschrift klar machen, worum genau es geht (z.B. „KI: Auswirkungen auf den Arbeitsmarkt“ oder „KI: Potential zur Desinformation“ oder „KI: Gefahren durch Trainingsdaten-Bias“ oder „KI: Existenzielles Risiko“). Und dann sollten wir darauf achten, dass darin auch wirklich nur über die jeweilige Sache diskutiert wird.

1 „Gefällt mir“

Ich finde auch, dass dieser Thread hier geschlossen werden kann.

Auf Wunsch wieder geöffnet.
Bitte öffnet für Teil-Themen neue differenzierte Threads.
Wer hier noch auf der Meta-Ebene diskutieren möchte, kann das gern tun. Es wird nur bei so vielen Beiträgen irgendwann unübersichtlich, insbesondere wenn es mehrere Diskussionsstränge gibt.

Danke Margarete. Ich möchte den Thread nicht endlos in die Länge ziehen. Aber bevor wir den Thread schließen (und neue differenziertere Threads öffnen) sollten wir kurz über die Themen reden, die sebe303 am Freitag noch angesprochen hat. Das ist jetzt Diskussion auf Meta-Ebene: wie verhindern wir, dass uns das Problem mit der Dauerwiederholungsschleife in künftigen KI-Threads nicht wieder und wieder passiert ? (das sehe ich nämlich ehrlich gesagt kommen). Differenziertere Threads, bei denen der Titel sagt, worum genau es geht, sind sicherlich eine Maßnahme um die Diskussion zu kanalisieren. Aber es gibt auch grundlegende Probleme.

Ich denke genau das auch. Wir haben das in der Corona-Pandemie gesehen. Da gab es Leute, die das Thema geleugnet oder verharmlost (Corona = Grippe) haben. So ähnlich ist es jetzt auch beim Thema KI. Da heiß es, der ganze KI-Hype würde ja nur durch Profiteure befeuert. Diese wollten mit dem Hype ja nur Werbung für ihre Produkte machen. Es gäbe gar keinen signifikanten Fortschritt auf dem Gebiet (und ergo: keinen Handlungs- oder Diskussionsbedarf). So kommen wir nicht weiter.
Wir können nicht ins Doing kommen, wenn immer wieder ohne fundierte Argumente die Relevanz des Themas in Frage gestellt wird und Experten mit dem Argument „der/die profitiert ja nur von Hype“ diskreditiert werden. Wer das Thema nicht für relevant hält, kann ja gerne in anderen Threads über andere Themen diskutieren.

1 „Gefällt mir“

Es gibt schon Leute, die den Hype befeuern, um zu profitieren. Das heißt aber nicht, dass KI nicht jetzt ein Stadium erreicht hätte, dass sie in den nächsten Jahren in vielen wichtigen Bereichen massiven Einfluss haben wird.
Ich glaube, was wir tun können, um die Diskussion voranzubringen, ist, Chancen und Risiken konkreter zu benennen. Davon ausgehend sollte dann über Ziele gesprochen werden, also was wir angesichts mancher Chancen oder Risiken erreichen wollen, und über mögliche Massnahmen und ihre Wirkungen und Kosten.

Natürlich kann es so etwas immer geben. Auch in der Corona-Pandemie mag es Virologen gegeben haben, die das Thema gepusht haben, um daran zu verdienen. Aber die Frage ist doch: wird das Thema in signifikantem Ausmaß durch Profiteure gepusht. Und da muss man ganz klar sagen: Nein. Dafür gibt es keine Anzeichen. Bei KI nicht und bei Corona auch nicht. Es sind im wesentlichen Wissenschaftler und KI-Forscher, welche die offenen Briefe unterschrieben haben. Altman und Musk werden nur in der Presse besonders häufig genannt.

Na ja, ich würde Precht jetzt nicht als Informatiktechnische Doppelnull bezeichnen. Klar, er ist kein Informatiker und ich bin auch nicht immer seiner Meinung (z.B. was KI, Russland oder Baerbock angeht). Aber er argumentiert logisch, nachvollziehbar und faktenorientiert. Das finde ich gut.

Eine echte informatiktechnische Doppelnull sieht für mich anders aus: Vielleicht habt ihr auch [das Video von „tante“] gesehen, das weiter oben gepostet wurde. Der Vortrag strotzt nur so vor Desinformationen und abstrusen Verschwörungstheorien. Der Sprecher legt ziemlich am Anfang eine Folie mit der Message „Hype !“ auf und suggeriert, dass ganze KI-Thema werde maßlos übertrieben. Schuld seien Leute wie Sam Altman. Im ganzen Rest des einstündigen Vortrags gibt es dann aber nicht ein schlüssiges Argument, das diese These untermauert.

Ich fände gut, wenn wir uns in zukünftigen Diskussion im Stil mehr an einem faktenbasierten Precht orientieren würden und weniger an solchen Internet-Schwurblern.

Ich würde sogar noch weiter gehen: Die Frage, um die es hier geht, ist, ob KI eine relevante Technologie ist, die wahrscheinlich manche Aspekte unseres Lebens signifikant beeinflussen wird. Und da ist die Antwort meiner Meinung nach ein klares Ja, egal, ob es auch Profiteuere gibt, die das Thema zusätzlich pushen.

Ich bin jetzt nicht der Experte für Precht, aber ich habe einen Podcast gehört, den er kurz vor der russischen Invasion aufgenommen hat, und da schien er mir einen recht großen Selbstbewusstseinsfachkompetenzquotienten zu haben. Würde er z. B. als Satiriker nur Denkanstöße geben wollen, würde das vielleicht passen, aber als wertvollen ernsthaften Diskussionsbeitrag habe ich das nicht empfunden. Da höre ich lieber die Meinung von Experten wie General a. D. Erhard Bühler.

Ich habe mir nur die ersten 10 Minuten angehört, und auch da habe ich den Eindruck, der Sprecher hört sich selbst gerne reden, ist außerdem Aktivist und bringt kaum Argumente.

Beide (Precht und Tante) scheinen mir eher Qualitäten als Entertainer (für ihr jeweiliges Publikum) zu haben als die Diskussion ernsthaft und sachlich weiterzubringen. Insofern würde ich keinen von beiden als Vorbild für eine gute Diskussion hier empfehlen.

Precht ist auf dieselbe Weise „intelligent“ wie aktuelle LLMs „intelligent“ sind. Er kann sehr lange, tief geschachtelte, komplexe und grammatikalisch korrekte Sätze zusammenbauen. Er kann recht eloquent daherreden, und zwar zu nahezu jedem Thema - und völlig unabhängig davon, ob er tatsächlich irgendeine tiefergehende Expertise im fraglichen Thema hat, kommt dabei immer ein irgendwie auf den ersten Blick recht überzeugender Wortschwall heraus. Auf den zweiten und dritten Blick hingegen findet man die Fehler und Widersprüche, die mal mehr, mal weniger gut kaschierten Logiklücken und die Stellen, an denen er „Handwaving“ betreibt, damit seine Argumentation weiterhin auf scheinbar sicherem Boden steht oder nicht auffällt, dass sein Wissen über Oberflächlichkeiten nicht hinausgeht.

Und: genau wie ChatGPT muss Precht, wenn er sich überhaupt mal auf irgendwas festlegt, immer irgendwie auch den „Contrarian“ geben. Es darf nicht sein, dass eine als Mainstream-Meinung wahrgenommene Einschätzung einfach mal zutreffend sein kann. Es muss partout noch hier ein Kontrapunkt und da eine Einschränkung fabriziert werden. Dass dabei konträre Aspekte in einer Variante des „False Balance“-Phänomens oft völlig überbetont werden - unwichtig, denn womit soll man sich denn sonst profilieren, wenn nicht mit dem Hinweis auf seine eigene, selbstverständlich vom Mainstream abweichende Meinung?

Wenn zukünftige Versionen von ChatGPT irgendwen schnell und gut ersetzen können, dann Typen wie Precht.

3 „Gefällt mir“

Puh. Ich steig hier aus. Ich helf dir hier nicht die offensichtlichen Fakten zu verdrehen. Die Anhörung zum Thema Blockchain hat wohl ihre Spuren hinterlassen.

ftzws

Nette Methode, aber was sagt denn das über dich aus, wenn du zwischen den beiden keinen qualitativen Unterschied erkennen kannst.

was ist denn dieses Anschreiben gegen @tante? Der nichts gemacht, ausser sich fachlich zu positionieren, sehr fundiert wie ich meine, beim Thema ‚KI‘ auch eher konservative Positionen beziehend.

Als jemand der sowohl ‚KI‘ als auch ‚Kryptowährungen‘ schon mal in echt und auch beruflich macht(e) (as in ‚it puts my fodd on the table‘) steht ihr mit solchen Bewertungen im Umfeld was ‚vom Fach ist‘ oft nicht in der Mehrheit. Klingt komisch, ist aber so. Auch ich stimme nicht in allen Punkten mit @tante überein, in beiden Themen seiner großen Vorträge. Ich würde mich aber nicht dazu herablassen, jemand so abzuwerten wie ihr (?) es grade getan habt.