KI/ML in LdN366

In der aktuellen Folge LdN 366 sind aus meiner Perspektive zahlreiche Ungenauigkeiten zum Thema KI/ML/LLM enthalten.

Unter anderem werden Machine Learning und KI nicht korrekt getrennt.
KI ist nicht nur wenn Modelle automatisch erstellt werden, sondern eben auch schon der Computer Gegner in der Schach-App.
Dementsprechend ist Künstliche Intelligenz auch kein neues Thema, es hat nur durch ChatGPT in der Öffentlichkeit deutlich mehr Aufmerksamkeit erhalten.
Wenn Programme sich selbst anlernen ist das Machine Learning.

Außerdem wird die Transparenz von ML Modellen nicht korrekt bewertet:
Es gibt durchaus Modelle, welche nachvollziehbar für Ersteller und Anwender sind (zb. Entscheidungsbäume).

ChatGPT als Large Language Modell erstellt keine Bilder. ChatGPT erstellt vielmehr intern Aufrufe an andere Programme, die dann Bilder und Stimmen generieren können.
ChatGPT wiederum ist kein Modell, das sind dann GPT4.0 / GPT3.5 Turbo etc.

Auch die Darstellung, wie gelernt wird, ist eher unvollständig. Die meisten Modelle werden mit fertigen Daten trainiert, das sind bei Chat Modellen dann u.A. Websiten die gescrapet werden, zum Beispiel das Lage Forum. Es gibt Modelle, die immer wieder/ dauerhaft neu trainiert werden, das ist aber der geringste Anteil.
Hier hätte man zum Beispiel ReCaptcha erwähnen können.

LLMs sind nicht deterministisch:
Jeder Algorithmus ist deterministisch, es werden bevor GPT3.0 arbeitet noch einige pseudo zufällige Wert mit eingebracht, um diverse Antworten zu erzeugen.

[…]

2 „Gefällt mir“

Ehrlich gesagt habe ich beim Lesen den Eindruck, dass es nicht schaden könnte, den Block noch einmal zu hören - mir kommt vieles sehr fremd vor, was wir angeblich gesagt haben sollen. Und natürlich ist ein Podcast für die Allgemeinheit auch kein Informatik-Seminar. Wir haben zu dem Beitrag jedenfalls viele positive Rückmeldungen von Menschen bekommen, die in der KI-Branche tätig sind.

Das fand ich in der Tat auch schwierig. So fällt bei ca. 1:13 z.B. der Satz:
„KI bedeutet eine Software, die lernfähig ist. D.h. programmiert wird nur eine Methode zum Lernen“
Das ist die Definition von Machine Learning, nicht aber von KI.
Zunächst mal nur eine Ungenauigkeit, die aber zusammen mit Sätzen, wie
„Es gibt eigentlich kaum noch Wirtschaftsbereiche, die KI nicht nutzen“
sehr schnell relevant wird, denn in der Tat gibt es inzwischen sehr viele Bereiche, wo z.B. in sicherheitsrelevanter Technik KI verwendet wird aber eben genau aufgrund der bekannten Einschränkungen und Gefahren bisher nur deterministische. Hier ist es also tatsächlich wichtig, sauber zu unterscheiden. Der Eindruck, dass man an diesen Stellen Machine Learning nutzen würde wäre nämlich in der Tat fatal.

1 „Gefällt mir“

Die Zitate sind nicht zu 100 % richtig, da ich keinen Zugriff auf die Transkripte habe.

1:05:30 „Es passiert wirklich nicht oft, dass eine neue Technik auftaucht und eigentlich wirklich mehr oder weniger Allen sofort klar ist: Diese Technik wird die Welt revolutionieren. - Ja, bei Artificial Intelligence, kurz AI oder auch KI, da bezweifelt diesen revolutionären Effekt eigentlich niemand mehr.“

KI ist keine neue Technik, hatte lediglich neuen Aufwind durch die ChatGPT Veröfffentlichung.

Zum Beispiel der Turing Test zum Erkennen eines Computers kommt aus 1950.

1:07:15 „Es ist heute schon sehr schwer einen Bereich […] zu finden, in dem keine KI eingesetzt wird. Versicherungen, Steuer […]“

Diese Bereiche nutzen alle schon längst KI z.B. zur Erkennung von Betrug. Die Aussage ist nicht per se falsch, hinterlässt aber den Eindruck als ob dieser Wandel etwas mit ChatGPT zu tun hat.

„[…] Medizin, Erkennung von Krebs in irgendwelchen Bildern“

Auch diese Forschungen gibt es schon >20 Jahre und ist keine Entwicklung, die erst vor kurzem stattgefunden hat.

1:09:25 „Die KI halluziniert auch […] schreibt einfach Sachen auf, die frei erfunden sind[…]“

Die KI macht das nicht, sondern die LLMs. KI ist eben viel mehr und es halluziniert nicht jede KI.

1:10:55 „KI bedeutet: Eine Software die lernfähig ist.“

Nein, KI != ML.

1:17:30 Zum Brief zum Anhalten von AI Development:

  1. Der Brief war vor ca 1 Jahr (22.3.2023) nicht vor „fast 2 Jahren“

  2. Zur Einordnung hätte man noch erwähnen können, das zumindest einige der Unterzeichner Angst hatten von OpenAI abgehängt zu werden und OpenAI ausbremsen wollten. Die Entwicklung von gleichstarken Modellen, wie die Konkurrenz zu OpenAI sie entwickelte, sollte nicht pausieren.

„Damals gabs noch nicht mal ChatGPT“ - Im Untertiel des Briefs ist explizit GPT-4 erwähnt.

Das waren jetzt nicht alle Stellen, an denen KI/ML/LLMs fälschlicherweise als Synonyme verwendet wurden, gibt aber einen Überblick.

Ich fand es gut, dass es diesen Block gab und auch das anschließende Interview war sehr informativ.

Leider ist in der allgemeinen Medienlandschaft die fehlende Präzision, die ich auch bei auch anmerke weit verbreitet.

Ich hätte erwartet, dass ihr durch ausführlichere Recherche als positives Beispiel vorangehen würdet.

6 „Gefällt mir“

Für mich ist KI mittlerweile nur noch ein reiner Marketingbegriff. Wir sind ja nicht mal in der Lage wirklich zu definieren, was Intelligenz ist. Vor allem, um die ganzen Systeme jetzt als AI/KI verkaufen zu können, wurde sich dann der Begriff AGI(Artificial General Intelligence) ausgedacht, der nun das bezeichnet, was man früher als AI bezeichnet hätte.

Von daher find ich es vollkommen in Ordnung, wie es in der Lage verwendet wurde, so verwendet es das Marketing von sämtlichen Tech Firmen auch. Und so hat sich im allgemeinen Sprachgebrauch der Begriff KI von dem akademischen Begriff getrennt. Dagegen anzukämpfen ist halt ein Kampf gegen Windmühlen.

Das einzige was mich etwas gestört hatte war, dass „AI“ deutsch ausgesprochen wurde. Obwohl es ja mit „KI“ ein deutsches Äquivalent gibt. But to be fair, DNA wird auch deutsch ausgesprochen obwohl es mit DNS ein deutsches Äquivalent gibt.

Das halte ich für fachlich falsch. Der Begriff AI ist tatsächlich erstmal ein Sammelbegriff für ein Sammelsurium verschiedenster Lösungen um Software „clever“ zu machen.

Im Vergleich zu AGI gibt es aber einen enormen Unterschied. Eine klassische AI ist auf eine beliebige Aufgabe trainiert und kann nur diese mit einer definierten Genauigkeit innerhalb von Grenzen erfüllen.

AGI ist kein neuer Begriff, sondern beschreibt seit 1997 hingegen das Fernziel einer starken KI-Lösung, also eine KI die in der Lage ist auch außerhalb ihres ursprünglichen Trainings zuverlässig zu funktionieren, so wie es auch der Mensch tut.

Naja, die Worte „Eigentum“ und „Besitz“ werden in der Alltagssprache auch meist synonym verwendet. Wenn man aber über über die rechtlichen Grundlagen von Eigentum oder Besitz redet, sollte man die Begriffe auseinanderhalten. Dito für „KI“ und „ML“. Wenn die Alltagssprache oder das Marketing fachlich und politisch relevante Unterschiede verwischt, dann sollte man in einer politischen Diskussion nicht auf die Alltagssprache zurückgreifen, sondern eine Sprachkonvention mit höherer Differenzierungskraft bemühen.

1 „Gefällt mir“

Die Begründung überzeugt mich nicht. Weil ein Begriff in der Öffentlichkeit unscharf verwendet wird, macht das die Lage auch so? Da gibt es ja zig Beispiele, wo in genau solchen Situationen penibel auf Sprache geachtet wird. Nämlich wenn es Konsequenzen hat. In diesem Fall führt das in-einen-Topf-werfen von KI und ML dazu, dass auch die Risiken von nicht ML und ML-KI in einen Topf geworfen werden. Mit der Konsequenz des Vertrauensverlustes in z.B. deterministische KI in sicherheitsrelevanten Bereichen.

Naja, die Lage hatte sich bei dem angeblichen Verbrennner-Verbot ja auch nicht durch eine sprachliche Genauigkeit ausgezeichnet, die über dem Niveau der anderen großen deutschen Presseerzeugnissen (Spiegel usw.) lag.

Und das war ja ein juristisches Thema. Da konnte man auf einen Gesetzestext zeigen und fragen: Wo ist da das Verbot?

Insofern nehme ich es Ulf und Philipp nicht übel, das sie bei solchen technischen Sachen wie ML und KI nicht immer exakt sind. :slightly_smiling_face: