Künstliche Intelligenz: Nur eine Blase?

In dem Tweet ist zu sehen, dass ChatGPT wohl tatsächlich erstmal falsch rechnet. Auf Nachfrage kommt dann aber eine Korrektur mit dem korrekten Ergebnis. Und es gibt auch Leute wo die Antwort auf Anhieb korrekt ist.

Korrekt, das ist ein Irrglaube. Es gibt keine KI im Ukrainekrieg.
Das, was Drohnen autonom macht, sind eindeutig durch Machine Learning gelernte Bilder von Zielen und Landschaften.

Machine Learning ist ein Unterbereich unter dem Oberbegriff KI. Insofern ist KI natürlich im Einsatz.

Was in der Diskussion durcheinander läuft, ist meiner Meinung nach die Definition. Vereinfacht gesagt, wird bei KI allgemein Material eintrainiert, beispielsweise Bilder, und die Art, WIE die Bilder kategorisiert werden, wird durch das Modell eigenständig festgelegt (im Ggs. zu menschlich vorgegebenen Algorithmen).

Bei Deep Neural Networks sind die Knoten und Gewichtungen noch mal komplexer, aber das Prinzip ist gleich.

Die von Google entwickelte Transformer-Technologie hat nun eine neue Art der KI Modelle geschaffen, die GPTs.
In der Öffentlichkeit waren die ML Modelle nicht so präsent und durch die Sensation von ChatGPT ist der Eindruck entstanden, das sei nun KI.

Aber die ML Modelle bleiben KI und haben nach wie vor ihre Einsatzzwecke.
Beim Menschen würde ja auch keiner drauf kommen, dass das Bildverarbeitungszentrum des Gehirns weniger zum Gehirn gehört als das Sprachzentrum, oder?

Mir scheint, wenn Menschen von KI sprechen, schwebt häufig AGI vor. Das höre ich häufig.

3 „Gefällt mir“

Das halte ich für eine sehr optimistische Einschätzung. Schließlich hat das Militär mit die höchsten Anforderungen an Zuverlässigkeit, die es überhaupt gibt. Mit so einem unausgereiften Produkt wie dem Microsoft KI-CoPilot oder dem Testa-Autopilot darfst du da, glaube ich, nicht ankommen. Und beide Produkte haben ja schon zig Milliarden gekostet.

Flugbahnen von Raketen zu berechnen ist mit klassischen Computerprogrammen ausreichend genau zu machen.
Wie oben schon gesagt, Autonomie und Automatisierung sind auch ohne KI machbar und sogar zuverlassiger, da reproduzierbar.

Wichtiger als heute vielleicht, aber eine Revolution wie die Computertechnik wird KI-Software sicher nicht.

Welche Art von KI-Software kommt den ohne Training aus (den Maschine learning und Trainieren sind eigentlich Synonyme)?

Da widersprichst du dir selbst.

Falls du damit meinst, dass eine KI selbst festlegt, welche Informationen sie aus ihren Trainingsdaten extrahiert und dadurch „lernt“, dann stimmt auch das nicht.
Das eine KI für Bilderkennung z.B. auf Farben achten muss, dass muss ihr erst ein Mensch einprogrammieren.

Das ist einer der Gründe warum ich bei KI immer von Software spreche, denn der ganze Lernprozess einer KI muss immer vorher von einem Menschen geplant und organisiert werden.

Bitte vollständig zitieren - ich habe geschrieben, dass der Mensch kategorisiert und damit beim Training vorgibt, welche Attribute herausgelesen serden sollen. Beispiel Hund, Katze, Maus. Nach welchen Mustern das Modell diese Kategorisierung dann trifft, wird nicht programmiert. Das macht das Modell selbst. Das ist die Black Box. Mein Beispiel gilt natürlich nur beim Supervised ML, also beim überwachten, bei dem der Mensch das System anlernt.

Das von dir erwähnte Programmieren wäre, wenn ich exakt die Pixelinterpretationen hardcode. und genau das ist der Unterschied zwischen Programmieren und KI.

Deshalb ist ML ein Teilbereich von KI. Die Komplexität und der Anwendungsbereich von Modellen kann unterschiedlich sein, klar.

Natürlich ist das Software, der Unterschied ist aber wie oben beschrieben. Der Mensch coded die Entscheidungsbäume nicht mehr selbst bei diesen Modellen. Die Modelle selbst sind natürlich von Menschen erstellt worden, noch sind nicht die Midichlorianer verantwortlich.

1 „Gefällt mir“

Du denkst zu binär. Keine Applikation wird nur regelbasiert oder nur KI sein. Die eigentlich interessanten Bereiche sind die Verkettungen beider Bereiche und unterschiedlicher Modelle.

Beispiel: Drei unterschiedliche Bildmodelle analysieren ein Bild, verhandeln das Resultat aus, das geht in einen regelbasierten Prozess über und dann in ein weiteres KI Entscheidungsmodell.

Oder wir analysieren einen Text für die Gewichtung eines Angebots, lassen drei Modelle ausverhandeln und die Erfolgasaissicht gewichten, übergeben das an ein Regelsystem oder Formatierungssystem klassischer Art.

Der eigentliche Effekt liegt in der cleveren Verkettung.
Die Fortschritte der letzten Jahre sind da atemberaubend, ich merke das in unseren Projekten. GPT4 und 4o machen zum Beispiel deitliche Unterschiede in Geschwindigkeit und Kosten. Claude Opus hat große Stärken, ist aber teuer.

Insofern hat es gerade erst begonnen und das Problem sind nicht so sehr die Modelle, sondern das schlechte Datenmanagement der Firmen.

Und ich bin recht sicher, dass die Waffenhersteller und Geheimdienste nicht auf GPT5 oder Bildalgorithmen im Open Source Bereich warten, sondern schon sehr viel längere Erfahrung haben. Du siehst es aus der Brille des Consumers.

Die Bereiche, wo das Ganze im Consumerbereich durchschlägt und eine Kette von Algorithmen schon eine Industrie bedroht, ist zum Beispiel anhand von suno und udio zu sehen:

Ich bin eher überrascht, dass wir nach 2 Jahren schon da sind, wo wir sind.

edit: inkorrekten Link aktualisiert

1 „Gefällt mir“

Das ist ja mein Standpunkt, damit kann man das I in KI einfach weglassen.
Es ist eben keine Intelligenz sondern wie die Amerikaner Intelligence verstehen, nämlich das Sammeln und Auswerten von Daten oder das Kombinieren dieser Daten.

Einigen wir uns doch auf die Definition des EU-Parlaments (Quelle):

„Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.“

Damit wäre dann also, wie von dir vorgeschlagen, Software gemeint, die nicht „trainiert“ wurde.

Das stimmt ja schon allein deswegen, weil eine KI-Software ja z.B. immer auf einem klassisch programmierten (also regelbasiertem) Betriebssystem oder in einem Browser laufen muss.

Aber darüber hinaus gibt es in der Tat Anwendung wie autonomes Fahren, wo die KI-Software die Umgebungswahrnehmung übernimmt aber die eigentlichen Fahrentscheidungen dann hard codiert sind (Quelle: Tesla)

Wenn hier aber die KI-Bilderkennung ein Problem verursacht, z.B. ein Straßenschild falsch interpretiert, dann kann das die programmierte Fahrlogik kaum bis gar nicht korrigieren.

Was ich damit sagen will, ist das es kein Allheilmittel ist, eine KI-Software mit einer klassisch programmierten Software zu kombinieren, weil man sich u.U. die Nachteile beider Systeme einfängt.

Edit: Sorry, hab den Beitrag unterwegs auf dem Smartphone geschrieben.

Die neutralere Wikipedia-Definition finde ich deutlich besser - und sie geht auch speziell auf ML ein:

Künstliche Intelligenz […] ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst

Serekim hatte ja auch schon hier ein Diagramm gepostet, das die Zusammenhänge zwischen KI, Machine Learning (ML) und Deep Learning (DL) gut beschreibt. Kurz gesagt: KI ⊃ ML ⊃ DL ⊃ GenAI. Wobei KI heute im wesentlichen ML ist und ML im wesentlichen DL. Aber DL beinhaltet signifikant mehr als nur GenAI. Also stark vereinfachend könnte man die heutige Situation so beschreiben: KI ≈ ML ≈ DL ⊃ GenAI.

2 „Gefällt mir“

Stimme 100% zu! :grinning:

Eigentlich kann man ja noch weiter gehen. Schließlich gehören auch regelbasierte (Experten-)Systeme zur KI und waren jahrzehntelang das wichtigste Teilgebiet, bevor das ML-Paradigma so dominant wurde. Da wird auch versucht, der Software eigenständiges „Denken“ beizubringen, aber indem man ihr Datenbankwissen und Logikregeln zu seiner Verwendung zur Verfügung stellt.
Stichwort auch Good Old Fashioned AI - GOFAI.

Der Übergang zur „klassischen“ oder sonstigen Informatik scheint mir (Nicht-Informatiker hier) dann tatsächlich, wie es oben geschrieben wurde, eher fließend. Wenn man zu den ganz frühen historischen Ursprüngen - Babbage, Lovelace, Turing - zurückgeht, ergibt das ja auch irgendwo Sinn. Erstmal ging es darum, eine Maschine zu konstruieren, die universell Berechnungen durchführen kann, dann wurde das graduell erweitert. Im Proposal für das Dartmouth Summer Research Project on AI (1956) heißt es dann mit höherem Anspruch:

The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves.

An diese Definition halte ich mich gern.
Heute aber sprechen sogar Menschen in meinem Umfeld, die sich tlw. beruflich mit KI beschäftigen (Nicht-Informatiker:innen) nur noch von KI, wenn mindestens eine Ausprägung von ML beteiligt ist - und oft wird auch das schon fast abgetan, seit LLMs so durch die Decke gehen oder wenn ein Modell sich nicht fortlaufend im Betrieb weiter anpasst.

„Any sufficiently advanced technology is indistinguishable from magic.“ - Arthuer C. Clarke

„The only way of discovering the limits of the possible is to venture a little way past them into the impossible.“ - Arthur C. Clarke

„As soon as it works, no one calls it AI anymore.“ - John McCarthy

Diese Aussprüche - in dieser Reihenfolge - beschreiben nach meinem Eindruck die Debatten um KI ganz schön. :slight_smile:

Hier mal eine interessante Einschätzung zu den Quartalszahlen von Nvidia:

das Wachstum flacht immer deutlicher ab, die Margen werden geringer.

So einen Artikel kann ich nicht ernst nehmen. Nvidia macht seit dem Bitcoin Boom schon riesige Gewinne. Gewinnmarge so um 60%. Apple hat z.B. um 30%. Wer macht schon 60% Gewinn auf jedes Produkt (im Durchschnitt)?

Fair enough. Ja du scheinst damit Recht zu haben, den der kleine, aktuelle Einbruch bei der Aktie scheint an den Aussichten zu künftigen Chips zutun:

Du scheinst versessen darauf zu sein, Beweise zu finden, dass das Thema KI nur ein temporäres Thema ist.

Ehrliche Frage:: Warum? Ist es Angst? Oder was treibt dich an, das Ende der Blase zu beschwören?

2 „Gefällt mir“

Das sehe ich auch so. „⊃“ heißt übrigens Teilmenge. Nur als Hinweis, damit die Unterhaltung hier nicht zu nerdig wird. :slight_smile:

Nicht wirklich.
Aber der aktuelle Hype um LLM führt leider zu völlig überzogenen Erwartungen. KI lässt sich prima für Sprachverarbeitung und Bilderkennung benutzen, aber das war auch schon vor dem ChatGPT-Hype so und wird auch danach wieder so sein.

Aber im aktuellen Hype werden KI-Software einfach völlig unmögliche Fähigkeiten zugeschrieben. Es wird übertrieben viel Geld auf das Thema geworfen sowohl von Unternehmensseite als auch von öffentlichen Stellen.
All das hat aber wenig bis gar keinen echten Grund sondern liegt nur an der übertriebenen öffentlichen Aufmerksamkeit, die ChatGPT generiert hat, weil es plötzlich „sprechen kann“.
Das triggert bei Entscheidern in Firmen und großen Behörden die Angst, dass man einen erkennbaren Fehler machen würde, wenn man sich nicht mit dieser Technik beschäftigt bzw. dort investiert. Und aus dieser Angst werden unüberlegte Entscheidungen getroffen. Und leider gibt es auch immer sofort Firmen, die solche unüberlegten Entscheidungen ausnutzen und Geld abgreifen, dass besser in sinnvolleren Projekten investiert wäre, auch wenn das weniger „sexy“ ist.

War das ein „Freud-scher Versprecher“? :wink:

Aber Spaß beiseite. Ich bin Techniker und als Techniker bin ich natürlich davon überzeugt, dass man mit Technologie vieles besser machen kann (wenn auch nicht alles). Aber dafür muss man die Technologie objektiv bewerten. Man muss Kosten und Nutzen (und Anforderungen) genau gegeneinander abwiegen.

Mal ein Extrembeispiel: Wer sich eine Solaranlage aufs Dach baut und dann meint, er könne seinen Stromanschluss kündigen, der wird sehr schnell eine böse Überraschung überlegen. Das macht natürlich keiner, weil der Zusammenhang Solarenergie ↔ Sonnenlicht auch für Laien sehr leicht zu überblicken ist.

Bei der LLM-Technologie (bzw. Deep-Learning allgemein) ist das viel schwerer, weil die Technik viel komplizierter ist. Und schon die Tatsache, dass diese Technik nur da funktioniert, wo extrem große Mengen an Trainingsdaten verfügbar sind (wie z.B. Texte im Internet), scheint vielen nicht klar zu sein.

Daher ist es mMn einfach wichtig, auf solche und ähnliche Limitierungen immer wieder hinzuweisen.

Das ist so nicht korrekt. Richtig ist, für das Training eines LLMs benötigt man sehr große Mengen an Trainingsdaten. Danach hat man ein Foundation Model, dass man relativ leicht auch in Nischenthemen aussagekräftig machen kann. Vor allem RAG ist dafür ein tolles Beispiel.

Gerade LLMs zeichnen sich als erste KI-Technologie dadurch aus, dass man ihr auch sehr schlecht aufbereitete, fehlerhafte Daten geben kann und sie trotzdem oft einigermaßen passabel abschneidet.

Also ja, LLMs wurden gehyped und Ihnen Dinge zugeschrieben, die so nicht funktionieren. Das war Unsinn. Mittlerweile hat sich der Hype-Cycle aber gedreht und vor allem Menschen, die selbst wenig mit LLMs zu tun haben, erklären nun wie schlecht und nutzlos die sind. Das ist ebenso Unsinn.

Ich würde mir wünschen, dass wir Deutschen hier offener werden. Eine Lösung muss zur Einführung nicht 100% perfekt funktionieren. Die frühen Autos hatten auch etliche Macken und es kam zu vielen gefährlichen Unfällen, obwohl die Autos kaum schneller als ein Pferd waren. Und trotzdem hat man sich darauf eingelassen und nicht über die hohe Fehleranfälligkeit geschimpft.

Die Wahrheit ist, nicht jeder Anwendungsfall benötigt 100% Fehlerfreiheit. Beim Chirurg, im Bankenwesen oder in der Energieversorgung mag das wichtig sein. In vielen anderen Bereichen aber nicht.

2 „Gefällt mir“

Auch bei diesen kritischen Bereichen ist ein Erfolg nicht wenn man 100% Fehlerfreiheit erreicht sondern schon wenn man mit KI, egal ob KI alleine oder eine Kombination aus Mensch und KI die aktuelle Fehlerquote reduzieren kann oder die Folgen von Fehlern weniger schwer ausfallen lässt.

Ich glaube es ist überall ein Fehler (nicht nur bei KI) wenn eine Verbesserung nur dann akzeptiert wird wenn die Verbesserung perfekt ist und nicht schon dann wenn sie besser als das aktuelle ist.

Egal ob in Firmen oder Vereinen erlebe ich diese Art von Diskussion immer wieder. Es wird lieber ein schlechter aktueller Stand akzeptiert als eine moderarte Verbesserung die nicht perfekt ist.

3 „Gefällt mir“

Da hast du vollkommen Recht. Wir haben hier in Deutschland ein ziemlich antiquiertes Bild von Fehlerkultur.

1 „Gefällt mir“

Stimmt, und was das Lustige daran ist: Alle Absurditäten und Fehler, die aus menschlichen Entscheidungen resultieren und durch KI-Projekte aufgedeckt werden, werden dann noch verteidigt.

Es scheint ein typisch menschliches Problem zu sein, bei anderen hohe Ansprüche zu stellen und seine eigene Intelligenz überzubewerten und andererseits bei sich dann in der eigenen Performance wegzuschauen. Das scheint auf die KI übertragen zu werden. Gerade Deutsche zeichnen sich meiner Meinung nach sehr in dieser Haltung aus, was es kulturell noch schwieriger macht.

1 „Gefällt mir“