Anknüpfend an
Es mehren sich in den letzten Wochen Zweifel, ob die Entwicklung von generativen Modellen letztlich zu dem führt, was sich alle im aktuellen Hype um KI erhoffen: eine zuverlässige Lösung. Ich verweise dazu auf zwei Artikel im Handelsblatt (leider hinter Paywall):
Diese Artikel fassen die aktuellen Argumente gut zusammen:
Große Sprachmodelle, egal wie beliebt sie heute sind, bergen zu viele Risiken. Das größte Risiko ist Fehlinformation, ein weiteres sind Halluzinationen. Ein großes Sprachmodell ist ein probabilistisches Modell, das das wahrscheinlichste nächste Wort in einem Satz ausrechnet. Die Systeme sind erstaunlich gut im Nachahmen, aber wirklich schlau sind sie nicht. Manchmal ist die Antwort richtig, manchmal ist sie falsch. Vor allem: Wir können nicht vorhersagen, wann.
Die Fortschritte nehmen bei jeder neuen Modellvariante ab. Immer größere Modelle werden nicht den Heiligen Gral der künstlichen allgemeinen Intelligenz erreichen. Die Aussicht, dass ein mit immer mehr Daten gefüttertes Modell am Ende die AGI (Artificial General Intelligence) hervorbringt, ist unwahrscheinlich. Zum einen gibt es schlicht nicht genug gute Daten. OpenAI hat quasi das komplette Internet und noch viel mehr nach menschlichen Texten durchforstet und verschriftlicht jetzt sogar YouTube-Videos. Zum anderen bleibt es zweifelhaft, ob mehr Texte der KI-Entwicklung wirklich weiterhelfen: Menschen erstellen kausale Modelle, wie die Welt funktioniert. Generative KI tut das nicht, daher können wir ihr nicht wirklich vertrauen.
Die Investmentbank Goldman Sachs und der Wagniskapitalgeber Sequoia warnen jetzt vor einer gefährlichen Übertreibung – einer Blasenbildung: Nach deren Berechnungen müsste die KI-Industrie 600 Milliarden Dollar pro Jahr einnehmen, um die massiven Ausgaben für Hardware, darunter spezialisierte Chips und Rechenzentren, zu bezahlen. Dem stehen jedoch kaum Einnahmen in Form von Umsätzen gegenüber, die dank KI entstehen (der Jahresumsatz des Marktführers OpenAI lag zuletzt nur bei 3,4 Milliarden Dollar).