Tatsächlich ist „Intelligenz“ schon die korrekte Übersetzung des „I“ von „AI“ aus dem amerikanischen Englisch. Der Begriff wurde 1955 von dem amerikanischen Informatiker John McCarthy geprägt und der meinte mit dem „I“ damals tatsächlich Intelligenz im Sinne von menschlicher Intelligenz, also Fähigkeiten wie Lernen, logisches Denken, Problemlösen und Sprachverständnis. Machine Learning ist ein Teilgebiet der KI (die Grafik von sereksim zeigt das ja sehr schön) und kam erst später. Und erst dafür spielte dann natürlich auch das Sammeln von Daten eine große Rolle.
Klar, 70 Jahre lang hat der damals formulierte Anspruch nicht zu dem gepasst, was man tatsächlich technisch hat umsetzen können. Nun beginnt sich das halt zu ändern. Wenn man das McCarthy-„I“ mal auf der y-Koordinate aufträgt, sehen wir eine 70-Jahre lange waagerechte Null-Linie, die nun seit einigen Jahren erstmals einen Knick hat. Wir haben mit den LLMs erstmals Systeme, die „breit“ genug arbeiten, um sie nicht mehr als „Narrow AI“ bezeichnen zu müssen. Tatsächlich liegt die Menge des Text-Materials, dass die Modelle konsumiert haben, um Größenordnungen über dem, was ein Mensch in seiner Lebenszeit jemals lesen kann.
Es ist wichtig zu verstehen, dass die LLMs die gelernten Texte nicht einfach nur nachahmen (wie TilRq das oben formuliert hat) oder geschickt rekombiniert wiedergeben. Sondern durch das Training („Sage das nächste Wort vorher“) werden sie gezwungen, den Sinn hinter den Texten zu erfassen. Also die Ideen und Konzepte dahinter sowie deren (kausale und andere) Beziehungen. Nur so können sie das nächste Wort in einen neuen Text wirklich gut vorhersagen.
Dieses „den Sinn von etwas erfassen“ ist eine übliche Definition des Wortes „verstehen“. Man kann also mit Fug und Recht sagen, dass die Modelle tatsächlich zu einem gewissen Grad verstehen worüber sie reden. Sie ahmen dieses Verständnis nicht einfach nur nach. Auch neurobiologisch gibt es ja Parallelen zwischen den Gehirnen biologischer Lebewesen und neuronaler Netze und Hinweise darauf, dass menschliche Gehirne Information letztlich nicht gänzlich anders prozessieren. Hier stimme ich voll mit diesem Post von Schnackerio weiter oben überein.
Eine bekannte Stimme, die immer wieder darauf hinweist, dass diese Modelle auf ähnliche Weise verstehen, wie auch Menschen verstehen, ist Geoffrey Hinton. Er ist Empfänger des „Turing Awards“ (quasi Nobelpreis der Informatik), der auch als einer der „Godfather of AI“ bezeichnet wird. Interessanterweise hat sich Hinton im Laufe seines Lebens viel auch mit der biologischen Seite (Neurowissenschaften) beschäftigt.
Diese Interview-Ausschnitt bringt Hintons Aussagen relativ plakativ auf den Punkt:
Hier noch ein ausführlicherer Vortrag (Link), in dem er ab min 13:40 auch darauf eingeht, warum Leute es sich zu einfach machen, wenn sie bei den LLMs einfach nur von „Autocomplete“ reden.