Künstliche Intelligenz: Nur eine Blase?

Na ja, sie ist Philosophin und keine KI-Expertin. Interessant aber, dass sie auch die psychologischen Gründe nennt, warum Menschen, die durch KI verunsichert sind, dazu neigen, Systeme wie ChatGPT als „nur Mathematik“ abzutun:

Das scheint mir eine gängige Strategie zu sein, um der Verunsicherung durch KI zu begegnen: Wann immer sie den Menschen bei einer Aufgabe übertrifft, sei es beim Schach, beim Go oder beim Erkennen von Verkehrszeichen, heißt es oft, das sei ja „nur Mathematik“, keine wirkliche Intelligenz. Ich spüre dahinter den dringenden Wunsch, dass das menschliche Denken ein einzigartiges Mysterium bleiben möge.

Zu Beginn der industriellen Revolution war es für Menschen weniger ein Problem zu akzeptieren, dass Maschinen stärker sein können als Menschen. Schließlich gab es ja bereits Tiere, die stärker waren als wir. Bei der Intelligenz ist das anders. Hier sehen wir uns zu Recht an der Spitze der Evolution. Umso schwerer fällt es vielen, KI-Systemen auch nur ein wenig Intelligenz zuzugestehen - denn das würde ja bedeuten, dass KI - wenn sie weiterentwickelt wird - irgendwann intelligenter sein könnte als wir.

2 „Gefällt mir“

Der Begriff „stochastischer Papagei“ geht auf ein Papier aus dem Jahre 2021 zurück (Link) und wird häufig von KI-Skeptikern verwendet, wenn sie zum Ausdruck bringen wollen, dass diese Systeme nicht wirklich verstehen, sondern Dinge einfach nur nachplappern.

Wie oft in der Wissenschaft gibt es verschiedene Fraktionen und Denkschulen. Das Papagei-Papier wurde von Computerlinguisten verfasst und man muss wissen, dass Computerlinguisten in der Sprachverarbeitung traditionell auf symbolische KI-Ansätze gesetzt haben. Also vereinfacht gesagt auf die regelbasierte Zerlegung von Sätzen in ihre Bestandteile wie Subjekt, Prädikat, Objekt usw… Das Aufkommen von Deep Learning hat (insbesondere zu Beginn) bei vielen Computerlinguisten zu Skepsis und Ablehnung geführt, weil diesen Systemen die expliziten Regeln fehlen und ihre Funktionsweise schwer nachvollziehbar ist. Eine schillernde Leitfigur auf diesem Gebiet ist der ehemalige Linguistik-Professor (und mittlerweile 96 Jahre alte) Noam Chomsky (hier in einem Video zu ChatGPT).

Hinton geht in diesem schon weiter oben zitierten Talk (ab min 5:43) auf die Linguisten und auf Chomsky ein. Ab min 13:20 auch auf die (vor allem aus der Chomsky-Ecke kommenden) Einwände, die LLMs seinen gar nicht wirklich intelligent, sondern nur eine Form von glorifiziertem Autocomplete (eine andere Bezeichnung für „stochastische Papageien“).

Problematisch finde ich, wenn einige Publikationen - wie etwa netzpolitik.org - sehr einseitig nur die Chomsky-Linie vertreten anstatt das Thema KI faktenbasiert und vor allem faktenoffen zu betrachten. Aber ich glaube, diese skeptische Sicht auf KI ist in der Tendenz auch eine Eigenschaft der gesamten deutschen Blase.

2 „Gefällt mir“

Ich wollte die Diskussion auch nicht erneut öffnen, sondern nur darauf hinweisen, dass führende Wissenschaftler mittlerweile der Meinung sind, dass LLMs durchaus ein gewisses Verständnis der Welt entwickeln und auch eine gewisse Intelligenz besitzen. Man beachte hier das Adjektiv „gewisses“. Ich hatte ja weiter oben Hinton und Ng verlinkt.

ffiene hat mit dem Begriff „stochastische Papageien“ diese Frage indirekt aber wieder aufgemacht, denn: wenn LLMs tatsächlich ein Verständnis der Welt entwickeln, wie die Wissenschaftler sagen, sind es eben gerade keine nur nachplappernden Papageien.

Zu diesem Thema gibt es auch eine aktuelle MIT-Studie:

Zum „Verständnis“ von LLMs:

Laut des Berichts hat der Betroffene Strafanzeige gestellt, ist damit aber abgeblitzt – weil es keine reale Person gibt, die als Urheber zu betrachten ist.

Softwareproblem. Kann man nichts machen :man_shrugging:

Eher: Neue Technologien, für die das Rechtssystem noch nicht ausgelegt ist.

Die Frage der strafrechtlichen Verantwortung bei schweren Straftaten durch autonome Systeme wird aktuell weiter heiß diskutiert. Letztlich ist es aber auch nicht schlimm, dass es hier keinen strafrechtlichen Hebel gibt (oder fordert jemand ernsthaft, dass einer der Entwickler der LLMs in den Knast gehen soll, weil der Chatbot Mist erzählt?), wichtiger ist, dass es zivil- und verwaltungsrechtliche Hebel gibt, daher die Möglichkeit des Schadenersatzes und Unterlassungsanspruchs (jeweils Zivilrecht) und die Möglichkeit hoher Strafen für Unternehmen, die solche Produkte auf den Markt bringen (dh. verwaltungsrechtliche Strafen).

Unternehmen, die LLMs betreiben, kann man eben am ehesten über Geldstrafen und Tätigkeitsverbote dazu bringen, rechtskonforme Produkte zu releasen.

Einzelfälle sind für pauschale Urteile ungeeignet. Gibt es denn Untersuchungen dazu, ob solche Verwechslungen häufiger passieren?

Die in dem Artikel erwähnte Klage von NOYB ist aber natürlich zu unterstützen, allein schon um Rechtssicherheit und -klarheit in Bezug auf die DSGVO wiederherzustellen.

Ich halte die Bezeichnung ja auch für ganz amüsant, aber habt ihr GPT 4 o.ä. in letzter Zeit auch mal benutzt? Das ist zum Teil wirklich beeindruckend und geht über das bloße Wiederkäuen sowieso bekannter Informationen wirklich hinaus.

Beispiel: Eine Folge des Podcasts Logbuch Netzpolitik trägt als Witz/Spruch den Titel „real men use it after free()“. Hat man diesen - neuen und im Internet vorher noch nicht kursierenden - Witz dann ChatGPT zur Erklärung gegeben, konnte das den Witz korrekt erklären: Es hat dabei sowohl den Bezug auf Programmierung (manuelle Speicherverwaltung in C/C++ und dessen Risiken) erkannt als auch die Verbindung zu stereotypen Männlichkeitsbildern („echte“ Männer) und damit einhergehend den Bezug zu risikoreichem Verhalten, aus deren Verknüpfung sich der Witz erst ergibt.

Das kann man natürlich einfach stochastischen Papagei nennen und sich nicht weiter damit befassen, ich finde es aber schon beeindruckend.

So ähnlich hat, ich glaube @Daniel_K, auch schon mal bei dieser Diskussion argumentiert. Das ist auch erst mal ein valides Argument.
Aber umgekehrt kann man auch fragen, ob wir unseren eigenen Verstand und dessen Funktion wirklich schon so gut verstanden haben, dass wir ihn wirklich „nachbauen“ können.

Habe mir das mal angehört und ich finde seine Argumente eher dürftig. Er sagt, nach meinem Verständnis, nur, dass das was LLM mit Milliarden an Parametern machen, eine Form von Verstehen ist UND das wir aktuell kein besseres Modell unseres „menschlichen“ Verstehens hätten.
Der zweite Teil mag stimmen aber nur weil wir nichts haben, was besser ist, heißt es noch lange nicht, dass LLM dem „menschliche“ Verstehen nahe kommen.

Weiß ich nicht, denn der Microsoft Copilot ist ja Software (bzw. Dienstleistung, weil die Anfrage ja quasi in der Ferne beantwortet wird). Da haben wir eigentlich seit langem Gesetze für Produkthaftung, AGBs usw.
Aber das funktioniert ja schon bei normaler, programmierter Software nicht wirklich, siehe die ganzen Fehler in Microsoft-Produkten, die aber quasi folgenlos für Microsoft bleiben, weil die Firma de facto ein Monopolist ist.

Im Grunde schon, nur halt nicht die (angestellten, weisungsgebunden) Entwickler, sondern die Firmen-Chefs, die das Produkt wider besseren Wissens in Umlauf gebracht haben, ohne sicherzustellen.

Das könnte bei LLM auch noch mal spannend werden, denn „Unterlassen“ könnte bei „angelernten“ Programmen wie ChatGPT auf ein aufwendiges und teures erneutes Trainieren hinauslaufen. Aber ich vermute, da hat OpenAI vorgesorgt und genug manuelle Filter eingebaut.

Ist jetzt ein Nebenkriegsschauplatz.
Aber meiner Ansicht nach kann man das mit Google-Treffern vergleichen. Die hat Google per Software sammeln lassen und bei Falschtreffern kann man Unterlassung fordern.
OpenAI wird sicher keine Verträge schließen, in denen sie zusichern, dass ChatGPT korrekte Ergebnisse liefert.
Man müsste also wohl auf Falschaussagen hinweisen und OpenAI müsste diese manuell sperren.
Grundsätzlich beweist das wieder, dass man Informationen aus unsicheren Quellen immer nochmal überprüfen sollte, bevor man sie für bare Münze nimmt.

Mal eine grundsätzliche Frage:
Wieso reicht es eigentlich nicht, dass der aktuelle Stand des maschinellen Lernens sehr ausgeklügelte Werkzeuge zur Textübersetzung, Textvervollständigung usw. ermöglicht?
Das ist doch schon eine ordentliche Leistung. Wieso muss es unbedingt gleich „Verstehen“ und „AGI“ sein?

Wie meinst du die Frage?

Also man hat ja auch nicht gefragt: „Warum reicht es uns nicht, mit Pferdekutschen durch die Gegend zu fahren“. Es geht eher um eine Einschätzung des zukünftigen Potenzials und weniger darum, was die Software jetzt schon kann. Und dafür muss man natürlich „nach den Sternen greifen“ und darf sich nicht mit dem bereits sicher erreichten zufrieden geben. Die Gefahr, das Potenzial von von „künstlicher Intelligenz“ nicht richtig einzuschätzen, ist eben, dass andere das tun könnten - und wir wollen sicherlich nicht in einer Welt leben, in der China oder Russland eine viel mächtigere künstliche Intelligenz haben als Europa oder die USA…

Wir merken ja jetzt in der Kriegsführung in der Ukraine schon, wie entscheidend künstliche Intelligenz ist. Funksignale und GPS-Signale können deaktiviert werden, darin ist Russland schon jetzt scheinbar besser als der Westen, eine on-board KI an einer Drohe, die die Landschaft analysiert und Ziele erkennt, kann hingegen nicht durch Funkstörungen deaktiviert werden. Hier kann KI plötzlich etwas leisten, was Menschen nicht mehr leisten können - und was auch nur mäßig durch bloßes „vorher-programmieren“ erreicht werden kann. Ich sage nicht, dass das eine gute Entwicklung ist - ich sage nur, dass Länder wie Russland oder China diese Entwicklung ausnutzen werden und wenn wir es nicht tun - tja, dann reiten wir in Zukunft auf unserem hohen moralischen Ross gegen Panzer an…

Das würde bei allen modernen Technologien zu massiven Verzögerungen führen. Wir leben jetzt schon in einer Zeit der Overcompliance. Es muss letztlich immer eine Abwägung zwischen potenziellen Gefahren und Nutzen stattfinden - und sobald klar wird, dass sich eine relevante Gefahr verwirklicht, muss diese kurzfristig abgestellt werden. Dafür zu sorgen ist das Zivil- und Verwaltungsrecht eben deutlich angemessener als das Strafrecht.

Hier muss man schon eine kohärente Meinung vertreten: Man kann nicht gleichzeitig kritisieren, dass Schwarzfahrer im Strafvollzug landen und fordern, dass Firmenchefs, die einen Chatbot in Umlauf bringen, der in Fringe-Case-Situationen problematische Antworten gibt, im Strafvollzug landen. Das passt einfach nicht zusammen. Strafvollzug ist entweder die Ultima Ratio oder nicht. Hier ist ein Anwendungsfall, in dem relativ klar Zivil- und Verwaltungsrecht erstmal ausgeschöpft werden müssten, bevor wir darüber diskutieren, das scharfe Schwert des Strafrechts zu schwingen.

1 „Gefällt mir“

Das ist aber vielleicht genau das Problem. Denn das, was die KI-Software jetzt schon kann, und zwar zuverlässig, scheint ja eher überschaubar zu sein:

Laut Microsoft-AGB: KI ist nicht für wichtige Dinge geeignet - golem.de

Man stelle sich mal vor, man würde einen Drucker für seine Firma kaufen und der Hersteller würde sagen: Nutzen sie den Drucker nicht für wichtige Sachen (wie Verträge) weil der Drucker-Treiber manchmal ganze Absätze „vergisst“. So einen Drucker würde kein Kunde kaufen, oder? Aber bei KI-Software ist das, scheinbar, kein Thema.

Bist du dir das sicher? Ich glaube nämlich nicht, dass „KI“-Software aktuell in der Ukraine in relevantem Maße eingesetzt wird.
Es gab ja in D z.B. viel Diskussionen über die Weitergabe moderner Leopard-Panzer 2A6. Die ab sind 2001 ausgeliefert worden. Das heißt die Entwicklung, selbst der modernsten Teile, begann in den 90er. Wo soll da also die moderne KI-Software herkommen?

Ich würde im Gegenteil sagen, der Ukrainekrieg beweist eher, wie wichtig es ist genügend militärisches Material zu haben, auch wenn es schon älter ist. Das sieht man z.B. gut an der schieren Masse an Artellerie, die die Russen leider ins Feld führen können.

Das ist erst mal eine valide Theorie.
Aber kannst du auch belegen, dass tatsächlich Dronen mit solcher Technik eingesetzt werden? Ich glaube nämlich, gerade im militärischen Bereich wird da viel herbeigeredet.

Ein anderes Problem, ist meiner Meinung nach, das im militärischen Kontext die Begriffe Automatisierung, Autonomie und „KI“ gerne durcheinander gebracht werden, siehe hier:

Im Titel steht „KI“ aber der aktuelle Stand sind halt nur automatisierte und teil-autonome Systeme, z.B. Dronen, die automatisch in der Luft über eine Stelle kreisen. Von „Intelligenz“ kann da also keine Rede sein.

Computer können schon lange Dinge, die wir Menschen nicht können. Und auch vor der Erfindung von Computer haben wir Menschen seit Jahrtausenden immer tödlichere Waffen gebaut. Und das tun wir wohl leider auch weiterhin. Da sehe ich aber weniger eine Revolution als mehr eine Evolution, also eine Fortführung der bisherigen Entwicklung. Und wie stark der Einfluss von „KI“-Software bei Waffen sein wird, ist fraglich.

Und stattdessen „reifen“ klassische Software und demnächst „KI“-Software beim Kunden oder wie? :wink: Schau dir nur mal den Crowdstrike-Ausfall neulich an? Oder die permanenten Sicherheitsprobleme bei Microsoft.
Die Verzögerungen, von denen du sprichst, die gibt es schon heute. Nur das die Firmen halt unfertige Software einfach trotzdem verkaufen (dürfen).

Das kommt auf die Dimension an, würde ich sagen. Siehe hier:

Zum anderen hat das LG Braunschweig die Anklage der Staatsanwaltschaft wegen gewerbs- und bandenmäßigen Betrugs zugelassen (§ 263 Abs. 1, Abs. 3 Nr. 1 StGB).

Davon sind wir beim aktuellen KI-Hype vielleicht noch ein Stück weit entfernt. Aber der Kern des VW-Skandals war ein Stück Software, das ein bisschen zu sehr auf bestimmte Testszenarien optimiert war, um es mal blumig zu formulieren.

Man stelle sich mal vor, die „Intelligenz“ von einem Microsoft KI-Co-Pilot stellt sich im nach hinein als getürkt heraus, weil z.B. das Lösen von Fermi-Probleme (eine Form von Reasoning) von OpenAI geschickt dazu programmiert wurde und kein Ergebnis des Trainierens ist.

Ich würde sagen, Microsoft weiß schon, warum es so ultra-schwammige AGB für seine KI-Software hat.

Genau so etwas gab es. Drucker haben jahrelang beim Kopieren und Scannen einfach Zahlen und Buchstaben vertauscht - und das ganz ohne AI:

Da kann man sich sicher sein. Sowohl die Ukraine als auch Russland haben und verwenden u.a. Kampfdrohnen, Loitering Munition/Kamikazedrohnen und Überwachungs- und Aufklärungsdrohnen
Diese Drohnen nutzen alle Techniken aus dem Bereich der modernen Computer Vision und insbesondere Loitering Munition ist ohne AI nicht wirklich denkbar.

During the 2022 Russian invasion of Ukraine, both sides have utilised drones in combat and for reconnaissance, and drones have played an important role in offensives. […] The main roles of drones in the war, however, are in reconnaissance and artillery spotting. - Wikipedia

Since the 2022 Russian invasion of Ukraine, approximately 30 companies in Ukraine have emerged to mass-produce drones for the war effort. The Ukraine government Ministry of Digital Transformation initiated the „Army of Drones“ project, and is attempting to purchase up to 200,000 drones in 2023, aiming to deploy relatively cheap drones against large advantages Russia has had in military equipment. In 2023, they have also sponsored several competitions where the „dozens of drone developers that have sprung up all over Ukraine“ are invited to make simulated attacks on ground targets, or chase fixed-wing drones, or even participate in drone dogfight competitions.[38] One new model that has been successful is the „Baba Yaga“ hexacopter, which can carry „44 pounds of payload“.[39][40][41] - Wikipedia

1 „Gefällt mir“

Nein das gab es nicht. Du hast in deinem Zitat nämlich die wichtigste Stelle vergessen, nämlich dass Microsoft seinen Co-Pilot-Kunden von vorneherein sagt, dass ihre KI-Software nicht für wichtige Sachen taugt.
Der Xerox-Bug war im Grunde ein klassischer Fall von Software-Fehlern. Das ist zwar auch unschön und Xerox hatte 2013 auch erst versucht das Problem klein zu reden, aber sie haben dann zumindest den Fehler behoben und vor allem hat Xerox nicht versucht dem Kunden von Anfang an ein unfertiges Produkt zu verkaufen.

Microsoft hingegen weiß genau, wie unzuverlässig ihr Co-Pilot ist und muss daher entsprechend Warnungen zur juristischen Absicherung in die AGB schreiben.

Ich wollte gerne Belege haben, wo wirklich aktuell KI-Software im Ukraine-Krieg eingesetzt wird.

Keiner deiner Quellen belegt deine Behauptung. Und warum ist Loitering Munition, also Dronen, die in der Luft kreisen und auf ein Ziel warten, nicht ohne KI-Software denkbar?

Dass Drohnen Computer-Vision-Techniken nutzen, ist einfach ein Fakt. Damit sind Dinge wie die automatische Vermessung und Erkennung von Objekten und Bewegungen gemeint und das automatische Extrahieren und Interpretieren von Informationen aus Bildern. Dies wird auch mit Mustererkennung und verschiedenen statistischen Methoden kombiniert - da kommt dann in moderner Software oft auch KI ins Spiel, die Grenze/der Übergang ist fließend. Ich habe dafür keine Quellen - das ist erstmal nur Wissen aus dem Informatikstudium.

Loitering Munition unterscheidet sich von anderen Drohnen in der Komplexität der Aufgabe:
Loitering Munition muss in unkontrollierbaren Umgebungen selbstständig Kombatanten erkennen, im Idealfall noch feindliche und freundschaftliche Soldaten unterscheiden können und dann selbstständig angreifen. Das ist also eine anspruchsvolle Aufgabe. Wäre dem nicht so, könnte man ja auch einfach Minen verlegen.

Es ist daher davon auszugehen, dass zum Beispiel in der Musterkennung von Loitering Munition nicht nur „klassische“ Algorithmen, sondern auch Methoden aus der KI eingesetzt werden - zB dass die Erkennung im Vorfeld mithilfe von Maschinellem Lernen trainiert wurde. Darüber hinaus könnte man auch argumentieren, dass Drohnen, die selbstständig ihre Umgebung analysieren und Kampfentscheidungen treffen, inhärent KI sind - unabhängig von den Implementierungsdetails.

Falls du meinen Schlussfolgerungen nicht glaubst, es gibt auch JournalistInnen die konkreter über den KI-Einsatz in der Ukraine berichten:

https://www.washingtonpost.com/world/2023/07/26/drones-ai-ukraine-war-innovation/

Es wird immer die Abwägung zwischen „schnellem Fortschritt“ und „sicherem Fortschritt“ sein - und man wird immer einen gesunden Mittelweg finden müssen. Ist man zu langsam, bekommt man im internationalen Vergleich ein Problem (z.B. wenn hier extrem hohe Ansprüche an alle KI-Entwicklungen gestellt werden, während Russland und China das volle Potenzial ausschöpft…), ist man zu schnell, wird es zu schwerwiegenden Problemen kommen (Contergan, Asbest und co. lassen grüßen). Die Frage ist immer, wie viel Risiko man eingehen möchte - der schnellste Fortschritt ist nun einmal, die Dinge „im großen Maßstab in der Gesellschaft“ zu testen, aber das kann natürlich gehörige Schäden erzeugen. Der sicherste Fortschritt ist, alles über Jahrzehnte im Labor zu testen und erst zuzulassen, wenn 100% klar ist, dass es keine unerwarteten Negativwirkungen haben kann.

Ich bin da für einen gesunden Mittelweg - und das heißt, dass die „Schäden“, die LLM-Anwendungen aktuell erzeugen, wenn sie verleumderische Inhalte verbreiten, zwar definitiv beseitigt werden müssen, aber diese Schäden sind nicht groß genug, mit der dicken Keule des Strafrechts oder gar mit einem Verbot solcher LLM-Anwendungen zu drohen. Das wäre einfach die Überbewertung von Sicherheit gegenüber Fortschritt. Wenn man natürlich auf der Sicherheits-Fortschritts-Skala sehr weit auf der Seite der Sicherheit steht, mag man das anders sehen. Ich würde mich grob in der Mitte der Skala einordnen, vielleicht sogar leicht zum Fortschritt geneigt.

Das sind ganz andere Dimensionen, vor allem im Hinblick auf den Vorsatz. Natürlich muss das Strafrecht bemüht werden, wenn Firmenchefs gezielt im großen Maßstab Lügen und Betrügen, um damit massive Vermögensvorteile zu erzielen. Das ist in der KI-Diskussion aber nicht der Fall.

Hier ist natürlich die Abgrenzungsfrage zwischen „übertriebenen Werbeversprechen“ und „richtigem Betrug“ relevant. Wenn z.B. KI-Anbieter - ähnlich wie im VW-Skandal - eine KI so präparieren würden, dass sie in einem Test-Szenario eine von einem Menschen im Hintergrund gegebene Antwort als ihre eigene ausgibt (alá „Schachtürke“), um Kunden zum Kauf der Software zu bewegen, wäre das ein vergleichbarer Betrug, der auch strafrechtlich relevant wäre. Hier geht es aber nur darum, dass eben die Grenzen der Leistungsfähigkeit nicht ganz sicher sind und Anbieter auch gar nicht behaupten, dass die KI alles immer sicher fehlerfrei beantworten könnte (im Gegenteil sogar!), sodass sich eher die Frage stellt, wie viel Selbstverantwortung man dem Kunden überlassen darf. Das ist aber eine verwaltungsrechtliche Frage (ob ein solches Produkt auf dem Markt „zulassungsfähig“ sein soll) und keine strafrechtliche Frage.

Das ist teilweise richtig. Aber welche Drohnen genau „Computer-Vision“ oder schlichter formuliert Bilderkennung nutzen, ist schwer zu beurteilen. Und wie leistungsfähig die „KI“-Software, die ja dann in den größtenteils kleinen, improvisierten ukrainischen Drohnen (wie in deinem verlinkten Artikel) laufen muss (da diese Drohnen ja gerade gestört werden und keinerlei Funkverbindung mehr haben), noch sein kann, ist fraglich.
Bei leistungsfähigeren westlichen Drohnen, die von großen Rüstungsfirmen gebaut werden (und entsprechend kosten) sieht das natürlich anders aus.

Das heißt wir reden bei militärischer KI-Nutzung heutzutage vor allem über Bilderkennung. Das wichtigste, was damit mMn möglich ist, ist Freund-Feind-Erkennung ohne menschliches Eingreifen. Das klingt natürlich erst mal sehr schwerwiegend.
Aber ich finde, wenn man bedenkt, zu was für schlimmen Ereignissen menschliche Fehlentscheidungen bei der Beurteilung von „Zielen“ in der Vergangenheit bereits geführt haben (z.B. Collateral Murder, Luftangriff bei Kundus 2009, Beschuss einer Hochzeitsgesellschaft durch B52) dann weiß ich nicht, ob eine KI da wirklich schlimmeren Schaden anrichten kann.

Wenn man jetzt aber an andere Nutzungsmöglichkeiten von „KI“-Software denkt, z.B. das autonome Fliegen einen Drohne, dann sollte man berücksichtigen, dass „KI“ immer große Mengen an Trainingsdaten braucht, um „gut“ zu funktionieren. Wo sollen aber Millionen an Flugstunden-Daten für eine eine bestimmte Drohne herkommen, die auch noch zwingend alle Einsatzarten, in jedem Gelände, bei jedem Wetter und allen denkbaren Problemen, abdecken. Und wie wir von dem Training von LLM wissen, müssen solche Trainungsdaten auch noch mit hohem personellem Aufwand gesichtet und bearbeitet werden. Wer soll das also machen und noch wichtiger: bezahlen?

Also wenn wir von Militärtechnik reden, spielt Geld wirklich eine untergeordnete Rolle.
Jede einzelne Flugabwehrrakete, die in der Ukraine aktuell verschossen wird, kostet hunderttausende Euro (IRIS-T) oder sogar mehrere Millionen Euro (PATRIOT). In Anbetracht dieser Kosten sind die Entwicklungskosten einer Navigations-KI, die nebenbei auch zahlreiche zivile Nutzen haben könnte, wirklich Peanuts.

Der Einsatz im Krieg ist aber auch nur ein Beispiel von vielen, in denen KI immer relevanter wird. Übrigens setzt das israelische Militär schon länger auf KI, vermutlich sowohl in der Offensive, als auch in der Defensive.

Gerade in der Defensive wird das besonders wichtig sein, denn bei einer Überforderung der Abwehrkapazitäten im Rahmen eines Massenbeschusses (wie dem durch den Iran am 14. April) muss binnen kürzester Zeit entschieden werden, welche Raketen abgefangen werden und welche man durchlassen muss, weil die Kapazitäten nicht ausreichen. Da müssen immense Daten (Flugbahnen, Besiedelung am Einschlagsort, Reichweite und Kapazität aller Abwehrsysteme usw.) binnen Sekunden zusammengetragen und eine ideale Entscheidung getroffen werden - und das kann eine KI eben besser als jeder Mensch es je können wird (und für einen einfachen Algorithmus ist die Situation zu komplex).

Ob wir es mögen oder nicht, KI wird in Zukunft immer wichtiger werden, dass es natürlich auf dem Weg viele übertriebene Hypes und entsprechende „Täler der Trauer“ geben wird, ist auch klar. Das ändert aber nichts daran, dass KI in der Tendenz über die nächsten Jahre immer und immer wichtiger werden wird.

2 „Gefällt mir“

Neues aus der Mathematik: 9.11 ist (laut Chat GPT, erg. Mod.) größer als 9.9 (Schreibweise mit Dezimalpunklt).

https://x.com/goodside/status/1812977352085020680

https://x.com/billyuchenlin/status/1812948314360541302

1 „Gefällt mir“

Ich verstehe ehrlich gesagt nicht auf was man mit den Einzelbeispielen hinaus will. Das wäre ja nur relevant wenn man den Anspruch hätte, dass eine KI generell völlig Fehlerfrei sein muss.

Das schafft aber der Mensch auch nicht. Mein Kollege, der seit Jahren nichts anderes macht als Montagen und für den Gewindemaße Tagesgeschäft sind hat kürzlich weil 1/2" zu wenig Querschnitt hatte die Verschraubung in 1/4" auf den Bestellschein geschrieben. Das hat er schon hunderte bis tausende male korrekt gemacht und plötzlich war ein Zahlendreher drin.

Eine generelle Ablehnung von KI als Instrument weil es auch mal zu Fehlern kommt ist doch völlig realitätsfremd. Es kommt ja auch keiner auf die Idee zu sagen man solle künftig Bagger abschaffen weil diese mehr Fehlerpotential haben als Schaufeln. Am Ende ist das doch alles eine Frage der genauen Gestaltung des Einsatzes von KI im Arbeitsalltag.

1 „Gefällt mir“

Das hat wohl schlicht damit zu tun, dass Versionsnummern in der Programmierung so funktionieren. Daher:
Version 9.11 ist tatsächlich die „höhere“ Version als Version 9.9. Dumme Konvention, ist aber so.

Wenn nun im Trainingsmaterial genug Versionsnummern waren, wovon auszugehen ist, kann das natürlich zu diesen Problemen führen. Quasi ein klassischer Fall von schlechtem Trainingsmaterial.

1 „Gefällt mir“