Ich verstehe ehrlich gesagt nicht auf was ihr hinaus wollt.
Was zeichnet hier in dieser Diskussion AI jünger aus?
Ich verstehe ehrlich gesagt nicht auf was ihr hinaus wollt.
Was zeichnet hier in dieser Diskussion AI jünger aus?
Wir sollten hier die Fachwelt und die Medienrezeption unterscheiden. Meines Wissens hat kein namhafter _KI-Forscher je ernsthaft davon gesprochen, dass man mit LLMs eine AGI erreicht. Ein Le Cun (zweifellos einer der führenden Forscher auf dem Gebiet) beispielsweise verweist schon seit Jahren unvermindert darauf, dass es ganz neue Modell-Architekturen und Herangehensweisen benötigen wird um eine AGI zu erschaffen - dies letztlich aber erfolgreich sein wird.
Was die Studie untersucht hat ist, ob es emergente Fähigkeiten der LLMs wirklich gibt. Dabei geht es lediglich darum, ob LLMs durch immer weitere Skalierung der Trainingsdaten und Modellstruktur quasi endlos besser werden können. Das hat mit einer AGI genauso wenig zu tun wie ein Isaac Newton mit einem Grundschüler, der vor einem Brockhaus Universallexikon sitzt.
Der Grundschüler kann mit dem Lexikon erfolgreich Lösungen auf Fragen nachschlagen, vielleicht sogar einfache, bekannte Zusammenhänge kombinieren und so neue Dinge schlussfolgern. Und je dicker das Lexikon wird (mehr Trainingsdaten, also Skalierung), umso erfolgreicher wird der Grundschüler. Newton hingegen konnte erkennen, dass es im bestehenden Wissen Inkohärenzen gibt, verwarf daher Vorstellungen, die nicht ins Bild passten und leitete völlig neues Wissen her.
Was manch einer vielleicht durcheinander wirft ist, dass es gar keine AGI braucht um dem Menschen gefährlich zu werden. Die wenigsten Menschen sind nämlich Newtons, DaVincis oder Curies. Das kreative Arbeiten der meisten Menschen unterscheidet sich kaum vom Grundschüler. Nur suchen sie heute bei Google und nicht im Brockhaus.
Und auch unter uns IT-Menschen sind bei weitem nicht alle Masterminds wie Minsky, Nygaard oder ähnliche. Stattdessen wenden (die besseren von uns) erlerntes (bzw. nachgeschlagenes) Wissen wie Design Patterns, Algorithmen oder Heuristiken zum Lösungsdesign, die die Masterminds entwickelt haben, mehr oder minder stumpf an (und das nennen wir dann Best Practice).
Dieses Niveau können LLMs völlig zweifellos erreichen. Es ist nur eine Frage der Zeit und der Skalierung. Menschen die das nicht erkennen, erinnern mich an all die Militäreinheiten, die Anfang des 20. Jhd. lieber noch auf Pferde als auf Panzer setzten, weil Pferde kein Erdöl benötigen, aber auch wendiger, geländegängiger und sowieso viel cooler weil oldschool sind. So kann man fraglos argumentieren, aber es ist schon sehr nah dran an Realitätsverweigerung.
Falls du damit mich gemeint hast: Mir ging es mit dem Beitrag darum, dass wir bei dem Thema maschinelles Lernen von den überzogenen Erwartungen weg kommen und z.B. die Anwendungen von LLM (also Übersetzungen, Internet Recherche usw.) realistisch beurteilen und dann auch sinnvoll einsetzen. Und insbesondere sollten wir LLM nicht für solche sicherheitskritischen Anwendungen in Betracht ziehen:
Ja, wahrscheinlich haben die echten Experten sehr auf ihre Wortwahl geachtet. Aber der Tenor, in den sie letztes Jahr eingestimmt hatten, war unmissverständlich, siehe hier:
Nicht ganz, würde ich sagen.
In ihren eigentlichen Aufgaben, z.B. natural language processing, können LLM durch größere Traningsdaten und Modelle ja durchaus besser werden. Das ist ja auch das, was das ursprüngliche Interesse an den Chatbots befeuert hat.
Aber als „emergent“, im Sinne des Papers oben, werden Fähigkeiten bezeichnet, auf die die KI eben nicht gezielt trainiert wurde, sondern die einfach so aus der Masse der Trainingsdaten entstehen. Und das war eben Wunschdenken oder bewusste Täuschung, je nachdem wie man es sehen möchte.
Ob jetzt LLM oder andere Formen von Algorithmen: wenn ich mir ansehe was auf dem Straßen so gemacht wird, dann kann es nicht viel schlechter laufen als mit dem Menschen als Fahrer.
Aber das ist doch ein mögliches Szenario. Beispielsweise könnte eine KI bewusst oder unbewusst Aufgaben bekommen, die diese nutzt um digitalisierte Waffensysteme zu steuern oder einen einen Militärschlag auf eine Atommacht zu simulieren.
Dafür muss ich der KI nicht direkt beibringen wie man das alles tut, sondern sie nur als Agenten nutzen um Spezial-KIs, die für legitime Zwecke mit spezifischen Fähigkeiten ausgestattet sind, zu steuern.
Dieses Szenario wird sicher nicht morgen eintreffen, aber es ist auch mit Transformern grundsätzlich möglich wenn wir nicht aufpassen.
Nein. Das ist keineswegs Wunschdenken oder Täuschung, sondern schlicht Deep Learning. Was du beschreibst, dass Fähigkeiten aus der Masse der Trainingsdaten einfach so entstehen, liegt in der Natur des Deep Learning. Man muss LLMs eben nicht gezielt auf bestimmte Fähigkeiten hin trainieren, sondern sie entwickeln diese Fähigkeiten selbstständig (oft unerwartet bzw. schwer vorhersagbar), wenn sie mit genug Daten trainiert werden.
Eine ganz gute Einordnung („Explainer“) zu Emergenz bietet dieser Artikel: Emergent Abilities in Large Language Models: An Explainer. Hier die deutsche Google-Translate-Übersetzung.
Im Kapitel „Entstehung von Deep Learning“ heißt es:
Im Deep Learning wird emergentes Verhalten nicht nur toleriert, es ist notwendig. […]
Emergenz ist daher beim Deep Learning die Regel und nicht die Ausnahme. Jede Fähigkeit und interne Eigenschaft, die ein neuronales Netzwerk erlangt, ist emergent; nur die sehr einfache Struktur des neuronalen Netzwerks und sein Trainingsalgorithmus sind entworfen [=durch Menschen programmiert]. Während dies in der Informatik ungewöhnlich sein mag, ist es das nicht für die natürlichen Systeme, von denen neuronale Netzwerke ihren Namen haben."
Philip und Ulf hatten das in LdN366 ja auch sehr schön herausgearbeitet.
Beim Übergang von GPT-3 zu GPT-4 (siehe etwa diesen geposteten Vortrag aus dem letzten Jahr) hat man einige emergente Fähigkeiten sehen können. Etwa im Bezug auf begrenzte „Reasoning“-Fähigkeiten in GPT-4, die vorher so in GPT-3 nicht vorhanden waren. Und diese neuen Fähigkeiten haben rein gar nichts mit In-Context-Learning zu tun - also der Fähigkeit von LLMs innerhalb ihres Kontextes (=ihrer aktuellen Konversation) zu lernen. Sondern diese Fähigkeiten haben sich während des langwierigen Trainigsprozesses (Pretraining) emergent entwickelt, sind also in den Gewichten des Modells verankert (nicht im flüchtigen Kontext).
Nein und Ja. Aus dem Vorangegangenen sollte klar geworden sein, dass man durch das Skalieren von LLMs emergentes Verhalten nicht nur erreichen, sondern erwarten kann. Wie turmfalke schon sagte, geht aber niemand davon aus, dass man durch einfaches Skalieren der aktuellen Modelle alleine AGI erreichen kann. Es sind weitere Durchbrüche nötig (etwa in Bezug darauf, was manchmal als „System 2 Thinking“ bezeichnet wird, siehe die Ausführungen zu Kahneman weiter oben).
Wieso „Was du beschreibst“? Das stammt nicht von mir, das steht in dem Paper, dass ich zitiert habe.
Ich bleibe dabei und sehe es wie Johanna Seibt bei Heise:
Systeme wie ChatGPT sind stochastische Papageien.
Das größte Problem wird die Fehlerkorrektur, wenn falsche Informationen gelernt oder absichtlich (z.B. durch Akteure wie MAGA oder Putin) injiziert werden.
(Missing Link: Werden KI-Systeme wie GPT "stochastische Papageien" bleiben? | heise online)
Na ja, sie ist Philosophin und keine KI-Expertin. Interessant aber, dass sie auch die psychologischen Gründe nennt, warum Menschen, die durch KI verunsichert sind, dazu neigen, Systeme wie ChatGPT als „nur Mathematik“ abzutun:
Das scheint mir eine gängige Strategie zu sein, um der Verunsicherung durch KI zu begegnen: Wann immer sie den Menschen bei einer Aufgabe übertrifft, sei es beim Schach, beim Go oder beim Erkennen von Verkehrszeichen, heißt es oft, das sei ja „nur Mathematik“, keine wirkliche Intelligenz. Ich spüre dahinter den dringenden Wunsch, dass das menschliche Denken ein einzigartiges Mysterium bleiben möge.
Zu Beginn der industriellen Revolution war es für Menschen weniger ein Problem zu akzeptieren, dass Maschinen stärker sein können als Menschen. Schließlich gab es ja bereits Tiere, die stärker waren als wir. Bei der Intelligenz ist das anders. Hier sehen wir uns zu Recht an der Spitze der Evolution. Umso schwerer fällt es vielen, KI-Systemen auch nur ein wenig Intelligenz zuzugestehen - denn das würde ja bedeuten, dass KI - wenn sie weiterentwickelt wird - irgendwann intelligenter sein könnte als wir.
Der Begriff „stochastischer Papagei“ geht auf ein Papier aus dem Jahre 2021 zurück (Link) und wird häufig von KI-Skeptikern verwendet, wenn sie zum Ausdruck bringen wollen, dass diese Systeme nicht wirklich verstehen, sondern Dinge einfach nur nachplappern.
Wie oft in der Wissenschaft gibt es verschiedene Fraktionen und Denkschulen. Das Papagei-Papier wurde von Computerlinguisten verfasst und man muss wissen, dass Computerlinguisten in der Sprachverarbeitung traditionell auf symbolische KI-Ansätze gesetzt haben. Also vereinfacht gesagt auf die regelbasierte Zerlegung von Sätzen in ihre Bestandteile wie Subjekt, Prädikat, Objekt usw… Das Aufkommen von Deep Learning hat (insbesondere zu Beginn) bei vielen Computerlinguisten zu Skepsis und Ablehnung geführt, weil diesen Systemen die expliziten Regeln fehlen und ihre Funktionsweise schwer nachvollziehbar ist. Eine schillernde Leitfigur auf diesem Gebiet ist der ehemalige Linguistik-Professor (und mittlerweile 96 Jahre alte) Noam Chomsky (hier in einem Video zu ChatGPT).
Hinton geht in diesem schon weiter oben zitierten Talk (ab min 5:43) auf die Linguisten und auf Chomsky ein. Ab min 13:20 auch auf die (vor allem aus der Chomsky-Ecke kommenden) Einwände, die LLMs seinen gar nicht wirklich intelligent, sondern nur eine Form von glorifiziertem Autocomplete (eine andere Bezeichnung für „stochastische Papageien“).
Problematisch finde ich, wenn einige Publikationen - wie etwa netzpolitik.org - sehr einseitig nur die Chomsky-Linie vertreten anstatt das Thema KI faktenbasiert und vor allem faktenoffen zu betrachten. Aber ich glaube, diese skeptische Sicht auf KI ist in der Tendenz auch eine Eigenschaft der gesamten deutschen Blase.
Ich wollte die Diskussion auch nicht erneut öffnen, sondern nur darauf hinweisen, dass führende Wissenschaftler mittlerweile der Meinung sind, dass LLMs durchaus ein gewisses Verständnis der Welt entwickeln und auch eine gewisse Intelligenz besitzen. Man beachte hier das Adjektiv „gewisses“. Ich hatte ja weiter oben Hinton und Ng verlinkt.
ffiene hat mit dem Begriff „stochastische Papageien“ diese Frage indirekt aber wieder aufgemacht, denn: wenn LLMs tatsächlich ein Verständnis der Welt entwickeln, wie die Wissenschaftler sagen, sind es eben gerade keine nur nachplappernden Papageien.
Zu diesem Thema gibt es auch eine aktuelle MIT-Studie:
Zum „Verständnis“ von LLMs:
Laut des Berichts hat der Betroffene Strafanzeige gestellt, ist damit aber abgeblitzt – weil es keine reale Person gibt, die als Urheber zu betrachten ist.
Softwareproblem. Kann man nichts machen
Eher: Neue Technologien, für die das Rechtssystem noch nicht ausgelegt ist.
Die Frage der strafrechtlichen Verantwortung bei schweren Straftaten durch autonome Systeme wird aktuell weiter heiß diskutiert. Letztlich ist es aber auch nicht schlimm, dass es hier keinen strafrechtlichen Hebel gibt (oder fordert jemand ernsthaft, dass einer der Entwickler der LLMs in den Knast gehen soll, weil der Chatbot Mist erzählt?), wichtiger ist, dass es zivil- und verwaltungsrechtliche Hebel gibt, daher die Möglichkeit des Schadenersatzes und Unterlassungsanspruchs (jeweils Zivilrecht) und die Möglichkeit hoher Strafen für Unternehmen, die solche Produkte auf den Markt bringen (dh. verwaltungsrechtliche Strafen).
Unternehmen, die LLMs betreiben, kann man eben am ehesten über Geldstrafen und Tätigkeitsverbote dazu bringen, rechtskonforme Produkte zu releasen.
Einzelfälle sind für pauschale Urteile ungeeignet. Gibt es denn Untersuchungen dazu, ob solche Verwechslungen häufiger passieren?
Die in dem Artikel erwähnte Klage von NOYB ist aber natürlich zu unterstützen, allein schon um Rechtssicherheit und -klarheit in Bezug auf die DSGVO wiederherzustellen.
Ich halte die Bezeichnung ja auch für ganz amüsant, aber habt ihr GPT 4 o.ä. in letzter Zeit auch mal benutzt? Das ist zum Teil wirklich beeindruckend und geht über das bloße Wiederkäuen sowieso bekannter Informationen wirklich hinaus.
Beispiel: Eine Folge des Podcasts Logbuch Netzpolitik trägt als Witz/Spruch den Titel „real men use it after free()“. Hat man diesen - neuen und im Internet vorher noch nicht kursierenden - Witz dann ChatGPT zur Erklärung gegeben, konnte das den Witz korrekt erklären: Es hat dabei sowohl den Bezug auf Programmierung (manuelle Speicherverwaltung in C/C++ und dessen Risiken) erkannt als auch die Verbindung zu stereotypen Männlichkeitsbildern („echte“ Männer) und damit einhergehend den Bezug zu risikoreichem Verhalten, aus deren Verknüpfung sich der Witz erst ergibt.
Das kann man natürlich einfach stochastischen Papagei nennen und sich nicht weiter damit befassen, ich finde es aber schon beeindruckend.
So ähnlich hat, ich glaube @Daniel_K, auch schon mal bei dieser Diskussion argumentiert. Das ist auch erst mal ein valides Argument.
Aber umgekehrt kann man auch fragen, ob wir unseren eigenen Verstand und dessen Funktion wirklich schon so gut verstanden haben, dass wir ihn wirklich „nachbauen“ können.
Habe mir das mal angehört und ich finde seine Argumente eher dürftig. Er sagt, nach meinem Verständnis, nur, dass das was LLM mit Milliarden an Parametern machen, eine Form von Verstehen ist UND das wir aktuell kein besseres Modell unseres „menschlichen“ Verstehens hätten.
Der zweite Teil mag stimmen aber nur weil wir nichts haben, was besser ist, heißt es noch lange nicht, dass LLM dem „menschliche“ Verstehen nahe kommen.
Weiß ich nicht, denn der Microsoft Copilot ist ja Software (bzw. Dienstleistung, weil die Anfrage ja quasi in der Ferne beantwortet wird). Da haben wir eigentlich seit langem Gesetze für Produkthaftung, AGBs usw.
Aber das funktioniert ja schon bei normaler, programmierter Software nicht wirklich, siehe die ganzen Fehler in Microsoft-Produkten, die aber quasi folgenlos für Microsoft bleiben, weil die Firma de facto ein Monopolist ist.
(oder fordert jemand ernsthaft, dass einer der Entwickler der LLMs in den Knast gehen soll, weil der Chatbot Mist erzählt?)
Im Grunde schon, nur halt nicht die (angestellten, weisungsgebunden) Entwickler, sondern die Firmen-Chefs, die das Produkt wider besseren Wissens in Umlauf gebracht haben, ohne sicherzustellen.
wichtiger ist, dass es zivil- und verwaltungsrechtliche Hebel gibt, daher die Möglichkeit des Schadenersatzes und Unterlassungsanspruchs
Das könnte bei LLM auch noch mal spannend werden, denn „Unterlassen“ könnte bei „angelernten“ Programmen wie ChatGPT auf ein aufwendiges und teures erneutes Trainieren hinauslaufen. Aber ich vermute, da hat OpenAI vorgesorgt und genug manuelle Filter eingebaut.
Ist jetzt ein Nebenkriegsschauplatz.
Aber meiner Ansicht nach kann man das mit Google-Treffern vergleichen. Die hat Google per Software sammeln lassen und bei Falschtreffern kann man Unterlassung fordern.
OpenAI wird sicher keine Verträge schließen, in denen sie zusichern, dass ChatGPT korrekte Ergebnisse liefert.
Man müsste also wohl auf Falschaussagen hinweisen und OpenAI müsste diese manuell sperren.
Grundsätzlich beweist das wieder, dass man Informationen aus unsicheren Quellen immer nochmal überprüfen sollte, bevor man sie für bare Münze nimmt.
Mal eine grundsätzliche Frage:
Wieso reicht es eigentlich nicht, dass der aktuelle Stand des maschinellen Lernens sehr ausgeklügelte Werkzeuge zur Textübersetzung, Textvervollständigung usw. ermöglicht?
Das ist doch schon eine ordentliche Leistung. Wieso muss es unbedingt gleich „Verstehen“ und „AGI“ sein?
Wie meinst du die Frage?
Also man hat ja auch nicht gefragt: „Warum reicht es uns nicht, mit Pferdekutschen durch die Gegend zu fahren“. Es geht eher um eine Einschätzung des zukünftigen Potenzials und weniger darum, was die Software jetzt schon kann. Und dafür muss man natürlich „nach den Sternen greifen“ und darf sich nicht mit dem bereits sicher erreichten zufrieden geben. Die Gefahr, das Potenzial von von „künstlicher Intelligenz“ nicht richtig einzuschätzen, ist eben, dass andere das tun könnten - und wir wollen sicherlich nicht in einer Welt leben, in der China oder Russland eine viel mächtigere künstliche Intelligenz haben als Europa oder die USA…
Wir merken ja jetzt in der Kriegsführung in der Ukraine schon, wie entscheidend künstliche Intelligenz ist. Funksignale und GPS-Signale können deaktiviert werden, darin ist Russland schon jetzt scheinbar besser als der Westen, eine on-board KI an einer Drohe, die die Landschaft analysiert und Ziele erkennt, kann hingegen nicht durch Funkstörungen deaktiviert werden. Hier kann KI plötzlich etwas leisten, was Menschen nicht mehr leisten können - und was auch nur mäßig durch bloßes „vorher-programmieren“ erreicht werden kann. Ich sage nicht, dass das eine gute Entwicklung ist - ich sage nur, dass Länder wie Russland oder China diese Entwicklung ausnutzen werden und wenn wir es nicht tun - tja, dann reiten wir in Zukunft auf unserem hohen moralischen Ross gegen Panzer an…
Im Grunde schon, nur halt nicht die (angestellten, weisungsgebunden) Entwickler, sondern die Firmen-Chefs, die das Produkt wider besseren Wissens in Umlauf gebracht haben, ohne sicherzustellen.
Das würde bei allen modernen Technologien zu massiven Verzögerungen führen. Wir leben jetzt schon in einer Zeit der Overcompliance. Es muss letztlich immer eine Abwägung zwischen potenziellen Gefahren und Nutzen stattfinden - und sobald klar wird, dass sich eine relevante Gefahr verwirklicht, muss diese kurzfristig abgestellt werden. Dafür zu sorgen ist das Zivil- und Verwaltungsrecht eben deutlich angemessener als das Strafrecht.
Hier muss man schon eine kohärente Meinung vertreten: Man kann nicht gleichzeitig kritisieren, dass Schwarzfahrer im Strafvollzug landen und fordern, dass Firmenchefs, die einen Chatbot in Umlauf bringen, der in Fringe-Case-Situationen problematische Antworten gibt, im Strafvollzug landen. Das passt einfach nicht zusammen. Strafvollzug ist entweder die Ultima Ratio oder nicht. Hier ist ein Anwendungsfall, in dem relativ klar Zivil- und Verwaltungsrecht erstmal ausgeschöpft werden müssten, bevor wir darüber diskutieren, das scharfe Schwert des Strafrechts zu schwingen.
Es geht eher um eine Einschätzung des zukünftigen Potenzials und weniger darum, was die Software jetzt schon kann.
Das ist aber vielleicht genau das Problem. Denn das, was die KI-Software jetzt schon kann, und zwar zuverlässig, scheint ja eher überschaubar zu sein:
Laut Microsoft-AGB: KI ist nicht für wichtige Dinge geeignet - golem.de
Man stelle sich mal vor, man würde einen Drucker für seine Firma kaufen und der Hersteller würde sagen: Nutzen sie den Drucker nicht für wichtige Sachen (wie Verträge) weil der Drucker-Treiber manchmal ganze Absätze „vergisst“. So einen Drucker würde kein Kunde kaufen, oder? Aber bei KI-Software ist das, scheinbar, kein Thema.
Wir merken ja jetzt in der Kriegsführung in der Ukraine schon, wie entscheidend künstliche Intelligenz ist.
Bist du dir das sicher? Ich glaube nämlich nicht, dass „KI“-Software aktuell in der Ukraine in relevantem Maße eingesetzt wird.
Es gab ja in D z.B. viel Diskussionen über die Weitergabe moderner Leopard-Panzer 2A6. Die ab sind 2001 ausgeliefert worden. Das heißt die Entwicklung, selbst der modernsten Teile, begann in den 90er. Wo soll da also die moderne KI-Software herkommen?
Ich würde im Gegenteil sagen, der Ukrainekrieg beweist eher, wie wichtig es ist genügend militärisches Material zu haben, auch wenn es schon älter ist. Das sieht man z.B. gut an der schieren Masse an Artellerie, die die Russen leider ins Feld führen können.
eine on-board KI an einer Drohe, die die Landschaft analysiert und Ziele erkennt, kann hingegen nicht durch Funkstörungen deaktiviert werden
Das ist erst mal eine valide Theorie.
Aber kannst du auch belegen, dass tatsächlich Dronen mit solcher Technik eingesetzt werden? Ich glaube nämlich, gerade im militärischen Bereich wird da viel herbeigeredet.
Ein anderes Problem, ist meiner Meinung nach, das im militärischen Kontext die Begriffe Automatisierung, Autonomie und „KI“ gerne durcheinander gebracht werden, siehe hier:
Nach jahrelangen Debatten soll der Deutsche Bundestag in Kürze in einem Mandat den Einsatz bewaffneter Drohnen durch die Bundeswehr grundsätzlich genehmigen. Der Einsatz dieser voll-autonomen Waffensysteme ist jedoch mit großen Sicherheitsrisiken und...
Im Titel steht „KI“ aber der aktuelle Stand sind halt nur automatisierte und teil-autonome Systeme, z.B. Dronen, die automatisch in der Luft über eine Stelle kreisen. Von „Intelligenz“ kann da also keine Rede sein.
Hier kann KI plötzlich etwas leisten, was Menschen nicht mehr leisten können
Computer können schon lange Dinge, die wir Menschen nicht können. Und auch vor der Erfindung von Computer haben wir Menschen seit Jahrtausenden immer tödlichere Waffen gebaut. Und das tun wir wohl leider auch weiterhin. Da sehe ich aber weniger eine Revolution als mehr eine Evolution, also eine Fortführung der bisherigen Entwicklung. Und wie stark der Einfluss von „KI“-Software bei Waffen sein wird, ist fraglich.
Das würde bei allen modernen Technologien zu massiven Verzögerungen führen.
Und stattdessen „reifen“ klassische Software und demnächst „KI“-Software beim Kunden oder wie? Schau dir nur mal den Crowdstrike-Ausfall neulich an? Oder die permanenten Sicherheitsprobleme bei Microsoft.
Die Verzögerungen, von denen du sprichst, die gibt es schon heute. Nur das die Firmen halt unfertige Software einfach trotzdem verkaufen (dürfen).
Dafür zu sorgen ist das Zivil- und Verwaltungsrecht eben deutlich angemessener als das Strafrecht.
Das kommt auf die Dimension an, würde ich sagen. Siehe hier:
Im September startet der Prozess gegen Winterkorn vor dem Landgericht Braunschweig. Die Anklage wirft ihm Falschaussage, Betrug und Marktmanipulation vor.
Zum anderen hat das LG Braunschweig die Anklage der Staatsanwaltschaft wegen gewerbs- und bandenmäßigen Betrugs zugelassen (§ 263 Abs. 1, Abs. 3 Nr. 1 StGB).
Davon sind wir beim aktuellen KI-Hype vielleicht noch ein Stück weit entfernt. Aber der Kern des VW-Skandals war ein Stück Software, das ein bisschen zu sehr auf bestimmte Testszenarien optimiert war, um es mal blumig zu formulieren.
Man stelle sich mal vor, die „Intelligenz“ von einem Microsoft KI-Co-Pilot stellt sich im nach hinein als getürkt heraus, weil z.B. das Lösen von Fermi-Probleme (eine Form von Reasoning) von OpenAI geschickt dazu programmiert wurde und kein Ergebnis des Trainierens ist.
Ich würde sagen, Microsoft weiß schon, warum es so ultra-schwammige AGB für seine KI-Software hat.
Man stelle sich mal vor […] Nutzen sie den Drucker nicht für wichtige Sachen (wie Verträge) weil der Drucker-Treiber manchmal ganze Absätze „vergisst“. So einen Drucker würde kein Kunde kaufen, oder?
Genau so etwas gab es. Drucker haben jahrelang beim Kopieren und Scannen einfach Zahlen und Buchstaben vertauscht - und das ganz ohne AI:
Kopierer, die spontan Zahlen im Dokument verändern: Im August 2013 kam heraus, dass so gut wie alle Xerox-Scankopierer beim Scannen Zahle...
Xerox Holdings Corporation (/ˈzɪərɒks/, ZEER-ocks) is an American corporation that sells print and digital document products and services in more than 160 countries. Xerox is headquartered in Norwalk, Connecticut (having moved from Stamford, Connecticut, in October 2007), though it is incorporated in New York with its largest population of employees based around Rochester, New York, the area in which the company was founded. The company purchased Affiliated Computer Services for $6.4 bil On Dec...
Bist du dir das sicher? […] kannst du auch belegen, dass tatsächlich Dronen mit solcher Technik eingesetzt werden?
Da kann man sich sicher sein. Sowohl die Ukraine als auch Russland haben und verwenden u.a. Kampfdrohnen, Loitering Munition/Kamikazedrohnen und Überwachungs- und Aufklärungsdrohnen
Diese Drohnen nutzen alle Techniken aus dem Bereich der modernen Computer Vision und insbesondere Loitering Munition ist ohne AI nicht wirklich denkbar.
During the 2022 Russian invasion of Ukraine, both sides have utilised drones in combat and for reconnaissance, and drones have played an important role in offensives. […] The main roles of drones in the war, however, are in reconnaissance and artillery spotting. - Wikipedia
Since the 2022 Russian invasion of Ukraine, approximately 30 companies in Ukraine have emerged to mass-produce drones for the war effort. The Ukraine government Ministry of Digital Transformation initiated the „Army of Drones“ project, and is attempting to purchase up to 200,000 drones in 2023, aiming to deploy relatively cheap drones against large advantages Russia has had in military equipment. In 2023, they have also sponsored several competitions where the „dozens of drone developers that have sprung up all over Ukraine“ are invited to make simulated attacks on ground targets, or chase fixed-wing drones, or even participate in drone dogfight competitions.[38] One new model that has been successful is the „Baba Yaga“ hexacopter, which can carry „44 pounds of payload“.[39][40][41] - Wikipedia