KI-Moratorium

Ein offener Brief aus dieser Woche fordert ein 6-monatiges Moratorium hinsichtlich der Entwicklung von Künstlicher Intelligenz (KI). Auch einige Unterzeichner*innen aus Deutschland sind dabei.

Siehe hierzu folgenden Artikel aus der FAZ: https://www.faz.net

Potentielle Interview-Partnerin: Prof. Dr. Silja Vöneky, Universität Freiburg

1 „Gefällt mir“

Wer darauf hereinfällt ist entweder ahnungslos oder ein Scharlatan (manchmal auch beides).

Die wollen den Hype anfeuern und gleichzeitig Zeit gewinnen um nachzuholen. Das kann man nicht ernst nehmen.

2 „Gefällt mir“

Finde das Thema auch super spannend! Arbeite im Vertrieb und bin super begeistert von den Fähigkeiten von ChatGPT. Nimmt mir schon heute 50% meiner Arbeit ab und wird zu massivem Stellenabbau im Kundenservice führen, da es die Arbeit extrem vereinfacht.

Ich glaube auch nicht, dass das funktionieren wird.

Ich bin eigentlich schon überrascht, dass die ethischen Verbote im Bereich der Genforschung halbwegs funktionieren (und selbst China seine Ausreißer zumindest offiziell bestraft), aber ein Moratorium bei KI… warum sollte China sich daran halten? Wenn KI die Chancen bietet, die aktuell in ihr gesehen werden, können wir nicht erwarten, dass Länder wie China hier einem Moratorium folgen werden. Man stelle sich vor, die Welt hätte damals ein Moratorium für die Forschung an der Atombombe vereinbart, und das Dritte Reich hätte sich nicht daran gehalten und das Wettrennen deshalb gewonnen…

Gerade die Forschung an KI ist so viel leichter „heimlich“ zu machen als z.B. Genforschung am Menschen oder Atomforschung. Ich sehe nicht, wie ein Moratorium hier halbwegs überprüft werden kann.

Ich denke, das große Problem, was ja auch in dem offenen Brief angesprochen wird, sind in der Tat die Blackbox-Modelle im Bereich KI. Daher: Das System ist so komplex und selbst-erweiternd, dass für die Entwickler nicht mehr nachvollziehbar ist, was zwischen „Dateneingabe“ und „Datenausgabe“ passiert ist. Hier müssen einfach klare Dokumentationsstandards her, daher: Es muss - mit entsprechend viel Arbeit - immer möglich sein, genau nachzuvollziehen, warum eine KI zu einem bestimmten Ergebnis gekommen ist. Denn nur so behalten wir im Zweifel auch die Kontrolle über die Systeme. Derartige Standards zu etablieren macht aktuell mehr Sinn als ein reines Moratorium, an das sich gerade diejenigen, von denen die größte Gefahr ausgeht, vermutlich ohnehin nicht halten würden.

Ich weiß nicht, was Du Dir da vorstellst. Das ist doch gerade das Interessante an der KI: Die programmiert sich selbst, und zwar schneller als das menschliche Entwickler könnten. Du gibst Eingabewerte und die erwarteten Ergebnisse vor und die KI ermittelt Regeln, nach denen sie von der Eingabe zu den erwarteten Werten kommt. Allerdings analysiert sie weder das vorgelegte Problem noch versteht sie es. Sie ist nur gut darin, einen Weg von A nach B zu finden und zu optimieren. Genau nachzuvollziehen, warum eine KI zu einem bestimmten Ergebnis gekommen ist bedeutet, den von der KI gefundenen Algorithmus reverse zu engineeren. Das ist oft aufwändiger, als wenn man ihn selbst entwickelt und implementiert.

Das sehe ich nicht wirklich. Denn die KI hat das Problem ja schon gelöst, dabei kann man die KI ja durchaus auch so programmieren, dass sie ihren Lösungsweg auch niederschreibt. Daher:
Die sich selbst weiter-entwickelnde KI soll das gleiche tun, was ein guter Programmierer tut: Sie soll ihre Entwicklung dokumentieren.

Dass diese Dokumentation extrem umfangreich sein kann, weil zwischen Dateneingabe und Datenausgabe unter Umständen tausende Schritte und Querverbindungen stehen, ist dabei klar. Daher wird man auch für die Auswertung der Dokumentation wieder Tools (oder sogar eine KI…) brauchen, aber möglich sollte es sein.

Wichtig bleibt, dass wir verstehen können, warum eine KI ein Problem auf eine bestimmte Art löst. Denn nur dann behalten wir die Kontrolle und können intervenieren, wenn problematische Entwicklungen passieren.

1 „Gefällt mir“

Dass die heute in relevanten Anwendungen eingesetzten neuronalen Netze ihren Lösungsweg in einer für uns brauchbaren Weise dokumentieren könnten (auch mit automatisierter Unterstützung/ Auswertung) sehe ich ehrlich gesagt nicht.

2 „Gefällt mir“

Durchaus möglich, da stecke ich inhaltlich tatsächlich nicht tief genug drin.

Aber letztlich kann man jeden Einzelschritt dokumentieren, daher kann man theoretisch auch das Gesamte dokumentieren. Wie das Ausmaß der Nutzbarkeit dann ist, ist natürlich die große Frage. Aber alles, was uns hilft, die KI zu verstehen, ist auch hilfreich. Und wenn dann jemand seine Promotion dazu macht, aufzuschlüsseln, wie eine KI eine banale Frage beantwortet, und sich dafür durch Gigabyte von Daten wühlt, ist das immer noch ein Schritt in die richtige Richtung.

Natürlich wird das keine Alltags-Anwendung sein, in 99,999999999% aller KI-Anwendungen wird man sich damit begnügen müssen, dass es eine Blackbox ist. Aber - auch mit gigantischem Aufwand - diese 0,000000001% der KI-Vorgänge nachvollziehen zu können, wenn auch nur im Rahmen mehrjähriger, komplexer Analysen, ist einfach Gold wert für das allgemeine Verständnis, wie eine spezifische KI arbeitet.

Klingt nicht unplausibel. Andererseits befeuern sie mit solchen Aufrufen eventuell bei einigen in der Bevölkerung auch eine Art KI-Phobie und das fällt ihnen auf die Füße, wenn z.B. Tesla für seine autonomen Fahrzeuge neue Zualssungen o.Ä. braucht, aber irgendwelche Bürger Stimmung dagegen machen.

Okay, das klingt nach viel. Welche Aufgaben übernimmt den die KI?

Das ist ein Begriff, den ich in diesem Kontext nur mit Vorsicht oder viel Erklärung verwenden würde, den maschine learning (ML) Systeme trainieren zwar anhand ihrer Trainigsdaten WIE sie ein Problem lösen, aber sie lernen niemals eigenständig neue Probleme zu lösen oder gar Fähigkeiten zu entwickeln, die ihre Programmierer nicht wollten.

Das mag in der Theorie gehen, aber in der Praxis stelle ich mir das sehr schwer vor.

Den nachdem eine KI einmal trainiert wurde, kann man ohne die Trainingsdaten nicht mehr sagen, warum z.B. ChatGPT eine bestimmte Antwort gibt, also wo z.B. rassistische Vorurteile herkommen.

Und allein bei ChatGPT-3 reden wir über 570 GB an Text-Daten. Da ist allein einmal die Wikipedia drin mit Millionen von Artikeln. Und ChatGPT-3 hat 175 Milliarden Parameter.

Die KI wird dabei auch in mehreren Schritten trainiert und man müsste wohl den gesamten Trainingsprozess mit Milliarden Parametern und deren Veränderungen speichern. Und auch noch aus welchen Trainingsdaten genau sich welche Veränderung jedes der Milliarden Parameter ergeben hat. Und all diese Daten müssten auch ausgewertet werden.

Also mit kommt das auch sehr anspruchsvoll vor. Wobei ich dazu sagen muss, dass das alles andere als mein Fachbereich ist.

BTW:
Eben sah ich noch diese Meldung:

Geht ja offenbar nur um Datenschutz, daher passt es nur halb zum Thema, aber vielleicht trotzdem interessant.

1 „Gefällt mir“

Das ist definitiv super-anspruchsvoll.

In diesem Quarks & Co.-Beitrag von Gestern kommt u.a. ein Museum vor, in dem eine Arbeitsweise einer Bilderkennungs-KI verbildlicht wird (ab Minute 13:08). Das ist noch eine denkbar einfache KI mit geringem Datenbestand, aber auch schon enorm komplex.

Man kann in der Tat u.U. nicht mehr nachvollziehen, wie eine bestimmte neuronale Verbindung ursprünglich erstellt wurde, aber anhand eines klaren Pfades alle neuronalen Verbindungen durchzugehen sollte - wie gesagt mit extrem viel Aufwand - möglich sein.

Aber auch die Vorgänge im Lernprozess müssten stärker dokumentiert werden, um ein tieferes Verständnis der Arbeitsweise zu erhalten. Wichtig ist halt, den zentralen Unterschied zum menschlichen Gehirn zu verdeutlichen:

Im Rahmen einer KI ist alles theoretisch dokumentierbar, weil alles, was innerhalb der KI abläuft, theoretisch bekannt und in Worte und Konzepte fassbar ist. Für das menschliche Gehirn gilt das nicht.

Dass die hohe Komplexität von Lern- und Durchführungsprozessen bei einer KI die Sache nicht alltagstauglich macht, weil hier oft tausende, gar Millionen Einzelschritte durchgeführt werden, ist dabei klar. Aber wie gesagt: Es geht darum, in Einzelfällen Lernprozesse und Antworten von KIs nachvollziehen zu können, um daraus zu lernen.

Ich wäre Dir sehr dankbar, wenn Du Deine Aussagen belegen würdest. Ich würde in der Tat gerne selbst verstehen, wer hinter dem Brief / der Moratoriums-Forderung steckt.

So faszinierend die Entwicklung und die sich dadurch ergebenden Möglichkeiten sind: Unheimlich ist mir diese „Explosion“ von KI in jedem Fall - ich glaube, das ist der Grund, warum dieser Brief so viel – Aufmerksamkeit erzeugt hat.

Ich empfehle die Sendung Lanz mit Sascha Lobo:

Ich glaube, so funktioniert das nicht. So, wie ich das verstanden habe, basieren die Sprachmodelle wie GBT darauf, Milliarden von Teilworten zu „lernen“ und auf dieser Basis bei ihren Antworten das nächste Teilwort, das auf dem aktuellen Teilwort am wahrscheinlichsten folgt, zu schreiben. So entstehen grammatikalisch und in aller Regel auch sachlogisch korrekte Texte. Und da die Sprachmodelle in ihrem gelernten „Wortschatz“ Muster erkennen kann, die keine Menschen erkennen würde, plappert die KI auch nicht nur wie ein Papagei gelerntes nach, sondern verknüpft auch Informationen zu neuen Informationen – kreatives Schaffen.

Dabei hat es weder das Problem noch die Lösung, noch den Lösungsweg verstanden. Daher ist es nach meinem Verständnis nicht möglich, dass die KI ihre Lösung begründet. Man könnte das z.B. in ChatGPT nachvollziehen, in dem man die KI fragt, wie sie denn auf ihre Lösung kommt (habe ich bislang noch nicht gemacht).

ChatGPT in der Bing Implementierung (Microsoft) wie auch in der kostenpflichtigen Version liefert übrigens Quellen zu gemachten Aussagen. Das geht natürlich nicht für neu generierte Informationen.

Ich lasse mittlerweile praktisch meine gesamte Kommunikation von Chat GPT vorformulieren. Es ist absoluter Wahnsinn, wie genau das System schon nach kurzer Zeit im Thema ist und ich muss kaum noch manuell eingreifen. Habe mittlerweile auch die Bezahlversion (GPT-4), die zwar langsamer ist aber von der Sprachqualität noch einmal deutlich besser ist.

Jetzt experimentiere ich gerade, wie ChatGPT mir bei Datenanalyse helfen kann. Da bin ich aber noch nicht so weit gekommen aber einfache Analyse, wie zB. „Nenn mir die Top 10 Kunden nach Revenue in 2023!, Welcher Kunde ist am stärksten nach Umsatz gewachsen/gefallen?“, etc. funktionieren ohne Probleme.

Absoluter Hammer!

1 „Gefällt mir“

Stimme @alper hier zu: Da Elon Musk an OpenAI beteiligt ist, kaufe ich insbesondere ihm die Sorgen nicht ab. Ist eine typische Marketingmaßnahme um Aufmerksamkeit zu erzeugen und funktioniert super gut, da sie genau, wie von Dir ja auch schon angemerkt, mit den Ängsten von menschen spielt.

1 „Gefällt mir“

Belegen? Da lässt sich nicht so viel belegen.

This whole open letter is what Lee Vinsel calls “criti-hype”: The corporate PR narrative gets adopted fully you just add a “but that’s bad”.

Dazu ist auch das nonsens:

the training of AI systems more powerful than GPT-4

GPT-4 sagt nicht wie stark es ist oder wie es trainiert wurde also ist es kaum möglich das als Obergrenze zu nehmen.

Dann will ich als Moderator nochmal erläutern: Bitte ließ nochmal die FAQs sowie die Moderationsleitlinien und mach Dir nochmal klar, was wir mit diesem Forum erreichen wollen.

Wörter wie „reinfallen“, „ahnungslos“ oder „Scharlatan“ gegenüber anderen Forenteilnehmer sind einfach nicht wertschätzend und auch nicht konstruktiv.

Einen Beleg hätte ich erwartet für die Behauptung, dass die Autoren des Briefes eine eigene Agenda hätten („Zeit gewinnen um aufzuholen“). (Deinen jetzt nachgelieferten Link habe ich noch nicht angeschaut).

3 „Gefällt mir“

Ehrlich gesagt geht das schon. Dazu kommt es das Forschungsfeld Explainable AI (XAI). Viele Ansätze dort nehmen sich vereinfacht das Modell und füttern es mit leichten Varianten immer des gleichen Datensatzes. Wenn man dann die verschiedenen Outputs analysiert, bekommt man auch einen Eindruck darüber, welche Informationen zu einer bestimmten Vorhersage führen.

Das klappt sehr gut, ist aber für große Systeme oft komplex und schwer verständlich. Eine Meta-KI kann dort perspektivisch unterstützen, soweit sind wir meines Wissens aber noch nicht.

Wir haben kürzlich in unserem Team (Data Scientist und Data Engineers im KI-Umfeld) über den Brief von Musk und Co gesprochen und teilen die Besorgnis. Weniger befürchten wir da aber eine außer Kontrolle geratene Über-KI sondern die Nutzung von KI für Fake News.

Wir haben bereits DL Systeme um Personen in Bilder und Videos zu retuschieren. Es gibt Systeme um Stimmen nachzubilden. Mit CHATGPT haben wir nun auch eine Lösung um Texte im Stile einer beliebigen prominenten Person automatisiert zu erzeugen.

Aus meiner persönlichen Sicht benötigt man jetzt nur noch moderat Rechenpower und schon hat man eine automatisiert arbeitende Fake-News Fabrik.

Daher muss es Regelungen dazu geben, wie man solche Fakes erkennbar machen kann.

3 „Gefällt mir“

Es geht meines Erachten nicht nur um das (sehr wichtige) Thema „Fake-News“.

Es geht auch um Frage wie:

  1. In welchen Anwendungsszenarien verwenden wir solche KIs und vor allem, auf welche Weise? Lassen wir die KI Entscheidungen treffen? Oder trifft die Entscheidung dann immer noch ein Mensch, der genügend Wissen und Erfahrung hat, um die Ergebnisse der KI zu überprüfen oder wenigstens zu plausibilisieren? Wer haftet? Ich denke da spontan z.B. an Medizin (Diagnosen), Versicherungsanträge (werden abgelehnte Krankenversicherungsanträge dann nochmal von Menschen angeschaut werden, Bewerbungen (werden aussortierte Bewerbung dann nochmal von Menschen angeschaut werden?), autonomes Fahren, …
  2. Welche Auswirkung hat die Existenz und die (rasante!) Entwicklung solcher Systeme auf Bildung? Wer will sich dann noch Faktenwissen aneignen? Wenn das aber passiert: Wer kann dann noch die Ergebnisse der KIs prüfen oder plausibilisieren?
1 „Gefällt mir“

Du musst also schon noch am Ende einmal drüber schauen, oder würdest du die Texte auch ungesehen z.B. per Mail verschicken?

Das müsste doch in Excel auch ohne größere Probleme gehen, oder?

Du meinst mit „füttern“ dabei die „normalen“ Benutzereingaben bei z.B. ChatGPT, nicht das ursprüngliche Trainieren der KI, richtig?
Falls ja:
Stimmt, das ist natürlich eine Möglichkeit um ein Problem, z.B. eben rassistische Tendenzen, in der KI-Ausgabe zu erkennen. Man könnte sogar sagen, dass Millionen Menschen gerade einen gewaltigen „Beta-Test“ mit den aktuellen KIs machen und dabei, unter Anderem, solche Probleme aufdecken.

Ich bin bei meiner Antwort an @Daniel_K im Kopf schon etwas weiter gewesen und zwar bei den Fragen „Wo (also aus welchem Teil der Trainingsdaten) kommt diese Tendenz her?“ und „Wie kann man diese Tendenzen korrigieren?“. Da habe ich mich nicht gut ausgedrückt.

Und solche Nachbesserungen dürften dann nämlich wirklich nur noch mit den Trainingsdaten gehen. Den für eine gezielte nachträgliche Änderung, sodass die KI weniger rassistische Antworten gibt, dürften z.B. die 175 Milliarden Parameter von ChatGPT einfach zu viel sein.

Zumal es dort ja nicht einfach den einen Parameter „Rassismus“ geben dürfte, sondern weil rassistische Tendenzen in Antworten aus der Kombination von sehr vielen Parameter entstehen, die ihrerseits aber auch wieder für andere, korrekte Ausgaben wichtig sind.

Auch die Tatsache, dass viele KI-Anbieter enormen personellen Aufwand (durch Clickworker usw.) in ihre Trainingsdatenbasis steckt, bestärkt mich in der Ansicht, dass hier der Schlüssel zu notwendigen Korrekturen der KI liegt.

Aber das Erkennen KI-Fehlentscheidungen ist natürlich auch schon ein wichtiger Schritt und nicht alle KI-Fehlausgaben sind so offensichtlich wie Rassismus.

Eine sehr spannende Frage. Damit beschäftigt sich meines Wissens der deutsche Ethikrat recht aktiv. Er hat meines Wissens kürzlich dazu auch eine Stellungnahme herausgegeben, die mir persönlich zwar in die richtige Richtung zu gehen scheint, aber den typischen deutschen technik-aversen Schlag mitschwingen lässt.

Für mich persönlich sollte die Einführung von KI stets zweistufig erfolgen. In einer ersten Phase ist die KI nur der Assistent des Menschen. Sie sollte Empfehlungen geben, aber der Mensch hat die Autonomie und auch Verantwortung, selbst zu entscheiden. Daher sollte er nicht aus der Haftung entlassen werden.

Zeigt sich dann über einen langen Zeitraum, dass die KI sich im Großen und Ganzen beweist und tatsächlich sogar besser abschneidet als der Mensch (beispielsweise in der Medizin weniger Fehldiagnosen als der Mensch), dann sollte man mehr Verantwortung dorthin transferieren. Die Haftung im individuellen Fehlerfall müsste dann auch beim Entwickler abgelegt werden. Aber man sollte dann auch so fair sein, wie man dem Menschen gegenüber ist. Man kann dort wo Menschen regelmäßig irren auch von der Maschine kein fehlerfreies System erwarten. „Kunstfehlerklagen“ sollten daher im gleichen Rahmen bleiben wie beim menschlichen Arzt. Ähnliches gilt bei Versicherungen usw…

Beispielsweise wundere ich mich immer immer die Aufregung zu autonom oder teilautonom fahrenden Autos. Einige großflächige Tests zeigen schon heute eine geringere Unfallrate pro 100.000 km als bei menschenlichen Fahrern (vor allem im teilautonomen Betrieb). Trotzdem wird jeder Unfall der Maschine (bspw. bei Tesla) medial total ausgeschlachtet. Unfälle, die ein Mensch herbeiführt, werden hingegen als Gott gegeben hingenommen.

Das kann ich nicht beantworten. Ich glaube nicht daran, dass Bildung unwichtig wird. Es werden allerdings andere Fähigkeiten in der Zukunft stärker benötigt, bspw. Mensch-Maschine-Dolmetscher. Nur wenige Wochen nachdem ChatGPT veröffentlicht wurde, wurde ein neuer Job in der IT eingeführt, der Prompt Engineer.

Die aktuellen Diskussionen um die Zukunft der Bildung erinnern mich immer ein wenig an die Einführung von Wikipedia. Da hieß es auch, dass erstens die Qualität der Informationen nicht gesichert seien UND dass man nun gar kein Faktenwissen mehr benötigt. Beide Befürchtungen sind nicht eingetreten.

1 „Gefällt mir“