KI-Moratorium

Das ist definitiv super-anspruchsvoll.

In diesem Quarks & Co.-Beitrag von Gestern kommt u.a. ein Museum vor, in dem eine Arbeitsweise einer Bilderkennungs-KI verbildlicht wird (ab Minute 13:08). Das ist noch eine denkbar einfache KI mit geringem Datenbestand, aber auch schon enorm komplex.

Man kann in der Tat u.U. nicht mehr nachvollziehen, wie eine bestimmte neuronale Verbindung ursprünglich erstellt wurde, aber anhand eines klaren Pfades alle neuronalen Verbindungen durchzugehen sollte - wie gesagt mit extrem viel Aufwand - möglich sein.

Aber auch die Vorgänge im Lernprozess müssten stärker dokumentiert werden, um ein tieferes Verständnis der Arbeitsweise zu erhalten. Wichtig ist halt, den zentralen Unterschied zum menschlichen Gehirn zu verdeutlichen:

Im Rahmen einer KI ist alles theoretisch dokumentierbar, weil alles, was innerhalb der KI abläuft, theoretisch bekannt und in Worte und Konzepte fassbar ist. Für das menschliche Gehirn gilt das nicht.

Dass die hohe Komplexität von Lern- und Durchführungsprozessen bei einer KI die Sache nicht alltagstauglich macht, weil hier oft tausende, gar Millionen Einzelschritte durchgeführt werden, ist dabei klar. Aber wie gesagt: Es geht darum, in Einzelfällen Lernprozesse und Antworten von KIs nachvollziehen zu können, um daraus zu lernen.

Ich wäre Dir sehr dankbar, wenn Du Deine Aussagen belegen würdest. Ich würde in der Tat gerne selbst verstehen, wer hinter dem Brief / der Moratoriums-Forderung steckt.

So faszinierend die Entwicklung und die sich dadurch ergebenden Möglichkeiten sind: Unheimlich ist mir diese „Explosion“ von KI in jedem Fall - ich glaube, das ist der Grund, warum dieser Brief so viel – Aufmerksamkeit erzeugt hat.

Ich empfehle die Sendung Lanz mit Sascha Lobo:

Ich glaube, so funktioniert das nicht. So, wie ich das verstanden habe, basieren die Sprachmodelle wie GBT darauf, Milliarden von Teilworten zu „lernen“ und auf dieser Basis bei ihren Antworten das nächste Teilwort, das auf dem aktuellen Teilwort am wahrscheinlichsten folgt, zu schreiben. So entstehen grammatikalisch und in aller Regel auch sachlogisch korrekte Texte. Und da die Sprachmodelle in ihrem gelernten „Wortschatz“ Muster erkennen kann, die keine Menschen erkennen würde, plappert die KI auch nicht nur wie ein Papagei gelerntes nach, sondern verknüpft auch Informationen zu neuen Informationen – kreatives Schaffen.

Dabei hat es weder das Problem noch die Lösung, noch den Lösungsweg verstanden. Daher ist es nach meinem Verständnis nicht möglich, dass die KI ihre Lösung begründet. Man könnte das z.B. in ChatGPT nachvollziehen, in dem man die KI fragt, wie sie denn auf ihre Lösung kommt (habe ich bislang noch nicht gemacht).

ChatGPT in der Bing Implementierung (Microsoft) wie auch in der kostenpflichtigen Version liefert übrigens Quellen zu gemachten Aussagen. Das geht natürlich nicht für neu generierte Informationen.

Ich lasse mittlerweile praktisch meine gesamte Kommunikation von Chat GPT vorformulieren. Es ist absoluter Wahnsinn, wie genau das System schon nach kurzer Zeit im Thema ist und ich muss kaum noch manuell eingreifen. Habe mittlerweile auch die Bezahlversion (GPT-4), die zwar langsamer ist aber von der Sprachqualität noch einmal deutlich besser ist.

Jetzt experimentiere ich gerade, wie ChatGPT mir bei Datenanalyse helfen kann. Da bin ich aber noch nicht so weit gekommen aber einfache Analyse, wie zB. „Nenn mir die Top 10 Kunden nach Revenue in 2023!, Welcher Kunde ist am stärksten nach Umsatz gewachsen/gefallen?“, etc. funktionieren ohne Probleme.

Absoluter Hammer!

1 „Gefällt mir“

Stimme @alper hier zu: Da Elon Musk an OpenAI beteiligt ist, kaufe ich insbesondere ihm die Sorgen nicht ab. Ist eine typische Marketingmaßnahme um Aufmerksamkeit zu erzeugen und funktioniert super gut, da sie genau, wie von Dir ja auch schon angemerkt, mit den Ängsten von menschen spielt.

1 „Gefällt mir“

Belegen? Da lässt sich nicht so viel belegen.

This whole open letter is what Lee Vinsel calls “criti-hype”: The corporate PR narrative gets adopted fully you just add a “but that’s bad”.

Dazu ist auch das nonsens:

the training of AI systems more powerful than GPT-4

GPT-4 sagt nicht wie stark es ist oder wie es trainiert wurde also ist es kaum möglich das als Obergrenze zu nehmen.

Dann will ich als Moderator nochmal erläutern: Bitte ließ nochmal die FAQs sowie die Moderationsleitlinien und mach Dir nochmal klar, was wir mit diesem Forum erreichen wollen.

Wörter wie „reinfallen“, „ahnungslos“ oder „Scharlatan“ gegenüber anderen Forenteilnehmer sind einfach nicht wertschätzend und auch nicht konstruktiv.

Einen Beleg hätte ich erwartet für die Behauptung, dass die Autoren des Briefes eine eigene Agenda hätten („Zeit gewinnen um aufzuholen“). (Deinen jetzt nachgelieferten Link habe ich noch nicht angeschaut).

3 „Gefällt mir“

Ehrlich gesagt geht das schon. Dazu kommt es das Forschungsfeld Explainable AI (XAI). Viele Ansätze dort nehmen sich vereinfacht das Modell und füttern es mit leichten Varianten immer des gleichen Datensatzes. Wenn man dann die verschiedenen Outputs analysiert, bekommt man auch einen Eindruck darüber, welche Informationen zu einer bestimmten Vorhersage führen.

Das klappt sehr gut, ist aber für große Systeme oft komplex und schwer verständlich. Eine Meta-KI kann dort perspektivisch unterstützen, soweit sind wir meines Wissens aber noch nicht.

Wir haben kürzlich in unserem Team (Data Scientist und Data Engineers im KI-Umfeld) über den Brief von Musk und Co gesprochen und teilen die Besorgnis. Weniger befürchten wir da aber eine außer Kontrolle geratene Über-KI sondern die Nutzung von KI für Fake News.

Wir haben bereits DL Systeme um Personen in Bilder und Videos zu retuschieren. Es gibt Systeme um Stimmen nachzubilden. Mit CHATGPT haben wir nun auch eine Lösung um Texte im Stile einer beliebigen prominenten Person automatisiert zu erzeugen.

Aus meiner persönlichen Sicht benötigt man jetzt nur noch moderat Rechenpower und schon hat man eine automatisiert arbeitende Fake-News Fabrik.

Daher muss es Regelungen dazu geben, wie man solche Fakes erkennbar machen kann.

3 „Gefällt mir“

Es geht meines Erachten nicht nur um das (sehr wichtige) Thema „Fake-News“.

Es geht auch um Frage wie:

  1. In welchen Anwendungsszenarien verwenden wir solche KIs und vor allem, auf welche Weise? Lassen wir die KI Entscheidungen treffen? Oder trifft die Entscheidung dann immer noch ein Mensch, der genügend Wissen und Erfahrung hat, um die Ergebnisse der KI zu überprüfen oder wenigstens zu plausibilisieren? Wer haftet? Ich denke da spontan z.B. an Medizin (Diagnosen), Versicherungsanträge (werden abgelehnte Krankenversicherungsanträge dann nochmal von Menschen angeschaut werden, Bewerbungen (werden aussortierte Bewerbung dann nochmal von Menschen angeschaut werden?), autonomes Fahren, …
  2. Welche Auswirkung hat die Existenz und die (rasante!) Entwicklung solcher Systeme auf Bildung? Wer will sich dann noch Faktenwissen aneignen? Wenn das aber passiert: Wer kann dann noch die Ergebnisse der KIs prüfen oder plausibilisieren?
1 „Gefällt mir“

Du musst also schon noch am Ende einmal drüber schauen, oder würdest du die Texte auch ungesehen z.B. per Mail verschicken?

Das müsste doch in Excel auch ohne größere Probleme gehen, oder?

Du meinst mit „füttern“ dabei die „normalen“ Benutzereingaben bei z.B. ChatGPT, nicht das ursprüngliche Trainieren der KI, richtig?
Falls ja:
Stimmt, das ist natürlich eine Möglichkeit um ein Problem, z.B. eben rassistische Tendenzen, in der KI-Ausgabe zu erkennen. Man könnte sogar sagen, dass Millionen Menschen gerade einen gewaltigen „Beta-Test“ mit den aktuellen KIs machen und dabei, unter Anderem, solche Probleme aufdecken.

Ich bin bei meiner Antwort an @Daniel_K im Kopf schon etwas weiter gewesen und zwar bei den Fragen „Wo (also aus welchem Teil der Trainingsdaten) kommt diese Tendenz her?“ und „Wie kann man diese Tendenzen korrigieren?“. Da habe ich mich nicht gut ausgedrückt.

Und solche Nachbesserungen dürften dann nämlich wirklich nur noch mit den Trainingsdaten gehen. Den für eine gezielte nachträgliche Änderung, sodass die KI weniger rassistische Antworten gibt, dürften z.B. die 175 Milliarden Parameter von ChatGPT einfach zu viel sein.

Zumal es dort ja nicht einfach den einen Parameter „Rassismus“ geben dürfte, sondern weil rassistische Tendenzen in Antworten aus der Kombination von sehr vielen Parameter entstehen, die ihrerseits aber auch wieder für andere, korrekte Ausgaben wichtig sind.

Auch die Tatsache, dass viele KI-Anbieter enormen personellen Aufwand (durch Clickworker usw.) in ihre Trainingsdatenbasis steckt, bestärkt mich in der Ansicht, dass hier der Schlüssel zu notwendigen Korrekturen der KI liegt.

Aber das Erkennen KI-Fehlentscheidungen ist natürlich auch schon ein wichtiger Schritt und nicht alle KI-Fehlausgaben sind so offensichtlich wie Rassismus.

Eine sehr spannende Frage. Damit beschäftigt sich meines Wissens der deutsche Ethikrat recht aktiv. Er hat meines Wissens kürzlich dazu auch eine Stellungnahme herausgegeben, die mir persönlich zwar in die richtige Richtung zu gehen scheint, aber den typischen deutschen technik-aversen Schlag mitschwingen lässt.

Für mich persönlich sollte die Einführung von KI stets zweistufig erfolgen. In einer ersten Phase ist die KI nur der Assistent des Menschen. Sie sollte Empfehlungen geben, aber der Mensch hat die Autonomie und auch Verantwortung, selbst zu entscheiden. Daher sollte er nicht aus der Haftung entlassen werden.

Zeigt sich dann über einen langen Zeitraum, dass die KI sich im Großen und Ganzen beweist und tatsächlich sogar besser abschneidet als der Mensch (beispielsweise in der Medizin weniger Fehldiagnosen als der Mensch), dann sollte man mehr Verantwortung dorthin transferieren. Die Haftung im individuellen Fehlerfall müsste dann auch beim Entwickler abgelegt werden. Aber man sollte dann auch so fair sein, wie man dem Menschen gegenüber ist. Man kann dort wo Menschen regelmäßig irren auch von der Maschine kein fehlerfreies System erwarten. „Kunstfehlerklagen“ sollten daher im gleichen Rahmen bleiben wie beim menschlichen Arzt. Ähnliches gilt bei Versicherungen usw…

Beispielsweise wundere ich mich immer immer die Aufregung zu autonom oder teilautonom fahrenden Autos. Einige großflächige Tests zeigen schon heute eine geringere Unfallrate pro 100.000 km als bei menschenlichen Fahrern (vor allem im teilautonomen Betrieb). Trotzdem wird jeder Unfall der Maschine (bspw. bei Tesla) medial total ausgeschlachtet. Unfälle, die ein Mensch herbeiführt, werden hingegen als Gott gegeben hingenommen.

Das kann ich nicht beantworten. Ich glaube nicht daran, dass Bildung unwichtig wird. Es werden allerdings andere Fähigkeiten in der Zukunft stärker benötigt, bspw. Mensch-Maschine-Dolmetscher. Nur wenige Wochen nachdem ChatGPT veröffentlicht wurde, wurde ein neuer Job in der IT eingeführt, der Prompt Engineer.

Die aktuellen Diskussionen um die Zukunft der Bildung erinnern mich immer ein wenig an die Einführung von Wikipedia. Da hieß es auch, dass erstens die Qualität der Informationen nicht gesichert seien UND dass man nun gar kein Faktenwissen mehr benötigt. Beide Befürchtungen sind nicht eingetreten.

1 „Gefällt mir“

Ach ganz vergessen. Unser Fokus auf Fake-News rührt daher, dass das akut das viel größere Bedrohungsszenario ist als der Rest deines Posts. Die neuen Tools sind cool und mächtig, aber in vielen Bereichen noch nicht so flexibel wie Menschen. Dadurch ist ein Ersatz menschlicher Arbeitskraft oder Verantwortung (siehe dein erster Punkt), bis auf Ausnahmen, noch ein paar Jahre entfernt. Vollautomatisierte Fakenewserstellung hingegen ist defacto bereits heute problemlos möglich und eine enorme Bedrohung für Gesellschaften.

Ich denke über kurz oder lang ist das eine Technologie, deren Gefahrenpotenzial auf dem Level von Atombomben liegt und sollte daher mit eben dieser Vorsicht gehandhabt werden.

Was sollte den Kreml daran hindern Fake-Videos von Selensky in Umlauf zu bringen oder von Scholz, wie er im Geheimen einen Putin-Scholz Pakt (analog Molotow-Ribbentrop) unterschreibt. Was hindert den Westen daran ähnliches in Russland zu verbreiten? Man könnte damit in kurzer Frist ganze Staaten destabilisieren.

2 „Gefällt mir“

Geht es. Und noch leichter als in Excel geht es in SQL. Nichtsdestotrotz, ChatGPT kann diese Information aus etlichen separaten Files herauslesen. Ein Bekannte von Microsoft hat mir kürzlich eine neue Anwendung von ihnen auf Basis von ChatGPT gezeigt.

Da bekam ein GPT Modell hunderte Dokumente zum „Lesen“ und dann konnte man dazu Fragen stellen, wie bspw. „Wer waren die Top 10 Kunden von MS im Jahr 2019. Werte dafür die Rechnungen aus.“ „Oder wie lange speichert Service x die Daten der Nutzer laut AGB?“

So etwas geht über Excel oder indizierte Suche wie bei Google (mal sehen was sich mit Bard ändert, ich bin noch in der Waitlist) weit hinaus.

Jaein. Du gibst zwar die normalen Benutzereingaben herein. Die Frameworks variieren die dann aber dutzende Male minimal und analysieren welche Änderung zu welchem Ergebnis geführt hat. Daraus lassen sich dann wieder Regeln für die Vorhersage genieren, welche Änderung das Ergebnis wie verändert. Kommt heraus, dass bspw. der Name oder die Hautfarbe der Person (und seien solche Dinge implizit aus der eigentlich unverfänglichen Aussage selbst geschlossen) ein starkes Kriterium (Feature) für die Vorhersage ist, dann weiß ich dass mein Modell einen Bias hat.

Fast jede dieser „supercoolen“ neuen KIs hat einen Feedback Button. Dieses Feedback kann direkt in die KI zurückgespielt werden, wodurch diese ihre Gewichte adaptiert. Geben genügend Menschen ein Dislike, lernt die KI bestimmte Aussagen nicht mehr zu tätigen. KIs funktionieren damit in diesem Fall ähnlich wie wir Menschen.

Muss mich hier korrigieren. Habe gerade erfahren, dass Elon Musk nicht mehr an Open AI beteiligt ist, aber einen eigenen Chat Bot entwickelt.

Klar schaue ich noch einmal rüber aber die Qualität ist so hoch, dass ich kaum Veränderungen vornehmen muss. Habe mir in den letzten Tagen einen Spaß daraus gemacht meine WhatsApp Nachrichten von ChatGPT beantworten zu lassen (ohne Veränderungen) und es ist niemandem aufgefallen… (Bei der Arbeit bin ich halt noch etwas vorsichtiger…)

Klar, aber dann muss ich ja selber die Analyse machen. Ich kann aber auch einfach die Tabelle als Text in ChatGPT kopieren und dem System sagen: Gib mir die Top 10 Kunden nach XY aus.

Mittlerweile gibt es ein Video von Microsoft, dass ziemlich gut beschreibt, wie das in Zukunft funktionieren wird: The Future of Work With AI - Microsoft March 2023 Event - YouTube

Und, wie gesagt, die Textqualität ist extrem hoch für mein Empfinden. Kann nur jedem empfehlen es mal auszuprobieren.

Scharlatan war gemeint gegenüber die Menge an Leuten die diesen Brief unterzeichnet haben. Das sind keine vertrauenswürdige Leute.

Belege kann man bei jedem Beitrag hier fordern. Nur passiert es bei mir weil ich oft eine andere Meinung habe als die meisten hier und mich nicht allzu sehr dafür interessiere dass diese Meinung bequem ist.

Natürlich haben die eine Agenda. Muss ich das belegen in dem ich diese Leute ablausche oder reich gesunder Verstand auch aus?

Italien stoppt ChatGPT „bevor es zu spät ist“

Ich fürchte Deutschland wird bald folgen (weil „Datenschutz“) und dann leben wir hier wieder Jahren in der Vergangenheit weil Gesetz und Gesellschaft nicht mit der Zukunft klarkommen.

Nochmal die Bitte, die Moderations-Leitlinien zu prüfen:

Wobei man hier der Fairness halber sagen muss, dass die Meinung nur „für andere nachvollziehbar“ sein soll. Eigene Argumentationsketten, die eine Meinung logisch kohärent nachvollziehbar begründen, erfordern daher - zumindest deute ich es so - keine Belege.

Man sieht aber schon, dass es hier einen relativ großen Spielraum gibt, letztlich sind wir hier natürlich in erster Linie ein Diskussionsforum, zu dem es auch gehört, Meinungen zu vertreten, die auf logischer Argumentation beruhen, auch wenn dafür keine Belege existieren.

Ich gebe dir aber Recht, dass die o.g. Formulierung in einer Grauzone liegt, da der Threadersteller sich durchaus negativ als „ahnungslos“ oder „Scharlatan“ angesprochen fühlen könnte, wenn er die Meinung des offenen Briefes unterstützt. Eine etwas weniger aggressive Formulierung wäre daher wünschenswert. Die Kritik gilt daher nicht primär dem Inhalt (man kann durchaus vertreten, dass die Forderung nach einem Moratorium nur ein Feigenblatt ist), sondern eher der Form.

Anyways, zurück zum Thema ^^

1 „Gefällt mir“

@alper, bitte verwickle unsere ehrenamtlichen Moderatoren nicht in sinnlose Debatten. Wenn sie dich bitten, auf etwas zu achten, dann halte dich doch einfach daran.

1 „Gefällt mir“

Zum Thema „KI Fake Produktion“ gibt es im SZ-Magazin von diesem Wochenende ein sehr schönes Essay (leider hinter Paywall - die SZ bietet für 2,99 einen Tagespass oder ein vierwöchiges, kostenloses Testabo):

Der Autor hat die Gefahr der schwindenden Realität und der Entwertung von Fotos sehr schön herausgearbeitet.