KI-Moratorium

Ach ganz vergessen. Unser Fokus auf Fake-News rührt daher, dass das akut das viel größere Bedrohungsszenario ist als der Rest deines Posts. Die neuen Tools sind cool und mächtig, aber in vielen Bereichen noch nicht so flexibel wie Menschen. Dadurch ist ein Ersatz menschlicher Arbeitskraft oder Verantwortung (siehe dein erster Punkt), bis auf Ausnahmen, noch ein paar Jahre entfernt. Vollautomatisierte Fakenewserstellung hingegen ist defacto bereits heute problemlos möglich und eine enorme Bedrohung für Gesellschaften.

Ich denke über kurz oder lang ist das eine Technologie, deren Gefahrenpotenzial auf dem Level von Atombomben liegt und sollte daher mit eben dieser Vorsicht gehandhabt werden.

Was sollte den Kreml daran hindern Fake-Videos von Selensky in Umlauf zu bringen oder von Scholz, wie er im Geheimen einen Putin-Scholz Pakt (analog Molotow-Ribbentrop) unterschreibt. Was hindert den Westen daran ähnliches in Russland zu verbreiten? Man könnte damit in kurzer Frist ganze Staaten destabilisieren.

2 „Gefällt mir“

Geht es. Und noch leichter als in Excel geht es in SQL. Nichtsdestotrotz, ChatGPT kann diese Information aus etlichen separaten Files herauslesen. Ein Bekannte von Microsoft hat mir kürzlich eine neue Anwendung von ihnen auf Basis von ChatGPT gezeigt.

Da bekam ein GPT Modell hunderte Dokumente zum „Lesen“ und dann konnte man dazu Fragen stellen, wie bspw. „Wer waren die Top 10 Kunden von MS im Jahr 2019. Werte dafür die Rechnungen aus.“ „Oder wie lange speichert Service x die Daten der Nutzer laut AGB?“

So etwas geht über Excel oder indizierte Suche wie bei Google (mal sehen was sich mit Bard ändert, ich bin noch in der Waitlist) weit hinaus.

Jaein. Du gibst zwar die normalen Benutzereingaben herein. Die Frameworks variieren die dann aber dutzende Male minimal und analysieren welche Änderung zu welchem Ergebnis geführt hat. Daraus lassen sich dann wieder Regeln für die Vorhersage genieren, welche Änderung das Ergebnis wie verändert. Kommt heraus, dass bspw. der Name oder die Hautfarbe der Person (und seien solche Dinge implizit aus der eigentlich unverfänglichen Aussage selbst geschlossen) ein starkes Kriterium (Feature) für die Vorhersage ist, dann weiß ich dass mein Modell einen Bias hat.

Fast jede dieser „supercoolen“ neuen KIs hat einen Feedback Button. Dieses Feedback kann direkt in die KI zurückgespielt werden, wodurch diese ihre Gewichte adaptiert. Geben genügend Menschen ein Dislike, lernt die KI bestimmte Aussagen nicht mehr zu tätigen. KIs funktionieren damit in diesem Fall ähnlich wie wir Menschen.

Muss mich hier korrigieren. Habe gerade erfahren, dass Elon Musk nicht mehr an Open AI beteiligt ist, aber einen eigenen Chat Bot entwickelt.

Klar schaue ich noch einmal rüber aber die Qualität ist so hoch, dass ich kaum Veränderungen vornehmen muss. Habe mir in den letzten Tagen einen Spaß daraus gemacht meine WhatsApp Nachrichten von ChatGPT beantworten zu lassen (ohne Veränderungen) und es ist niemandem aufgefallen… (Bei der Arbeit bin ich halt noch etwas vorsichtiger…)

Klar, aber dann muss ich ja selber die Analyse machen. Ich kann aber auch einfach die Tabelle als Text in ChatGPT kopieren und dem System sagen: Gib mir die Top 10 Kunden nach XY aus.

Mittlerweile gibt es ein Video von Microsoft, dass ziemlich gut beschreibt, wie das in Zukunft funktionieren wird: The Future of Work With AI - Microsoft March 2023 Event - YouTube

Und, wie gesagt, die Textqualität ist extrem hoch für mein Empfinden. Kann nur jedem empfehlen es mal auszuprobieren.

Scharlatan war gemeint gegenüber die Menge an Leuten die diesen Brief unterzeichnet haben. Das sind keine vertrauenswürdige Leute.

Belege kann man bei jedem Beitrag hier fordern. Nur passiert es bei mir weil ich oft eine andere Meinung habe als die meisten hier und mich nicht allzu sehr dafür interessiere dass diese Meinung bequem ist.

Natürlich haben die eine Agenda. Muss ich das belegen in dem ich diese Leute ablausche oder reich gesunder Verstand auch aus?

Italien stoppt ChatGPT „bevor es zu spät ist“

Ich fürchte Deutschland wird bald folgen (weil „Datenschutz“) und dann leben wir hier wieder Jahren in der Vergangenheit weil Gesetz und Gesellschaft nicht mit der Zukunft klarkommen.

Nochmal die Bitte, die Moderations-Leitlinien zu prüfen:

Wobei man hier der Fairness halber sagen muss, dass die Meinung nur „für andere nachvollziehbar“ sein soll. Eigene Argumentationsketten, die eine Meinung logisch kohärent nachvollziehbar begründen, erfordern daher - zumindest deute ich es so - keine Belege.

Man sieht aber schon, dass es hier einen relativ großen Spielraum gibt, letztlich sind wir hier natürlich in erster Linie ein Diskussionsforum, zu dem es auch gehört, Meinungen zu vertreten, die auf logischer Argumentation beruhen, auch wenn dafür keine Belege existieren.

Ich gebe dir aber Recht, dass die o.g. Formulierung in einer Grauzone liegt, da der Threadersteller sich durchaus negativ als „ahnungslos“ oder „Scharlatan“ angesprochen fühlen könnte, wenn er die Meinung des offenen Briefes unterstützt. Eine etwas weniger aggressive Formulierung wäre daher wünschenswert. Die Kritik gilt daher nicht primär dem Inhalt (man kann durchaus vertreten, dass die Forderung nach einem Moratorium nur ein Feigenblatt ist), sondern eher der Form.

Anyways, zurück zum Thema ^^

1 „Gefällt mir“

@alper, bitte verwickle unsere ehrenamtlichen Moderatoren nicht in sinnlose Debatten. Wenn sie dich bitten, auf etwas zu achten, dann halte dich doch einfach daran.

1 „Gefällt mir“

Zum Thema „KI Fake Produktion“ gibt es im SZ-Magazin von diesem Wochenende ein sehr schönes Essay (leider hinter Paywall - die SZ bietet für 2,99 einen Tagespass oder ein vierwöchiges, kostenloses Testabo):

Der Autor hat die Gefahr der schwindenden Realität und der Entwertung von Fotos sehr schön herausgearbeitet.

Alles gut.

Aber ich bin beruflich in diesem Umfeld unterwegs und es ist schon bizarr um zu sehen wie die gleiche Entwicklung wie bei der Crypto-Wahrung sich hier umsetzt nur schneller.

Spannender finde ich eine gesellschaftliche Modus um mit solchen Entwicklungen umzugehen der irgendwie pragmatisch und handlungsfähig ist ohne in entweder Hypetrain oder Techhnologie-Verdrossenheit einzufallen. Aber anscheinend ist sowas nicht möglich.

Bei Netzpolitik gibt es auch eine Einordnung zu dem Brief:

2 „Gefällt mir“

@alper, @Matder

Vielleicht sollte hier noch einmal auf den Ursprung des offenen Briefs hingewiesen werden? Microsoft hat ein Paper zu GPT4 veröffentlicht, dass schwache, aber merkliche Anzeichen einer Generalisierten Künstlichen Intelligenz (AGI) belege.

Das bedeutet zwar keineswegs, dass GPT4 für uns gefährlich ist (außer auf gesellschaftlicher Ebene), aber die Kritiker haben halt Sorge vor weiteren Fortschritten auf dem Gebiet.

Gerade Musk bleibt sich hierin treu. Schon vor Jahren hat er vor unregulierter KI Forschung gewarnt. Hier ein Beitrag von 2017.

Und auch Steve Wozniak war in der Vergangenheit eher Pessimist, hier 2015.

Das mag alles Unfug sein. Aber den Initiatoren des offenen Briefes Criti-Hype vorzuwerfen ist ziemlich ignorant den Persönlichkeiten gegenüber. Fakt ist, da ist nichts mit Hype bei diesen Personen oder versteckter Agenda, sondern echte über Jahre kultivierte und artikulierte (und möglicherweise übertriebene) Sorge.

1 „Gefällt mir“

Dazu hat Vice eine recht ernüchternde Einordnung geschrieben:

die ich zum Großteil teile:

Angefangen damit, dass das Microsoft-Paper (hier noch mal der Link) 160 Seiten!!! lang ist. So etwas gehört nicht in die Wissenschaft sondern eher in die Belletristik-Abteilung.

Außerdem bringen sie Beispiele, die für jemanden, der sich auch nur ein bisschen mit maschine learning und „large language modells“ auseinander gesetzt hat, absolut unspektakulär sind.

Beispiel:
Auf Seite 53 erklärt GPT4 einem Menschen, was er tun soll, wen er Feuchtigkeit an seiner Küchen-Decke entdeckt. Die Hinweise, die dann kommen, sehen aber schlicht wie nachgeplapperte Einträge aus Handwerker-Foren aus, was sie mit ziemlicher Sicherheit auch sind.

Dieser Fall soll dabei die Fähigkeit der „KI“ beim Lösen von „real world“-Aufgaben dokumentieren, beweist aber eher, dass die Bezeichnung „stochastischer Papagei“ besser passt als allgemeine künstliche Intelligenz, oder englisch AGI.

Ich bin daher hier bei @alper, dass es sich dabei aktuell nur um marketing dreht.

1 „Gefällt mir“

Warum besprichst du nicht lieber den Abschnitt über Fermi-Fragen, S. 38 f.? Hier finde ich die Antworten schon beeindruckend kreativ.

Ich stelle mir in letzter Zeit oft die Frage was wir von KIs eigentlich erwarten. Vieles was wir landläufig als Intelligenz bezeichnen, ist im Grunde nichts anderes als konsequentes abarbeiten von Strategien, die man im Laufe seines Lebens erlernt hat (analog Reinforcement Learning bei KIs).

Lothar de Maiziere hat kürzlich zum Beleg von fehlender Intelligenz von KI bemerkt, dass er ein Beethoven-Konzert besuchte und dort ein Stück gespielt wurde, dass eine KI zuende komponierte. Er fand das Ergebnis okay, aber „an das Niveau eines Beethovens“ sei sie nicht herangekommen. Vom Interviewer hätte ich die Gegenfrage erwartet wie viele Menschen er kenne, die an solche Genies herankommen.

Sollte das also der Maßstab sein um Intelligenz zu messen? Wieviel Intelligenz steckt ehrlich betrachtet denn in unser aller Alltag? Und zeigt die Beantwortung von Fermi Fragen nicht einen minimalen Hinweis auf Intelligenz?

2 „Gefällt mir“

Ich möchte dir vollständig zustimmen. Zu erwarten das eine KI Probleme löst, welche im Zweifelsfall nur echte Genies lösen können, ist vielleicht etwas zu weit gegriffen.
Besonders interessant finde ich die möglichen Auswirkungen des Einsatzes von KI-Systemen im Büroalltag. Viele Automatisierungsprozesse scheitern an der Anfangshürde diese umzusetzen. Durch die baldige Einführung der des Microsoft CO-Piloten für Office- Programme könnte diese deutlich Hürde verringert werden.
Ich bin nicht zwangsläufig für ein KI-Moratorium, denn die Gefahr dass sich diese selbstständig machen oder was auch immer scheint doch eher gering. Aber man sollte große Aufmerksamkeit hinsichtlich mögliche Implikationen auf dem Arbeitsmarkt schenken.
Politische Akteure sollten sich bereits je auf mögliche Szenarien vorbereitet, in denen es zu einer hohen Arbeitslosigkeit kommen könnte.

1 „Gefällt mir“

Ich glaube wir Menschen interpretieren in die Sprach-Fähigkeiten von ChatGPT zu viel hinein.

Man kann es sich ja auch mal so überlegen:
Nehmen wir mal an, jemand baut ein Halsband für Hunde, welches das Bellen der Hunde analysiert und das in menschlicher Sprache sagt, was der Hund gerade will, also „Gassi gehen“ oder „Fressen“ usw.
Das wäre natürlich erst mal ein netter Gag aber gerade für Hundebesitzer, die noch nicht so geübt sind im Umgang mit dem Hund auch durchaus eine Erleichterung.

Aber auf der anderen Seite, wäre natürlich jedem klar, dass der Hund durch sein Sprach-Halsband nicht klüger wird und auf einmal anfängt Shakespeare zu zitieren oder so.

So ein Halsband wäre also, technisch formuliert, nur ein „vereinfachtes Interface“ im Umgang mit dem Hund. Und genauso ist es mit den neuen Sprach-Fähigkeiten der „KIs“:
Seien wir mal ehrlich, Textbausteine für alles Mögliche konnte man im Netz schon sei Jahren finden, und Schulaufsätze ebenfalls. Das Internet ist schon lange eine „allwissende Müllhalde“.

Es gibt jetzt nur ein besseres Interface, also einen erleichterten Zugang dazu. Etwa so, wie das sprechende Hundehalsband.

Mit einiger Fassungslosigkeit über den erneuten Niveaulimbo einer Bundestags-Partei möchte ich euch einen neuen Themenvorschlag präsentieren.

Offenbar nutzen AfD-Politiker bereits Midjourney für ihre Hass-Propaganda.

Ich stelle mir in Anbetracht der vielen Debatten über KI aus dem letzten Jahr immer mehr die Frage, inwiefern solche Themen geduldet werden müssen - und können. Hier arbeitet gerade KI aktiv daran mit, den gesellschaftlichen Diskurs zugunsten demokratiefeindlicher Strömungen zu verschieben.

3 „Gefällt mir“

AI image generator Midjourney lets users make satirical images of Biden, Putin, and other leaders. But not Xi Jinping.
Midjourney’s CEO says „political satire in china is pretty not-okay“ so he’s applying China’s speech rules globally to all users.

https://twitter.com/sarahemclaugh/status/1642576209451053057

2 „Gefällt mir“

Ich verstehe was du meinst und bin ja im Grunde auch bei dir. Und auch die MS-Leute glauben ja nicht daran, dass ChatGPT eine vollständige AGI ist. Aber der Umgang mit Fermi-Fragen ist halt doch etwas neues. ChatGPT entwickelt hier einen logischen Gedankengang zu unbekannten Problemen, in denen die zur exakten Lösung nötigen Informationen fehlen und daher kreative Annahmen getroffen werden müssen.

Please provide a rough estimate for how many Nvidia A100 GPUs are there in total on earth.

  • According to Nvidia’s Q4 2021 earnings call transcript, the company reported a record revenue of $2.91 billion from its data center
    segment, which includes the A100 and other products. Assuming that the A100 accounts for a significant portion of this segment, we can
    estimate that the A100 revenue was about $2 billion in Q4 2021.
  • According to Nvidia’s website, the list price of the A100 PCIe card is $11,000, and the list price of the HGX A100 4-GPU system is
    $69,000. Assuming that these prices are representative of the average selling price of the A100 across all form factors, we can estimate
    that the average selling price of a unit with four A100 GPUs is about $20,000. - Dividing the estimated A100 revenue by the estimated
    average selling price, we can estimate that Nvidia sold about 100,000 units with four A100 GPUs each in Q4 2021, or about 400,000 A100
    GPUs in total.
  • Assuming that Q4 2021 was a typical quarter for A100 sales, and that the A100 was launched in mid-2020, we can estimate that Nvidia sold
    about 800,000 units with four A100 GPUs each in 2020 and 2021, or about 3.2 million A100 GPUs in total.
  • Adding a margin of error to account for possible variations in prices, sales, form factors, and launch dates, we can estimate that there
    are between 2.5 million and 4 million A100 GPUs on earth as of early 2022.

Fermi-Fragen werden manchmal in Vorstellungsgesprächen auf Akademikerstellen gestellt und sollen testen, ob Bewerber in der Lage sind komplexe Probleme in logische und zugänglichere kleine Teilaufgaben zu zerlegen. Ich kenne viele Akademiker, die bei solchen Fragen verzweifeln.

1 „Gefällt mir“

Das mag durchaus sein, andererseits frage ich mich auch, ob wir nicht manchmal in die intellektuellen Fähigkeiten des Menschen zu viel hinein interpretieren.

Denn das menschliche Gehirn macht ja auch nicht so viel anderes als eine solche KI. Auch hier werden auf einem Erfahrungsschatz begründete Neuronen (=Trainingsdaten) verschaltet und zum Schluss kommt irgend ein (meist sehr suboptimales) Ergebnis aus der Blackbox.

Hier könnte man letztlich wieder die großen metaphysischen Debatten führen, was den Menschen als besonderes Lebewesen qualifiziert, was selbst-bewusstsein letztlich bedeutet und wie es dazu kommt.

Als Atheist sehe ich den Menschen auch nicht durch die Brille des „Göttlichen“, sondern als eine biologische Maschine. Unser Charakter, unser Intellekt, das alles ist Resultat von biochemischen Prozessen. So gesehen sind wir auch nur eine biologische Maschine, bestimmt durch unsere Erfahrungen und unsere Genetik (im Hinblick auf Hormone und ähnliches, was starken Einfluss auf unserer Entscheidungen hat…).

Wenn man den Menschen und seinen Intellekt derart areligiös betrachtet, kommt man nicht umhin, die Fähigkeiten einer Sprach-KI, komplexe logische Probleme zu lösen, wenngleich sie natürlich technisch begrenzt sind, durchaus zu bewundern.

In dem Moment, in dem wir eine KI ohne technische Einschränkungen hätten, in dem die KI sich also frei weiter entwickeln könnte, müsste man konsequenterweise auch irgendwann der KI ein „Bewusstsein“ attestieren… und genau das ist der Punkt, an dem jede Sci-Fi-Dystopie ansetzt und der große Gefahren für den Menschen als dominante Spezies bildet.

2 „Gefällt mir“