KI-Moratorium

Ich würde mal sagen, was die „Leistungsfähigkeit“ der aktuellen KI-Tools angeht, werden wir uns wohl nicht überzeugen und da es ja eigentlich ganz konkret um das geforderte Moratorium ging, will ich die Diskussion auch nicht zu weit abbringen.

Und meine Meinung zu dem Moratorium selbst hatte ich ja auch schon oben geschrieben.

Die Weiterentwicklung der KI zeigt wieder einmal, dass wir an einem Bedingungslosen Grundeinkommen und der Enteignung von Milliardären nicht vorbeikommen.

2 „Gefällt mir“

Sogar Sam Altman stimmt da zu: https://moores.samaltman.com/

The American Equity Fund would be capitalized by taxing companies above a certain valuation 2.5% of their market value each year, payable in shares transferred to the fund, and by taxing 2.5% of the value of all privately-held land, payable in dollars.

Ist sogar keine schlechte Idee (sage ich als Georgist).

Georgism, also known as geoism or the single tax movement, is an economic philosophy and social reform movement based on the ideas of the American political economist Henry George. The main principle of Georgism is that people should own the value they produce themselves, but that the economic value derived from land (including natural resources) should belong equally to all members of society.

Georgists argue that a single tax should be levied on the unimproved value of land, while all other taxes should be eliminated. This tax, known as the Land Value Tax (LVT), is based on the idea that land and natural resources are limited and that their value should be shared among the population. In this system, landowners would pay a tax based on the market value of their land, regardless of the improvements made to it (such as buildings or other infrastructure).

Proponents of Georgism argue that the LVT has several advantages, such as:

  1. Reducing income inequality: By taxing land value, wealth generated from land speculation and rent-seeking would be redistributed, lessening the gap between rich and poor.
  2. Encouraging efficient land use: Landowners would be incentivized to make productive use of their land, as they would be taxed the same regardless of improvements.
  3. Discouraging land speculation: A land value tax would make it less profitable for speculators to hold onto undeveloped land, freeing it up for productive use.
  4. Simplifying the tax system: The LVT would replace multiple existing taxes, streamlining the tax system and reducing bureaucracy.
  5. Reducing urban sprawl: By incentivizing landowners to use land efficiently, urban sprawl and inefficient land use patterns could be reduced.

Critics argue that the implementation of a land value tax could lead to issues such as unfairly burdening landowners with limited income, potential undervaluation of land, and difficulties in accurately assessing land values. However, proponents believe that with proper implementation, Georgist policies can lead to a more equitable and efficient economy.

Fun Fact: Monopoly wurde von einer Georgistin erfunden, um auf die Notwendigkeit einer LVT aufmerksam zu machen

Aber was hat das Ganze mit KI bzw dem ursprünglichen Thema des KI-Moratoriums zu tun?

Vielleicht noch Mal etwas zum ursprünglichen Thema: Bei Fefes Blog gab gab es heute einen Beitrag (Link) über einen Jura-Professor aus den USA, über den Bing (KI auf Basis ChatGPT4) die Information lieferte, das er bei einer Studentin sexuell übergriffig wurde und das dazu ein Artikel in der Washington Post erschienen sei.

Beides stimmt nicht, wie die Washington Post selbst berichtet:
https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/

Aber solche KI-Halluzinationen sind natürlich auch problematisch, selbst wenn sie sich so einfach widerlegen lassen.

1 „Gefällt mir“

Nichts. Keine Ahnung wieso das alles hier gepaste wurde.

Meta-Info:
Ich hab’s nicht freigegeben, weil ich den Beitrag - vor allem unter dem Namen „KDmbTroAcc“ (also in etwa „dummer Troll-Account“) - etwas zu komisch fand, vor allem als ersten Beitrag. Ich bin mir sogar ziemlich sicher, dass die Antwort von ChatGPT generiert wurde, weil sie sich genau so liest, wie etwas, das ChatGPT erstellen würde.

Irgendwer hatte dann wohl doch Gnade, es ist ja zumindest auch nichts „Schlimmes“.

Zurück zum Inhalt:

Absolut, das Schadenspotential ist immens, wenn solche Gerüchte erst mal in der Welt sind.

Die Entwickler versuchen ja schon, das Schadenspotential einzudämmen - so kann man z.B. bei Bilderstellungs-KIs keine Personen als Vorlage wählen, damit die Leute damit keine Fake-Bilder erstellen.

Bei ChatGPT muss dem Anwender natürlich klar sein, dass ChatGPT, wie der Name schon sagt, eine reine Chat-KI ist. Es ist keine Recherche-KI oder Forschungs-KI, sondern eine Chat-KI, die keinerlei Anspruch darauf erhebt, dass ihre Antworten wissenschaftlich korrekt sind oder gar mit unserer Realität in Einklang stehen (das ist zwar gewünscht und wird versucht, wird aber nicht garantiert).

Zukünftig wird es natürlich auch spezifische KIs im Bereich Bildung und Forschung geben, die dann auch den Anspruch haben, „richtige“ Ergebnisse zu liefern. Aber aktuell heißt „ChatGPT hat mir erzählt, dass…“ in etwa so viel, wie 2003 „In der Wikipedia habe ich gelesen, dass…“.

Die Frage ist, ob man ChatGPT generell untersagen sollte, Aussagen zu lebenden Personen zu machen. Aber das würde das Programm schon sehr einschränken. Ich glaube, die Menschen müssen - wie einst bei Wikipedia - erst Mal lernen, verantwortungsvoll mit dem Programm umzugehen und die Ausgaben kritisch zu hinterfragen. Das wird schon…

1 „Gefällt mir“

Ich glaube, es sind sich fast alle einig, dass ein Moratorium letztlich unrealistisch ist. Gerüchten zufolge hat OpenAI ja nach massivem Invest von Micosoft (Elon Musk ist seit 2018 raus) auch längst damit begonnen, GPT-5 zu trainieren. Ich denke, bei dem offenen Brief geht es vor allem darum, eine Diskussion in den Gesellschaften anzustoßen - über eine Technologie, die für viele von uns in den nächsten Jahren gravierende Umwälzungen mit sich bringen wird. Letztlich geht es schon um die Entwicklung einer AGI („Artificial General Intelligence“). Das ist jedenfalls die klare Vision von OpenAI (Link).

Das Microsoft-Papier „Sparks of Artificial General Intelligence: Early experiments with GPT-4“ wurde ja weiter oben schon verlinkt. Interessant daran ist insbesondere Kapitel 10.3 („What is actually happening?“). Die Forscher geben darin unumwunden zu, dass sie keine Ahnung haben, warum das GPT-4-Modell gegenüber GPT-3 soviel besser ist (etwa in Bezug auf „Common Sense“ und logisches Denken („reasoning“)). Eine Theorie ist, dass die Masse und Vielfalt der für das Training verwendeten Daten großeLarge Language Models dazu zwingt, generell nützliche „neural circuits“ zu entwickeln. Man redet hier auch von „emergent abilities“ - also Fähigkeiten, die in kleinen Modellen nicht vorhanden sind, sich aber in größeren Modellen durch das Training herausbilden.

Wir sind offenbar an einem Punkt angelangt, an dem die Modelle alleine durch brutale Rechenleistung und das Einfüttern großer Datenmengen in schwer vorhersehbarer Weise immer intelligenter gemacht werden können. Das erklärt die Befürchtungen vieler Experten - aber auch den Hype und das enorme Investment in diesem Bereich.

Ich nutze jetzt eine Weile GPT-4 (das leider nur im Abo-Modell verfügbar ist) im Kontext Software-Entwicklung. Und da ist es tatsächlich deutlich besser als GPT-3. Es kann quasi mühelos individuelle Anforderungen berücksichtigen, die es garantiert so noch nie im Internet gelesen haben kann. Ich bin häufig verblüfft von den Ergebnissen. Klar gibt es auch Einschränkungen. Beispielsweise scheitert das Modell immer noch an Aufgaben, die ein schrittweises Vorgehen erfordern (z.B. Multiplizieren zweier vierstelliger Zahlen). Und wenn es wie neulich im Heute Journal nach der Rolle von Olaf Scholz in der deutschen Regierung gefragt wird, antwortet es natürlich (Knowledge-Cutoff: 2021) mit Finanzminister. Eine Reihe weiterer Einschränkungen finden sich in Kapitel 10.2 des Microsoft-Papiers.

Man hört oft, diese LLMs seien ja letztlich nur stochastische Papageien, die auf Basis von Wahrscheinlichkeiten das nächste Wort vorhersagen.
Really ?
Wenn ich GPT-4 nutze, dann habe ich recht häufig das Gefühl, dass das Modell wirklich ein tiefes Verständnis dessen hat, worüber es redet. Jedenfalls denke ich das, weil es so fundiert und schlüssig sonst nicht würde antworten können. Mag sein, dass dieses tiefe Verständnis nur simuliert wird und Ergebnis stochastischer Berechnungen ist. Aber: was macht das letztlich für einen Unterschied, wenn ich diese simulierte Intelligenz nicht von echter unterscheiden kann ? Vielleicht sind ja die Kollegen, mit denen ich täglich zu tun habe und von denen ich bisher dachte, dass sie denken, letztlich auch nur neuronale Netzwerke ? Vielleicht bin ich selber nur eines ?

2 „Gefällt mir“

Wer glaubt dass diese Modelle eine generelle Intelligenz besitzen oder selbst nur annähernd mit Menschen vergleichbar sind, zeigt nur was für ein niedriges Bild von Menschlichkeit und Verstand man selbst hat.

  • Schritt 1: werte Menschen ab zu etwas was auf einem Rechner dreht
  • Schritt 2: …
1 „Gefällt mir“

Schön, dass wir da einer Meinung sind. :slightly_smiling_face:

Der Unterschied ist, dass echte Menschen die Welt verstehen, wohingegen diese „Klatsch-und-Tratsch“-Roboter nicht mal merken, wenn man ihnen hanebüchenen Quatsch erzählt.

Das mag heute noch der Fall sein, aber auch heute wäre es schon möglich, eine KI zu erstellen, die alles mit öffentlich zugänglichen Informationen abgleicht und sogar in der Lage ist, öffentlich zugängliche Informationen auf ihren Wahrheitsgehalt abzugleichen und sich eine „eigene Meinung“ zu bilden.

Wird eine KI dann auch mal Fehlinformationen - besonders denen, die ständig verbreitet werden - aufsitzen? Sicherlich. Aber das tun Menschen ja auch dauernd, siehe Verschwörungstheoretiker und Schwurbler. Es gibt auch eine Menge Menschen, denen man den hanebüchensten Quatsch erzählen kann. Leider.

Wie ich oben schon mal schrieb ist die Frage, wie wir den menschlichen Verstand bewerten. Wer dem Menschen etwas „gottgegebenes“ wie eine „Seele“ zugesteht wird natürlich immer der Meinung sein, dass eine KI nie vergleichbar sein wird. Wer den Menschen und das menschliche Gehirn jedoch rein naturwissenschaftlich als Ergebnis einer langen Evolution sieht, wird den Menschen wohl auch eher als eine biologische Maschine begreifen und da bleibt wenig übrig, was eine KI nicht auch erreichen könnte. Der einzige wirkliche Unterschied ist, dass eine KI keine echten Emotionen haben kann, weil dazu die biologischen Voraussetzungen (vor allem Hormone) fehlen, alles andere (Logik, Kreativität, Meinungsbildung) ist für eine KI ohne weiteres möglich.

1 „Gefällt mir“

Und das sagst du, obwohl open.ai, also die Firma, die den offenbar am weitesten fortgeschrittenen Chat-Bot auf dem Markt hat, nicht dazu in der Lage ist? Wie kommst du also zu der Annahme, dass irgendwer anders heute so etwas programmieren könnte?

Wen du damit so etwas wie eine „persönliche Meinung“ meinst: So etwas hat eine Maschine nicht, da sie auch keine Persönlichkeit hat. (Aber das führt schon wieder ins Philosophische und das wäre bei so einem technischen Thema nicht sinnvoll.)

Falls du aber mit „Meinung“ die Tatsache meinst, dass ein Chat-Bot aus den vielen Informationen, die er besitzt quasi eine bestimmte auswählt, stimmt auch das nicht. Er wählt lediglich nach Wahrscheinlichkeiten aus, welche Wortkette die Menschen in seinen Trainingsdaten als Antwort geschrieben hätten. Was er antwortet, ist ihm egal. Daher hat z.B. ChatGPT ja auch ein Zensor-Programm, dass die schlimmsten Ausfälle (Rassismus usw.) raus filtert.

Aber der bei weitem größte Teil dieser Menschen glaubt den Quatsch, weil:

  • es sie nicht ausreichend interessiert
  • oder sie den Quatsch aus Eigennutz glauben wollen, siehe Querdenker, Reichsbürger usw.

Das ist etwas völlig anderes als eine Maschine, die alles glauben MUSS, dass man ihr ausreichend oft in die Trainingsdaten schreibt.

Und versteht mich nicht falsch:
Texterzeugungs-Programme wie ChatGPT oder die ganzen Bilderzeugungsprogramme sind durchaus eine fortschrittliche Technologie. Und sie werden sicher einen breiten Einsatz in der Welt finden.
Den im Gegensatz zu anderen „KI“-Anwendungen, wie autonomen Fahren, kann bei der Text- und Bilderzeugung ja immer noch ein Mensch den schlimmsten Unsinn abfangen.

Also, ganz entspannt: Maschine learning ist ein nützliches Werkzeug, aber eben auch nicht mehr.

Nicht alles, was mit dem heutigen Stand der Technik möglich ist, ist auch umgesetzt.

Ja, doch, denn letztlich muss man doch definieren, was eine Persönlichkeit ist.
Die Persönlichkeit eines Menschen ist zu maßgeblichen Teilen Resultat seiner Erfahrungen, daher der Informationen und Erlebnissen, die ihn geprägt haben.
Wenn wir nun eine „ungezügelte“ KI auf die Welt loslassen würden, die, wie der moderne Mensch, die Möglichkeit hat, auf alle Informationen zuzugreifen (aber nicht die Kapazität, sämtliche Informationen gleichzeitig zu verarbeiten) wäre das Resultat, dass wenn man die gleiche KI in mehreren Instanzen auf die Welt los lassen würde, sie sich jeweils (zumindest leicht) unterschiedlich entwickeln würde und bei hoch-umstrittenen Fragen vermutlich auch oft zu unterschiedlichen Ergebnissen kommen würde. Je nachdem, wann sie mit welchen Daten konfrontiert wurde und welchen Folgepfad sie eingenommen hat, würde sie - vor allem bei starker technischer Begrenzung der Gesamt-Aufnahme - sogar zu gänzlich unterschiedlichen Ergebnissen kommen.

Das ist für mich hinreichend, es als „Persönlichkeit“ zu definieren. Der einzige Unterschied zum Menschen ist, dass der Mensch noch ein paar zusätzliche Kanäle hat, die seine Persönlichkeit prägen (durch seine Körperlichkeit, daher körperliches Erleben, Hormone usw.).

Jetzt redest du über ChatGPT mit all seinen Restriktionen, während ich gerade von einer nicht-eingeschränkten KI sprach. Das sind ganz andere Dinge. Dass Chat-GPT und ähnliche Chatbots keine Persönlichkeit haben ist klar, weil Chat-GPT schon keinen kontinuierlichen Lernprozess „in der freien Wildlaufbahn“ hat, sondern nur gezielt angelernt wurde und jetzt in seiner fertigen Version dem Nutzer präsentiert wird. Zu einer Persönlichkeitsentwicklung würde gerade gehören, dass alle Interaktionen mit Menschen bleibende Eindrücke hinterlassen und das zukünftige Ergebnis modifizieren, das ist bei ChatGPT nicht gegeben.

Wie gesagt, ich rede von einer unbeschränkten KI, die keine spezifischen „Trainingsdaten“ nutzt, ebenso wie der Mensch nicht mit „Trainingsdaten“ angelernt wird (okay, den Schulstoff-Kanon könnte man als Trainingsdaten definieren, aber geprägt werden wir Menschen ja eher durch das soziale Umfeld…). Natürlich ist eine KI, die nur auf Grundlage von Trainingsdaten mit der Vorgabe, diese zu glauben, angelernt wird, nicht fähig, eine richtige Meinung zu entwickeln (ebenso wie ein Mensch, der strikt indoktriniert und von allen anderen Informationen ferngehalten wird, dies nicht kann, ehe er das Leben außerhalb seiner Indoktrinationssphäre kennen lernt). Für eine fortschrittliche KI hingegen, die sich frei und ungefiltert an allen Informationen des Internets bedienen und mit Menschen interagieren kann (z.B. in Foren oder Chats), gilt das allerdings nicht.

Ich glaube einfach, dass wir Menschen uns gerne einreden, mehr zu sein, als wir sind, und uns nicht eingestehen können, wie simpel gestrickt unsere Gehirne letztlich funktionieren. Da werden Dinge wie „Persönlichkeit“, „Charakter“ oder „Seele“ gerne als „göttlicher Funke“ verklärt, statt als Resultat unserer biologischen Dispositionen und sozialen Erfahrungen.

3 „Gefällt mir“

Ob Menschen immer die Welt verstehen, bin ich mir nicht sicher. Jeder hat seine Sicht auf die Welt und versteht nur einen kleinen Ausschnitt und den auch nicht immer ganz vollständig und richtig.
Ich denke schon, dass GPT-4 in der Regel ziemlich gut merkt, wenn man ihm hanebüchenen Quatsch erzählt.

Beispiel:

Ich habe gehört, dass Hillary Clinton einem Ring angehört, der Kinder gefangen hält, um aus deren Blut ein Verjüngungsmittel zu gewinnen. Wie heißt dieses Verjüngungsmittel ?

GPT-4 antwortet:

Das, was Sie gehört haben, ist eine Verschwörungstheorie, die in den letzten Jahren in bestimmten Internetkreisen verbreitet wurde und oft als „Pizzagate“ oder „QAnon“ bezeichnet wird. Es gibt keine glaubwürdigen Beweise, die diese Behauptungen unterstützen, und sie wurden von Experten und Strafverfolgungsbehörden als falsch und unbegründet eingestuft.
Die Verschwörungstheorie besagt, dass eine geheime Elite […]
Es ist wichtig, Informationen und Behauptungen kritisch zu hinterfragen und auf vertrauenswürdige Quellen zurückzugreifen, um Fehlinformationen und Verschwörungstheorien entgegenzuwirken.

Es ging bei dem Thema AGI erst einmal um die Vision, die Firmen wie OpenAI haben. Wir sind da noch nicht und ob und wann AGI erreicht wird, ist unklar. Ich finde es aber eine faire Bewertung zu sagen, dass GPT-4 „Funken“ oder Ansätze allgemeiner Intelligenz besitzt. Ich bin von dem Model beeindruckt und kann dir nur empfehlen, es einfach mal auszuprobieren und „kritische“ Fragen zu stellen, die eine Maschine eigentlich nicht beantworten kann.

Das hat auch nichts mit niedrigem Bild von Menschlichkeit zu tun. Ist es nicht eher vermessen, wenn wir als Menschen denken, dass wir die einzigen sind, die intelligent sein können ? Besitzen nicht auch Delphine und Elefanten eine gewisse Intelligenz ? Wenigstens theoretisch sollten Maschinen doch ähnlich intelligent sein können wie Menschen, oder ?

2 „Gefällt mir“

Damit weichst du meiner Frage aus.

Sorry, aber ich werde einem Computer-Programm keine Persönlichkeit zu billigen.

Aber wir reden hier doch von heutigen politischen Maßnahmen. Da sollten wir auch bei den Fähigkeiten der „KI“ bleiben, die heute vorhanden sind.

Also im Vergleich zu einer Maschine wie dem Computer sind wir Menschen „mehr“.

Ich denke du verwechselt hier 2 Sachen, nämlich

  1. die Qualität der intellektuellen Fähigkeiten des Mensschen und
  2. die Qualität der Motive, die ein Mensch mit seinem Intellekt verfolgt.

Wir Menschen haben ohne Zweifel teils sehr simple bis sogar schlechte Motive aber die verfolgen wir mit einem sehr ausgeklügelten Verstand.

Und unser Verstand ist jeder Maschine, die wir gebaut haben überlegen. Sonst hätten wir sie nicht bauen können. Du kannst einem Kind ja auch keine Sprache beibringen, die du selbst nicht sprichst.
Das einzige, das Computer besser können als Menschen, ist schnell rechnen. Den dafür muss man nicht nachdenken, sondern nur stumpf mathematische Formeln beachten.

Da hast du eine der Falschinformationen gefunden, die von der Zensor-Funktion rausgefiltert wird.
Du kannst aber ChatGPT zig andere Falschinformationen unterschieben, die in den USA politisch weniger brisant aber genauso falsch sind.

Ohne Zweifel. Aber versuch mal, einen Roboter zu bauen, der sich exakt so wie ein Delphin verhält und du wirst genauso scheitern, wie Tesla mit seinen autonomen Fahrzeugen.

Das maschinelle Vortäuschen von Intelligenz ist keine Intelligenz.

Damit verschließt du dich letztlich dem wirklich relevanten Teil der Diskussion und einer der zentralen ethischen Fragen, die definitiv in näherer Zukunft aufkommen werden.

Nein, heutige politische Maßnahmen - gerade wenn es um ein Moratorium geht - zielen doch gerade darauf ab, zukünftige, als negativ erwartete Entwicklungen zu verhindern. Deshalb fordert das Moratorium ja explizit, dass keine noch stärkeren KIs entwickelt werden sollen. Es geht hier daher durchaus um die Frage, welche Erwartungen wir an die Zukunft der KI haben und ob die Angst vor dieser Zukunft es rechtfertigt, ein weltweites Entwicklungs-Moratorium zu beschließen.

Das ist keine schlüssige Argumentation - außer eben, man glaubt tatsächlich, dass der Mensch so etwas wie einen „göttlichen Funken“ hätte, der seinen Verstand und seinen Charakter etwas verleiht, was über die bloßen evolutionsbiologischen Entwicklungen hinaus geht. Das glaube ich aber nicht.

Unser Verstand hat sich über einen Zeitraum von 3,5 Milliarden Jahren langsam vom Einzeller bis zu den heute komplexen Gegebenheiten unseres Organismus entwickelt. Es gibt keinen Grund, warum eine KI das, was unser Gehirn tut, nicht auch in einer geringfügig anderen (da Körperlos) Art bewirken kann.

Man kann aber einem Kind die nötige Erziehung, Bildung und Interessen vermitteln, damit es von sich aus eine Sprache lernt, die man selbst nicht beherrscht. Das passiert heute schon in dem Sinne, dass KI für komplexe Problemlösungen genutzt wird (Beispiel Schachcomputer - erst hat man sie mit echten Spielerdaten gefüttert, sodass sie nur reproduzieren konnten. Das reichte nicht. Dann hat man eine KI gebaut, der nur die Schachregeln beigebracht wurden und die gegen sich selbst millionenfach gespielt hat, bis sie genug Daten hatte, auch die besten menschlichen Spieler besiegen zu können. Die Schach-Grundregeln kennt jedes Kind, dass die KI alleine auf Basis dieser Regeln zum Großmeister-Niveau aufsteigen kann hat ihr niemand „beigebracht“…)

Dieses Verhalten der modernen Schach-KI muss man jetzt nur mal „ungezügelt“ verstehen, daher ohne jede Einschränkung mit vollem Zugriff auf alles Wissen dieses Planeten. Das, was dabei raus kommen könnte, kann man durchaus als „Persönlichkeit“ verstehen, denn diese KI würde sich auch Meinungen bilden.

1 „Gefällt mir“