Moin,

ich habe Chat GPT einfach mal gefragt, was die KI über mich weiß. Das Ergebnis war „interessant“, aber auch erschreckend:

Ich persönlich finde KI bzw. Sprachmodelle technisch hochgradig spannend, aber wie man an meinem Beispiel sieht, auch gefährlich, wenn man nicht weiß, was man ihr glauben darf und was nicht.

Also zur nicht ganz ernst gemeinten Frage aus dem Titel des Themas:
Was kann ich ggfs. gegen solche Aussagen eines Sprachmodells unternehmen?

Gruß,
Sven

1 „Gefällt mir“

Die Frage wird juristisch noch diskutiert, aber irgendeine Konsequenz wird es sicherlich haben, die Frage ist nur, ob diese strafrechtlicher (sehr unwahrscheinlich!), zivilrechtlicher oder verwaltungsrechtlicher Natur sein wird.

Erstmal wäre die KI kein zulässiger Klagegegner, etwaige Klagen müssten sich gegen eine natürliche Person (Strafrecht, Zivilrecht) oder eine Firma (Zivilrecht, Verwaltungsrecht) richten. Strafrechtlich, da du Verleumdung ansprichst, wirst du nicht sehr weit kommen, da selbst die Konstruktion eines bedingten Vorsatzes mE schwer fallen wird (vom Tatbestand der Verleumdung selbst wollen wir erst gar nicht anfangen, auch der liegt nicht ohne Weiteres vor).

Der erfolgversprechendste Weg ist der Zivil- und Verwaltungsrechtliche im Hinblick auf den Datenschutz und andere Sorgfaltspflichten, die Unternehmen betreffen, die hier vermutlich nicht eingehalten werden. Diesen Weg geht unter anderem die vom Datenschutzaktivisten Max Schrems gegründete Organisation Noyb aktuell, siehe hier:

3 „Gefällt mir“

Nach meiner Kenntnis nach kann das Ergebnis bei der nächsten Anfrage komplett anders ausfallen. Wenn man weiß, man hat es mit einem krankhaften Lügner zu tun - kann man diesen verklagen (schuldunfähig)?

2 „Gefällt mir“

Ich würde sagen, die Frage ist einfach zu beantworten: Man sollte einem Sprachmodell nichts glauben.

2 „Gefällt mir“

Möglicherweise wird es tatsächlich auf derartige „Disclaimer“ hinauslaufen.
Denn so lange Chatbots phantasieren, fällt mir keine Möglichkeit ein, derartige Dinge zu unterbinden, außer eben, erst gar keine Aussagen zu Personen zu machen - dann wiederum wäre ein Großteil der (nützlichen) Funktionen passé.

Ein klarer Disclaimer alá „Aussagen zu Personen, über die nur wenig oder keine Informationen öffentlich verfügbar sind, erheben keinen Anspruch auf Wahrheit“ könnte möglicherweise schon genügen, aber wie gesagt, das ist juristisch alles noch sehr unsicher, weil es logischerweise zu neuen Technologien noch keine Rechtsprechung geben kann (und keine vorhandene Rechtsprechung nah genug an dem Fall ist, um eine sinnvolle Analogie zu bilden).

1 „Gefällt mir“

Ich finde das auch nicht überraschend. Lieber lasse ich einen Chatbot eine Antwort geben, die vielleicht stimmt, als zugeben zu lassen, dass er doch nicht auf jede Frage eine Antwort hat.

2 „Gefällt mir“

Also laut diesem Artikel:

kann man heutigen Chatbots vertrauen:

„I think over the past 18 months, that problem has pretty much been solved – meaning when you talk to a chatbot, a frontier model-based chatbot, you can basically trust the answer,“ he added.

Sieht schlecht für dich aus, @growilette . :wink:

1 „Gefällt mir“

Kurze Antwort: Nix.

Lange Antwort: Das ist sicherlich juristisch ein spannendes, neues Thema das sicherlich in den nächsten Monaten/Jahren interessante Ergebnisse liefern wird. Mit genügend Geld kannst du da sicherlich „mitspielen“.

2 „Gefällt mir“

ChatGPT hat quasi seit Beginn so einen Disclaimer

ChatGPT kann Fehler machen. Überprüfe wichtige Informationen.

Ich halte das aber für keine wirkliche Lösung. Chatbots funktionieren ja nur, wenn man ihnen grundsätzlich erstmal vertraut. Niemand prüft jede Information nach, die er von ChatGPT bekommt. Das würde ja den ganzen Vorteil des Tools kaputtmachen. Die Anbieter von Chatbots werben mit der Expertise und Genauigkeit von ihren Produkten. Da kann es meiner Meinung nach nicht sein, dass sie sich einfach mit nem Disclaimer rausreden können.

4 „Gefällt mir“

ChatGPT hatte auch falsche/ungenaue Informationen über mich, diese habe ich „ihm“ dann beigebracht, nun sind diese falschen Infos korrigiert.

1 „Gefällt mir“

So funktioniert ChatGPT so weit ich weiß (noch?) nicht. Aber vielleicht bin ich da auch auf einem alten Stand, weil es sich schnell entwickelt, daher korrigiert mich, wenn ich falsch liege:

Aktuell sollte es so sein, dass die Sprachmodelle mit Trainingsdaten trainiert werden, Nutzereingaben gehören explizit nicht dazu. Das wäre auch recht problematisch: Wenn du ChatGPT einfach „deine“ Informationen als Wahrheit vorschreiben könntest (also das Programm „korrigieren“ könntest), wäre das fatal, denn deine Informationen sind schlicht nicht verifizierbar. Also du kannst ChatGPT nichts zu „deiner Person“ mit deinem Namen „beibringen“, weil da ja jeder kommen könnte…

Deine Korrektur bleibt daher nur für die aktuelle Session erhalten (ein Gedächtnis innerhalb einer Session ist vorhanden), so weit ich weiß, gibt es auch schon Seiten, auf denen personalisierte ChatGPT-Varianten laufen (dh. die Seite hat einen Cache an Informationen, die bei jeder Benutzung wieder reingeladen werden, sodass ChatGPT sich an deinen Namen oder etwaige vorherige Korrekturen merken kann), aber auch hier wären etwaige Korrekturen nur auf der Ebene zwischen dir und ChatGPT wirksam, nicht auf der Ebene von ChatGPT zu allen anderen Nutzern.

Eine Chat-KI, die ihren Anwendern glaubt, würde zwangsläufig vermutlich eher zu mehr Fehlinformationen neigen… daher glaube ich auch nicht, dass das die Zukunft sein wird. Es gibt aktuell schon die Befürchtung, dass ChatGPT „verdummen“ könnte, wenn zu viele von ChatGPT erstellte Texte von Usern in’s Netz gestellt werden und diese in das Trainingsmaterial des Bots geraten. Das wäre quasi das Chat-Bot-Äquivalent zum Inzest :wink:

2 „Gefällt mir“

Die Hersteller der LLM sagen ja, zu Recht, dass die Informationen, die ihre KI-Software produzieren, fehlerhaft sein können. Deswegen würde ich sagen, dass man sie quasi mit einem anonymen Hinweisgeber bei Zeitungen vergleichen könnte. Deren Informationen können ja auch stimmen, aber das müssen sie halt nicht und die Zeitung muss das ausreichend prüfen, bevor sie das veröffentlicht.

Daher würde ich sagen, liegt die Schuld bei demjenigen, der die unwahre Behauptung verbreitet, also z.B. bei einem Onlinemedium, das ungeprüft Informationen aus z.B. chatgpt in einen Artikel übernimmt.

edit:
In dem Fall von @growilette wäre der Verbreiter ja eigentlich chatgpt selbst, weil ja sehr wahrscheinlich jeder Nutzer von chatgpt die gleichen Informationen über @growilette bekommen dürfte, wenn er danach fragen würde.

Das ChatGPT auf dem von growilette geposteten Screenshot sieht für mich nach einer älteren Version aus. Und ältere Modelle wie GPT-3.5 haben tatsächlich häufiger halluziniert. Mittlerweile - und da hat der Baidu CEO Recht - halluzinieren die LLMs deutlich weniger und bei neueren Modellen kommen solche „Verleumdungen“ praktisch nicht mehr vor. Schließlich wollen die Hersteller schlechte PR vermeiden und trimmen die Modelle (etwa über den System Prompt) zusätzlich darauf, bei Aussagen zu weniger bekannten Personen super vorsichtig zu sein. Wie neulich herauskam, versuchte Apple hier übrigens einen verblüffend einfachen Trick: Link.

Na ja, wie LagEr ja auch schon gesagt hat, können Antworten auf die gleiche Frage bei den meisten LLMs durchaus variieren, weil Antworten mit einer gewissen Zufälligkeit generiert werden (Link).

Das ist der aktuelle Stand. Man kann dem Modell nichts beibringen, was dann anschließend andere Nutzer sehen könnten. Es gibt zwar ein gewisses „Kurzzeitgedächtnis“ (im wesentlichen innerhalb der aktuellen Session). Aber die Effekte davon sieht nur der jeweilige Nutzer und der kann diese Informationen in seinem Account auch jederzeit wieder löschen.

Das sehe ich auch so. Die Hersteller werden sich immer über Disclaimer absichern.

Und genau deshalb ist KI für ganz viele Anwendungen keine sinnvolle Technologie: Mangelnde Wiederholgenauigkeit. Dadurch kann man KI im Grunde nicht richtig testen, nicht zertifizieren und eigentlich auch keine Gewährleistung für sie übernehmen.