Kann man eine KI wegen Verleumdung verklagen? 😉

Moin,

ich habe Chat GPT einfach mal gefragt, was die KI über mich weiß. Das Ergebnis war „interessant“, aber auch erschreckend:

Ich persönlich finde KI bzw. Sprachmodelle technisch hochgradig spannend, aber wie man an meinem Beispiel sieht, auch gefährlich, wenn man nicht weiß, was man ihr glauben darf und was nicht.

Also zur nicht ganz ernst gemeinten Frage aus dem Titel des Themas:
Was kann ich ggfs. gegen solche Aussagen eines Sprachmodells unternehmen?

Gruß,
Sven

Die Frage wird juristisch noch diskutiert, aber irgendeine Konsequenz wird es sicherlich haben, die Frage ist nur, ob diese strafrechtlicher (sehr unwahrscheinlich!), zivilrechtlicher oder verwaltungsrechtlicher Natur sein wird.

Erstmal wäre die KI kein zulässiger Klagegegner, etwaige Klagen müssten sich gegen eine natürliche Person (Strafrecht, Zivilrecht) oder eine Firma (Zivilrecht, Verwaltungsrecht) richten. Strafrechtlich, da du Verleumdung ansprichst, wirst du nicht sehr weit kommen, da selbst die Konstruktion eines bedingten Vorsatzes mE schwer fallen wird (vom Tatbestand der Verleumdung selbst wollen wir erst gar nicht anfangen, auch der liegt nicht ohne Weiteres vor).

Der erfolgversprechendste Weg ist der Zivil- und Verwaltungsrechtliche im Hinblick auf den Datenschutz und andere Sorgfaltspflichten, die Unternehmen betreffen, die hier vermutlich nicht eingehalten werden. Diesen Weg geht unter anderem die vom Datenschutzaktivisten Max Schrems gegründete Organisation Noyb aktuell, siehe hier:

2 „Gefällt mir“

Nach meiner Kenntnis nach kann das Ergebnis bei der nächsten Anfrage komplett anders ausfallen. Wenn man weiß, man hat es mit einem krankhaften Lügner zu tun - kann man diesen verklagen (schuldunfähig)?

1 „Gefällt mir“

Ich würde sagen, die Frage ist einfach zu beantworten: Man sollte einem Sprachmodell nichts glauben.

2 „Gefällt mir“

Möglicherweise wird es tatsächlich auf derartige „Disclaimer“ hinauslaufen.
Denn so lange Chatbots phantasieren, fällt mir keine Möglichkeit ein, derartige Dinge zu unterbinden, außer eben, erst gar keine Aussagen zu Personen zu machen - dann wiederum wäre ein Großteil der (nützlichen) Funktionen passé.

Ein klarer Disclaimer alá „Aussagen zu Personen, über die nur wenig oder keine Informationen öffentlich verfügbar sind, erheben keinen Anspruch auf Wahrheit“ könnte möglicherweise schon genügen, aber wie gesagt, das ist juristisch alles noch sehr unsicher, weil es logischerweise zu neuen Technologien noch keine Rechtsprechung geben kann (und keine vorhandene Rechtsprechung nah genug an dem Fall ist, um eine sinnvolle Analogie zu bilden).

1 „Gefällt mir“

Ich finde das auch nicht überraschend. Lieber lasse ich einen Chatbot eine Antwort geben, die vielleicht stimmt, als zugeben zu lassen, dass er doch nicht auf jede Frage eine Antwort hat.

1 „Gefällt mir“

Also laut diesem Artikel:

kann man heutigen Chatbots vertrauen:

„I think over the past 18 months, that problem has pretty much been solved – meaning when you talk to a chatbot, a frontier model-based chatbot, you can basically trust the answer,“ he added.

Sieht schlecht für dich aus, @growilette . :wink:

Kurze Antwort: Nix.

Lange Antwort: Das ist sicherlich juristisch ein spannendes, neues Thema das sicherlich in den nächsten Monaten/Jahren interessante Ergebnisse liefern wird. Mit genügend Geld kannst du da sicherlich „mitspielen“.

ChatGPT hat quasi seit Beginn so einen Disclaimer

ChatGPT kann Fehler machen. Überprüfe wichtige Informationen.

Ich halte das aber für keine wirkliche Lösung. Chatbots funktionieren ja nur, wenn man ihnen grundsätzlich erstmal vertraut. Niemand prüft jede Information nach, die er von ChatGPT bekommt. Das würde ja den ganzen Vorteil des Tools kaputtmachen. Die Anbieter von Chatbots werben mit der Expertise und Genauigkeit von ihren Produkten. Da kann es meiner Meinung nach nicht sein, dass sie sich einfach mit nem Disclaimer rausreden können.

1 „Gefällt mir“

ChatGPT hatte auch falsche/ungenaue Informationen über mich, diese habe ich „ihm“ dann beigebracht, nun sind diese falschen Infos korrigiert.