„Jeder Mensch“ Kampagne für europäische Grundrechte

Habe in der Zeit ein spannendes Interview mit Ferdinand von Schirach über die Jeder Mensch Kampagne gelesen.

Ziel der Kampagne ist es folgende Grundrechte auf europäischer Ebene zu installieren.

Artikel 1 – Umwelt

Jeder Mensch hat das Recht, in einer gesunden und geschützten Umwelt zu leben.

Artikel 2 – Digitale Selbstbestimmung

Jeder Mensch hat das Recht auf digitale Selbstbestimmung. Die Ausforschung oder Manipulation von Menschen ist verboten.

Artikel 3 – Künstliche Intelligenz

Jeder Mensch hat das Recht, dass ihn belastende Algorithmen transparent, überprüfbar und fair sind. Wesentliche Entscheidungen muss ein Mensch treffen.

Artikel 4 – Wahrheit

Jeder Mensch hat das Recht, dass Äußerungen von Amtsträgern der Wahrheit entsprechen.

Artikel 5 – Globalisierung

Jeder Mensch hat das Recht, dass ihm nur solche Waren und Dienstleistungen angeboten werden, die unter Wahrung der universellen Menschenrechte hergestellt und erbracht werden.

Artikel 6 – Grundrechtsklage

Jeder Mensch kann wegen systematischer Verletzungen dieser Charta Grundrechtsklage vor den Europäischen Gerichten erheben.

Hier kann man die Kampagne unterstützen

Ich finde diese Diskussion ist längst überfällig. Daher würde ich mich freuen, wenn ihr dieses Thema aufgreift und einer breiteren Zuhörerschaft zugänglich macht.

Beste Grüße aus Dortmund,
Frank

10 „Gefällt mir“

Das sind aber mindestens sechs Themen.

Und noch ein siebtes: Sind das alle? Oder warum fehlen die eher klassischen Grundrechte in der Liste?

Warum sollte das so sein müssen, und inwiefern ist das ein Grundrecht?

Das würde dann auch heißen, dass der Feuermelder nicht automatisch die Feuerwehr holen darf oder das Auto bei Gefahr eines Auffahrunfalls nicht selbstständig bremsen darf.

Um nicht falsch verstanden zu werden: Ich finde eine Neuaufstellung eines Grundrechtskataloges nicht grundsätzlich falsch, aber vor einer Unterschrift unter einer recht willkürlichen (oder willkürlich erscheinenden) Liste sollte eine sehr ausführliche Diskussion stehen.

1 „Gefällt mir“

Hm, ich schließe mich der sympathisierend-kritischen Note meines Vorredners an.

Das sind extrem unbestimmte Rechtsbegriffe bzw. sie würden ggf. Dinge verbieten, die schon ewig erlaubt sind. Werbung und PR ist ja grundsätzlich Manipulation mit Unterstützung von (anonymisierter, weil aggregierter) Marktforschung.
Werbung war mir noch nie sympathisch, aber ist das so gemeint? Soll sie grundsätzlich verboten werden? Oder wo genau ist die Grenze?

Dito. Was heißt „belastend“?

Und: Warum sollte ein Mensch unbedingt bessere Entscheidungen treffen? Menschen neigen bekanntermaßen zu Vorurteilen und Willkür und ermüden im Gegensatz zu KI, was ihre Entscheidungen messbar beeinflusst. Eine Kreditvergabe ist im Zweifel auf Basis von Statistiken wesentlich fairer als auf Basis des Bauchgefühls der BankmitarbeiterIn…

1 „Gefällt mir“

Ich finde das Thema sehr spannend und fände es gut, wenn die Lage dazu mal einen Block machen würde. Nicht unbedingt nur über diesen Vorschlag von Ferdinand von Schirach, sondern allgemein über Gesetzgebung / Grundrechte in der EU. Es gibt viele Dinge, die man tun könnte, um die EU den Menschen näher zu bringen, mehr Identitätsgefühl zu erzeugen und die Transparenz zu fördern. Die vorgeschlagene Grundrechts Charta könnte schon ein Schritt in die richtige Richtung sein.

Die beiden bisherigen Kommentare zielen darauf ab, dass die geforderten Grundrechte nicht besonders spezifisch formuliert sind. In einem Interview sagt ein Rechtsanwalt zu diesem Punkt: „Die Grundrechte sind nicht allein darauf gerichtet, eingeklagt, sondern zunächst einmal darauf, eingehalten zu werden. Wer europäisches Recht setzt, muss diese Grundrechte berücksichtigen“. Ich denke, für diesen Zweck wäre es sinnvoll, klar verständliche Ziele zu haben wie „Jeder Mensch hat das Recht, in einer gesunden und geschützten Umwelt zu leben.“ Praktisch als ein Leitfaden für die Politik, den jeder Bürger versteht, und an den die Bürger die Politiker erinnern können, wenn diese seltsame Gesetze verabschieden.

Deswegen denke ich auch, das könnte ein super interessantes Thema für die Lage sein, die ja auch überzeugt von der europäischen Idee ist, und außerdem in rechtlichen Themen immer sehr gute Einblicke gegeben hat.

Es gibt bereits die Charta der Grundrechte der EU. Der Vorschlag hier will sie erweitern.

Daneben gibt es die Europäische Menschenrechtskonvention.

Die meisten Algorithmen die wesentliche Entscheidungen treffen sind leider proprietär und nicht öffentlich einsehbar. Firmen wehren sich bis jetzt erfolgreich dagegen Algorithmen überprüfen zu lassen. Es gibt keine Einschätzung wie und warum sie funktionieren. Es gibt ein ganzes Forschungsfeld, dass sich mit der Problematik befasst (beispielsweise kann ich „Made by humans - The AI condition“ von Ellen Broad empfehlen). Insbesondere lernen die Algorithmen derzeit bestehende Vorurteile und verfestigen sie. Nur ein paar Beispiele aus der Praxis:

In den USA sind bereits unterstützende Algorithmen für Richter*innen im Einsatz die bei der fairen Straffindung helfen sollen. Diese Algorithmen haben gelernt dass Schwarze generell häufiger bei der Polizei auffällig sind und gehen daher von einer erhöhten Rückfallquote für Schwarze aus. Das resultiert in härteren Strafen.

Ebenfalls in den USA wird Gesichtserkennung in einigen Staaten zur Fahndung genutzt. Dabei ist es gängige Praxis die Fotos der gesuchten vor der Suche zu manipulieren z.B. durch das einfügen von offenen Augen, da die Algorithmen mit geschlossenen Augen oft Probleme haben. Das ist natürlich nicht erlaubt und verursacht viele falsche „Treffer“, aber da in vielen Fällen die Verdächtigen die mit solch haarsträubenden Methoden „gefunden“ und festgehalten werden nicht einmal informiert werden müssen dass sie durch einen Algorithmus gefunden wurden kommt so etwas in vielen Staaten nur durch Zufall ans Licht.

Kreditwürdigkeit wird in vielen Ländern bereits durch AI-gestützte Algorithmen gesteuert. Zu den Parametern eines Algorithmus’ gehört beispielsweise der Ladestand des Smartphones. Ein niedrigerer Ladestand bedeutet eine geringere Kreditwürdigkeit.

Die Liste könnte man unendlich fortführen, ganz unsinnig ist der Vorschlag nicht, Algorithmen die konsequenzenreiche Entscheidungen treffen auf ihre Funktionalität zu prüfen und einen Menschen das letzte Wort haben zu lassen…

2 „Gefällt mir“

Danke, dass Du das ein bisschen detaillierter auseinandernimmst!

Bias in und Intransparenz von Algorithmen sind natürlich wichtige Probleme. Mir scheint allerdings das vorgeschlagene Prinzip eine naive Technologie-Skepsis und ein naives
Vertrauen in Menschen zu reflektieren. Wir müssen genauer hinschauen und einen reflektierte Umgang gewinnen!

Es ja auch nicht so, dass Menschen keine Biases hätten oder immer wirklich angeben könnte, warum sie etwas entschieden haben (stattdessen wird oft nachträglich rationalisiert). Oder, dass Mitarbeiter in indischen Klickfarmen den kulturellen Kontext irgendwelcher deutschsprachigen Facebook-Einträge einschätzen könnten. Etc.
Ich musste schon mehrere falsche Bescheide der DRV, des Finanzamtes und anderer Behörden durch Widerspruch korrigieren lassen und die waren wahrscheinlich alle durch Menschen getroffen worden.

KI-Algorithmen im Sinne von machine learning basieren im Gegensatz dazu typischerweise auf Entscheidungen vieler Menschen und reflektieren deren gesammelte Expertise - wie auch deren gesammelte Biases - indem diese Entscheidungen zum Training des neuronalen Netzes verwendet werden.

Dafür arbeiten sie viel effizienter, schneller, Ablenkungs- und ermüdungsfrei. Und können auch prinzipiell viel besser werden als Menschen, da sie viel größere Datenmengen zum Lernen verwenden können.

Daher wären folgende Prinzipien (ohne Anspruch auf Vollständigkeit) m.E. viel zielführender als eine unreflektierte Glorifizierung menschlicher Entscheidung:

    • Ethik der Algorithmen: Verbote, bestimmte Daten wie z.B. die Hautfarbe, den Namen o.ä. beim Training eines Modells bzw. für Regelwerke heranzuziehen.
    • Transparenz: Modelle müssen angeben können, welche Variablen für die Entscheidung ausschlaggebend waren (daran wird geforscht. Wer den Stand kennt, möge bitte kommentieren!)
    • Recht auf Überprüfung der Entscheidung durch Menschen: nicht jede Entscheidung muss durch Menschen getroffen werden. Das ist in Zweifel nur ineffizient. Aber jede Entscheidung muss im Zweifel (bei Widerspruch) durch Menschen überprüft werden können. Das reicht eigentlich zur Wahrung der Rechte der Betroffenen.

Edit: Nummerierung

2 „Gefällt mir“

Dem stimme ich zu, aber derzeit ist es noch nicht einmal geklärt, wie man solche Algorithmen überhaupt testen sollte… Heute werden geschätzte 40% aller Aufgaben die angeblich durch AI erledigt werden in Wirklichkeit von einem schnell wachsenen Nedriglohnsektor - sogenannten Clickworkern erledigt, einfach weil die Fehlerrate sonst duch zu hoch wäre. In Australien werden die Steuerbescheide bereits durch ein durch AI gestütztes System verschickt und die Fehlerrate ging durch die Decke (bin mir nicht sicher ob sie den Versuch eingestellt haben). Das alles spricht generell nicht gegen die Technologie an sich (ich bastle sowas gern selbst in meiner Freizeit und finde es sowohl faszinierend als auch teilweise hilfreich).

Aber nur mal als Beispiel: Eine Firma die lediglich ihren Gewinn maximieren möchte könnte einen anderen Schwerpunkt haben als eine Gesellschaft der es um Fairness geht. Dabei könnten z.B. Entscheidungen fallen die Minderheiten diskriminieren und die wir von einer Person niemals als ethnisch vertretbar halten würden - es ist aber schwer das nachzuweisen wenn man nicht weiß wie Algorithmen zu Schlussfolgerungen kommen.

Die Technologie muss sich eben erst noch etwas weiterentwickeln - die Möglichkeiten sind wahnsinnig cool und wenn ein Algorithmus irgendwann faiere und bessere Entscheidungen trifft als ein Mensch - warum nicht? Aber unreguliert wird das Ganze wahrscheinlich eher eine Dystopie. Das letzte Wort muss zurzeit tatsächlich ein Mensch haben. Oder ein Algorithmus bei dem ganz klar nachvollziehbar ist, wie er zu seinen Entscheidungen hekommen ist. Bei neuronalen Netzwerken ist das derzeit überhaupt nicht der Fall (Stichwort Blackbox).

Klar hat sie andere Prioritäten. Und klar sind manche davon vielleicht auch verbotswürdig
Aber Diskriminierung ist auch bei Menschen verbreitet und schwer nachzuweisen. Bei der Maschine ist es sogar leichter: man kann nämlich Fälle mit und ohne dem fraglichen Merkmal bewerten lassen und die Ergebnisse statistisch vergleichen. Man muss gar nicht wissen, wie der Algorithmus funktioniert. Man muss nur prüfen, ob die Ergebnisse sich im Rahmen der Gesetze bewegen.
Der Algorithmus wird sein Verhalten jedenfalls nicht verändern, weil man ihn der Diskriminierung verdächtigt, wie Menschen es tun würden.

Man kann also Algorithmen machen lassen und die Firmen zur Rechenschaft ziehen, wenn sie nachweislich auf verbotene Weise diskriminieren.

Aber vorzuschreiben, dass jede Entscheidung ein Mensch treffen soll, ist wie einen Heizer auf der eLok zur Pflicht zu machen. Mit so einem Quatsch bremsen wir uns nur weiter aus, während USA, China und Israel davonziehen…

Stimmt schon, wir müssten viel mehr in die Forschung stecken, aber unser Markenzeichen können faire, transparente und qualitativ hochwertige Algorithmen sein… Das wäre für Europa tatsächlich eine mögliche Richtung. Aber dafür brauchen wir Gesetze die Nutzer vor schlechten AI’s schützen und deren Anwendung verbieten. Möglich ist z.B. ein Zulassungsprozess wie für andere Dinge die reguliert werden müssen.

Klappt zurzeit nur nicht. Und der Nachweis ist schwierig, gerade bei Algorithmen, die mit sensiblen Daten wie Finanzdaten, persönlichen Informationen oder Patientendaten arbeiten. Dabei Grenzfälle auszutesten ist nicht so trivial. Anders als bei Menschen muss man das aber tun um zu sehen ob sie damit klarkommen würde…

Und ein weiterer Unterschied zum Menschen ist, dass die Maschine nicht haftbar ist. Niemand will es im Zweifelsfall gewesen sein und sehr wahrscheinlich verstehen die meisten Anwender nicht einmal wie der Algo funktioniert… Die meisten Probleme die sich in der Praxis zeigen sind den Entwicklern vorher nicht bewusst…

Interessante Diskussion, aber sollte man nicht vorher überlegen, ob wir hier von einem Grundrecht oder einem emergenten Recht reden? Für mich ist es jedenfalls kein Grundrecht, sondern ergibt sich bestenfalls aus einem der Freiheitsrechte, die sowieso schon in der Grundrechtecharta enthalten sind. (Danke an @Werbutz für den Hinweis darauf!)

2 „Gefällt mir“

Je länger wir darüber sprechen, umso deutlicher wird mir: nicht diskriminiert werden ist ein Menschenrecht. Dafür vorzuschreiben, dass Menschen Entscheidungen treffen müssen, ist nur eine (und m.E. untaugliche) Art der Umsetzung, nicht aber Teil des Rechtes selbst. Die richtige Art der Umsetzung hängt vom Stand der Technik ab und sollte daher nicht Teil eines fundamentalen Rechts sein.

Ich halte das nicht für so schwierig. Man kann doch sog. synthetische Testfälle generieren, die sich nur bzgl. der sensiblen Merkmale wie Hautfarbe oder Geschlecht unterscheiden und dann schauen, ob sie ceteris paribus gleich entscheiden. Das sollte man dann regelmäßig prüfen, da Algorithmen ja dauernd weiterentwickelt werden.

Auch das ist doch überhaupt kein Problem. Man muss doch nur per Gesetz (wenn das noch nicht klar geregelt sein sollte) entweder den Hersteller oder die einsetzende Organisation haftbar machen.

2 „Gefällt mir“

Das ist ein guter Plan! Und Teststrategien gibt es auf jeden Fall und es gibt positive Beispiele in denen gut getestet wurde. Es sollte nur Pflicht sein und nicht denjenigen freigestellt werden, die nur die Kosten haben aber keinen Vorteil davon wenn alles fair abläuft. Dafür halte ich Gesetze durchaus nötig, jedenfalls habe ich noch keine problemlos funktionierende Selbstverpflichtung der Industrie gesehen :wink:

1 „Gefällt mir“

So einwandfrei lässt sich das wohl in beiden Fällen nicht unbedingt feststellen. Die „menschliche“ Entscheidung hat aber dann u.U. den Vorteil, dass der nächste Mensch anders entscheidet. Wenn jemand wegen seines Namens von bestimmten Vermietern keine Wohnung bekommt, oder wegen seiner Hautfarbe von gewissen Firmen nicht eingestellt wird, ist das zwar diskriminierend und verboten, aber mit etwas Glück findet die betroffene Person früher oder später doch noch einen Vermieter oder Arbeitgeber, der eben nicht auf rassistischer Grundlage seine Entscheidungen trifft. Wenn allerdings irgendwann in der Zukunft solche Entscheidungen weithin an Dienste wie „Google Rent“ oder „Facebook HR“ (Namen fiktiv) outgesourcet werden, deren neurale Algorithmen den in der Gesellschaft exististierenden Rassismus verinnerlicht und in die Entscheidungsfindung einbezogen haben, wird es irgendwann vielleicht schwierig dem zu entkommen.

Und dass es sowas gibt, ist real. Vor einiger Zeit ging z.B. mal auf Twitter das Experiment herum, Bilddateien mit schwarzen und weißen Personen und leerem Raum dazwischen zu posten, und in der Vorschau in der Twittertimeline hat Twitter dann automatisch immer auf das weiße Gesicht zentriert, egal ob es sich rechts, links, oben oder unten im Bild befand. Ich glaube kaum, dass das eine Vorgabe von Jack Dorsey war, das genau so zu programmieren, sondern deren „KI“ hat das einfach so entschieden.

2 „Gefällt mir“

Hier ein Interview mit zwei Co-Autoren:

3 „Gefällt mir“

interessantes Thema

1 „Gefällt mir“

Natürlich gibt es das. Daher ja die Vorschläge,

  1. Wo möglich, bestimmte Variablen (Geschlecht, Hautfarbe etc) dem Algorithmus gar nicht mitzuteilen
  2. mit synthetischen Testfällen zu prüfen, ob ein Algorithmus diskriminiert.

Außerdem könnte man noch drauf hinwirken, dass die Lernmenge oder das Regelwerk von einem diversen Team entwickelt werden sollen.

1 „Gefällt mir“

Aber so wirklich unklar ist es ja nicht. Zitat:

Lorenz hält die derzeitigen Regelungen für ausreichend: „Es ist aus juristischer Sicht keine Revolution vonnöten.“ Nach geltender Rechtslage hafte im Autoverkehr der Halter für Schäden, die mit seinem Fahrzeug verursacht werden. „Es gilt hier wegen der potenziellen Gefahr das Prinzip der Gefährdungshaftung.“

1 „Gefällt mir“

Auch, wenn ich an zwei Artikeln rumkritisiere, gefällt mir die Stoßrichtung insgesamt eigentlich sehr gut und auch die im Interview und Spiegel-Artikel diskutierten Artikel, Probleme und Beispiele finde ich sehr relevant.

1 „Gefällt mir“