Künstliche Intelligenz in der LdN

Liebes Lage-Team,

vorab: ihr leistet eine Spitzenarbeit und unter Freunden, Familie und Berufskollegen empfehle ich euch seit langer Zeit immer gerne weiter.

Als Doktorand in der künstlichen Intelligenz (KI), vermisse ich seit Ewigkeiten die Adressierung dieses Themas in der Lage. Obwohl ihr euch (zurecht) Expertise rund um innenpolitische Themen auf die Fahne geschrieben habt, bin ich erstaunt darüber, dass ihr zum Thema KI keine bis wenige Worte darüber verliert. Interessant wäre hier bspw. eine Diskussion zur KI-Strategie der Bundesregierung (die kürzlich den Fördergeldtopf um 2 Milliarden auf nun 5 Milliarden € erweitert hat, aber lediglich 65 Millionen abgeschöpft wurden). Die Bundesregierung scheint darin kein Problem zu sehen, dass aus den geplanten 50 Professorenstellen erst zwei besetzt wurden. Während andere Länder wie die USA oder Russland über KI-Policy/KI-Ethik und fair-use reden, glaubt die Bundesregierung, dass es genüge Geld auf dieses Thema zu werfen (und es dabei bürokratisch schwer zugänglich für Dritte zu machen) [1,2]. So in der Manier „KI-Trainer werden das Ding schon regeln“.

Die KI-Beschlüsse sind sogar europäisch! In einer E-Mail hatte ich vor etwas längerer Zeit Ulf auf das europäische KI-Projekt ELLIS [3] in Zusammenhang mit COVID aufmerksam gemacht, erhielt jedoch keine Rückmeldung.

TLDR: es wäre schön, wenn ihr das Thema KI mit auf eure Agenda nehmt und relevante Veränderungen auf sowohl innenpolitischer als auch außenpolitischer Ebene beobachtet, da es doch einen großen Misstand und damit Diskussionsbedarf hierzu gibt.

Wie sehen das andere Lagehörer? Vielleicht bin ich auch zu biased, weil KI mein Job ist…

[1] https://www.gruene-bundestag.de/presse/pressemitteilungen/ki-strategie-ohne-ki-mittel-laeuft-ins-leere
[2] https://twitter.com/FerreiraFabioDE/status/1335533442113691648
[3] https://ellis.eu

2 „Gefällt mir“

Danke für den Hinweis! Ich denke, wir haben das bisher noch nicht ausführlich diskutiert, weil es an den konkreten Anwendungsfällen fehlt, die sich für ein Politik-Format eignen … mit dem GFF Hut habe ich schon öfter Vorträge zu dem Thema gehalten, das ließe sich also relativ schnell realisieren.

Welche Lebensbereiche würdest du denn gerne einmal diskutiert sehen?

PS: Wir verschicken auf alle Mails eine Rückmeldung, dh wenn du keine bekommen hast, dann ist deine Mail nicht angekommen.

2 „Gefällt mir“

…faende ich spannend. Auch interessant dazu:
https://www.zeit.de/digital/2020-11/richard-socher-kuenstliche-intelligenz-interviewpodcast-alles-gesagt

[9] 'The discourse is unhinged': how the media gets AI alarmingly wrong | Artificial intelligence (AI) | The Guardian
[10] Creating an AI can be five times worse for the planet than a car | New Scientist

die anderen Referenzen (ich konnte nur vier in einem Beitrag posten weil ich neu bin):

[5] Uganda uses China's Huawei facial recognition to snare protesters — Quartz Africa
[6] CCTV pedestrian recognition and tracking technology by Accuware - YouTube
[7] Study finds gender and skin-type bias in commercial artificial-intelligence systems | MIT News | Massachusetts Institute of Technology
[8] The Guardian’s GPT-3-written article misleads readers about AI. Here’s why. – TechTalks

Hi Ulf,
danke für die rasche Rückmeldung und Erklärung.

In der Hoffnung, dass ich deine Frage richtig verstanden habe:

Ein interessanter Lebensbereich von KI ist die Biologie/Medizin: Ein kürzlicher Durchbruch von Alphabet’s DeepMind wird mit großer Wahrscheinlichkeit die Proteinfaltung in der Biologie erheblich effizienter machen [1, 2] - das Ergebnis hat definitiv Potential für eine Breitenwirkung (aber Achtung: „DeepMind has solved protein folding“ ist definitiv ein overselling). Eine weiterer spannender Bereich ist die natürliche Sprachverarbeitung, wo es mit GPT-3 eine Errungenschaft gab [3] (aber Achtung: Artikel/Blogs tendieren dazu diese zu überschätzen). Anwendungen hierzu könnte sein: bessere Sprachassistenten, automatische Fake-News Generatoren usw.
Ein anderer diskussionswürdiger Bereich ist die Robotik und ihre Ausprägungen, z.B. autonomes Fahren, Assistenzrobotik, Drohnen für den Paketlieferdienst [4] oder aber auch militärische Anwendungen wie die Objekt-/Personenverfolgung bzw. Personenreidentifikation. Warum "Re"identifikation? Beispielweise relevant wenn Personen über eine Stadt hinweg überwacht werden sollen und in Autos, Häusern usw. verschwinden [5, 6]. Die genannten Beispiele sind m.M.n. für eine Diskussion spannend, weil sie sowohl das Potential als auch die Gefahren von KI aufzeigen.

Neben den KI-Lebensbereichen und der KI-Strategie der Bundesregierung gibt es aber eine ganze Reihe (weiterer) Missstände, die man diskutieren könnte:

  • unsere Daten, mit denen wir KI-Modelle trainieren, sind verzerrt/biased, sodass wir Probleme beim Deployment von KI bekommen (um nur ein Beispiel zu nennen: Menschen mit schwarzer Hautfarbe werden von Gesichtsdetektion-Software i.d.R. schlechter detektiert/erkannt als Menschen mit weißer Hautfarbe) [7]
  • Medien betreiben „overselling“ von wissenschaftlichen Erfolgen in der KI und die KI-Community scheint machtlos (aber auch wir in der Community kennen dieses Problem seit langer Zeit: KI-Konferenzen und -Journals sowie Peer Reviewing schaffen oftmals Anreize für ein Overselling) [8,9]
  • die Erstellung von KI braucht unglaublich viele Ressourcen [10] und zugleich sind diese stark ungleich verteilt (nämlich bei Tech-Giganten wie Google, Amazon, Facebook oder Huawei) und es gibt bislang wenige Debatten darüber, wie der Zugang zu diesen Ressourcen fairer gestaltet werden kann (da finde ich auf die Schnelle gerade keine Referenz, kann ich aber nachreichen falls gewünscht)

[1] ‘It will change everything’: DeepMind’s AI makes gigantic leap in solving protein structures
[2] AlphaFold: a solution to a 50-year-old grand challenge in biology | DeepMind
[3] GPT-3 - Wikipedia
[4] https://www.faa.gov/news/updates/?newsId=96138

Spannend fände ich in dem Zusammenhang auch insbesondere die ethischen und rechtlichen Komponenten: Wer ist Schuld, wenn der Algorithmus versagt?

Das selbstfahrende Auto ist hier immer das einfachste bzw. bildlichste Beispiel, aber natürlich funktioniert das auch bei allen anderen intelligenten Algorithmen, so können im Bank- und Polizeiwesen falsche Entscheidungen auch schnell für den Betroffenen starke Auswirkungen haben.

Bei Deep-Learning Algorithmen ist zudem der entscheidungsweg nicht nachvollziehbar, da der Algorithmus in einer Art Black-Box agiert.

Wenn der Algorithmus / die KI versagt, wer ist dann Schuld? Der Anwender? Der Betreiber? Gar der Programmierer? Oder hat da einfach „die Technik versagt“ und es ist zwar ärgerlich, aber „da kann man halt nichts machen“.
Wie ist da aktuell die rechtliche Lage?