Frühere Posts haben das Thema bereits angeregt
- Künstliche Intelligenz in der LdN, Dez 2020
- In Defence of Democracy and the Rule of Law in the Age of “Artificial Intelligence”, Juni 2021
Im Wesentlichen wiederhole ich hier den Appell von TRq („In Defence of…“ oben) mit Updates und mehr Hintergrund zum Einstieg in das Thema, wie im Forum Intro angemahnt. Darüber hinaus möchte ich mit meinem Vorschlag aber unbedingt den Bogen weit spannen — über einzelne gesellschaftliche, politische und wirtschaftliche Perspektiven hinaus — und anregen, dass die LdN das Thema aufgreife vor dem Hintergrund der Entwicklung von AI hin zu einer potentiell existenziellen Bedrohung für die Menschheit. Dieser Ausblick bietet dem AI Hype (den User transist0r beklagt) ein gutes Gegengewicht, er schließt die Möglichkeit einer Einlösung des Heilsversprechens ein, und kann einen hilfreichen Rahmen bieten, weil das Themenfeld sehr breit ist.
Konkret ist das Thema für uns (und die LdN) relevant, da sich die EU mit dem AI Act an weitsichtiger Weichenstellung versucht (siehe zum Beispiel Bericht auf Netzpolitik). Und bereits schwache AI ist ein Problem für die Menschheit in Form autonomer Waffensysteme: Für deren Verbannung setzt sich zum Beispiel das Future of Life Institute ein, das jüngst auch im Rahmen des AI Act Gesetzgebungsverfahrens vor dem EU Parlament vorsprach. Die Propagandafilme des Instituts sind eindrücklich: Slaughterbots (2018), Slaughterbots - if human: kill() (2021).
Über die mehr oder weniger unschuldige Phase der AI Entwicklung sind wir jedenfalls hinaus. Das wäre jene Phase, in der schädliche AI lediglich sozialhistorisch vorgeprägt war und Lebensläufe zugunsten männlicher Bewerber sortierte oder, wenig woke, Portraits farbiger Menschen auch unter dem Stichwort „Gorillas“ anzeigte. Eine Diskussion der Taxonomie, wo maschinelles Lernen aufhört und künstliche Intelligenz anfängt, ist hier meines Erachtens auch nicht nötig.
Ob die lange Perspektive einer möglichen existenziellen Bedrohung heute relevante Handlungskonsequenzen fordert, beantwortet die Wissenschaft weiterhin unterschiedlich: Stoikerin Sabine Hossenfelder meint „nein“, Philosoph Sam Harris argumentiert in beeindruckender Weise „ja“. Harris’ Vortrag amalgamiert meiner Meinung nach am knackigsten die Argumentation von Nick Bostrom (selbsternannter Long Termist, der das Thema der existenziellen Bedrohung mit seinem Buch Superintelligence, 2014, zumindest „populär“ gemacht hat) bis Stuart Russell (im Vorstand des Future of Life Institutes, siehe sein Buch Human Compatible, 2019).
Über die Nichttrivialität von AI-Sicherheit unterrichtet sehr allgemeinverständlich der YouTube-Kanal von Robert Miles. Eine Definition von starker AI, beziehungsweise artificial general AI oder auch „General Purpose AI Systems“ (GPAIS) findet sich in der englischen Wikipedia; die deutsche Seite ist noch unterentwickelt.