Künstliche Intelligenz (schwach bis stark) und wie wir heute auf sie reagieren müssen

Frühere Posts haben das Thema bereits angeregt

Im Wesentlichen wiederhole ich hier den Appell von TRq („In Defence of…“ oben) mit Updates und mehr Hintergrund zum Einstieg in das Thema, wie im Forum Intro angemahnt. Darüber hinaus möchte ich mit meinem Vorschlag aber unbedingt den Bogen weit spannen — über einzelne gesellschaftliche, politische und wirtschaftliche Perspektiven hinaus — und anregen, dass die LdN das Thema aufgreife vor dem Hintergrund der Entwicklung von AI hin zu einer potentiell existenziellen Bedrohung für die Menschheit. Dieser Ausblick bietet dem AI Hype (den User transist0r beklagt) ein gutes Gegengewicht, er schließt die Möglichkeit einer Einlösung des Heilsversprechens ein, und kann einen hilfreichen Rahmen bieten, weil das Themenfeld sehr breit ist.

Konkret ist das Thema für uns (und die LdN) relevant, da sich die EU mit dem AI Act an weitsichtiger Weichenstellung versucht (siehe zum Beispiel Bericht auf Netzpolitik). Und bereits schwache AI ist ein Problem für die Menschheit in Form autonomer Waffensysteme: Für deren Verbannung setzt sich zum Beispiel das Future of Life Institute ein, das jüngst auch im Rahmen des AI Act Gesetzgebungsverfahrens vor dem EU Parlament vorsprach. Die Propagandafilme des Instituts sind eindrücklich: Slaughterbots (2018), Slaughterbots - if human: kill() (2021).

Über die mehr oder weniger unschuldige Phase der AI Entwicklung sind wir jedenfalls hinaus. Das wäre jene Phase, in der schädliche AI lediglich sozialhistorisch vorgeprägt war und Lebensläufe zugunsten männlicher Bewerber sortierte oder, wenig woke, Portraits farbiger Menschen auch unter dem Stichwort „Gorillas“ anzeigte. Eine Diskussion der Taxonomie, wo maschinelles Lernen aufhört und künstliche Intelligenz anfängt, ist hier meines Erachtens auch nicht nötig.

Ob die lange Perspektive einer möglichen existenziellen Bedrohung heute relevante Handlungskonsequenzen fordert, beantwortet die Wissenschaft weiterhin unterschiedlich: Stoikerin Sabine Hossenfelder meint „nein“, Philosoph Sam Harris argumentiert in beeindruckender Weise „ja“. Harris’ Vortrag amalgamiert meiner Meinung nach am knackigsten die Argumentation von Nick Bostrom (selbsternannter Long Termist, der das Thema der existenziellen Bedrohung mit seinem Buch Superintelligence, 2014, zumindest „populär“ gemacht hat) bis Stuart Russell (im Vorstand des Future of Life Institutes, siehe sein Buch Human Compatible, 2019).

Über die Nichttrivialität von AI-Sicherheit unterrichtet sehr allgemeinverständlich der YouTube-Kanal von Robert Miles. Eine Definition von starker AI, beziehungsweise artificial general AI oder auch „General Purpose AI Systems“ (GPAIS) findet sich in der englischen Wikipedia; die deutsche Seite ist noch unterentwickelt.

2 „Gefällt mir“

Das Thema AI ist in der Tat besonders vielschichtig.

Künstliche Intelligenz bietet extrem viele Chancen, geht aber auch mit immensen Risiken einher. Und je nachdem, wie man die Chancen und Risiken bewertet, kommt man zur Forderung von mehr oder weniger Reglementierung oder gar einem Forschungs- und Entwicklungs-Moratorium.

Diese grundsätzliche Problematik haben wir in vielen Bereichen, z.B. auch in der Humanmedizin / Gentechnik bei CRISPR (auch hier: immense Chancen, aber auch immense Risiken bei Anwendung auf den Menschen).

Es handelt sich in beiden Fällen um wissenschaftliches Neuland und wie bei der Atomenergie muss es vermutlich erst einmal zu einigen mittelschweren Katastrophen kommen, bis klar wird, wo man die Grenzen ziehen sollte. Wobei gerade die Atomenergie zeigt, dass auch nach einigen schweren Katastrophen die Einschätzung von Nutzen und Risiko je nach Gesellschaft noch ganz unterschiedlich sein kann (siehe Deutschland und Frankreich).

Bei all diesen Themen ist auch wichtig, zu berücksichtigen, dass wir uns immer noch in einem weltweiten Konflikt der Systeme befinden (Autoritäre System vs. Demokratien) und ein System wie China weit weniger Skrupel haben wird, AI für sinistere Zwecke einzusetzen, wenn dies die eigene Position stärkt (z.B. voll-autonome Waffensysteme). Hier muss daher, ähnlich wie bei CRISPR, eine internationale Lösung her, auf die sich die gesamte Welt verständigt. Es wird dennoch - wie auch bei CRISPR - einzelne Forscher geben, die sich darüber hinweg setzen, aber bei CRISPR funktioniert es zumindest so weit, dass der chinesische Staat hier strafend reagiert hat.

Ohne einen ähnlich starken internationalen Konsens bei künstlicher Intelligenz macht eine Selbstbeschränkung der Demokratien wenig Sinn. Denn wenn wir aus Angst vor „Skynet“ keine voll-autonomen Waffensysteme entwickeln und China irgendwann an dem Punkt ist, an dem sie solche perfektionierten Systeme weltweit zum Einsatz bringen können, ist auch niemanden geholfen…

Wie die meisten Themen haben wir hier also auch ein Thema, welches man von vielen unterschiedlichen Seiten beleuchten sollte, insbesondere im Hinblick darauf, welche Konsequenzen welche politischen Weichenstellungen global haben könnten.

4 „Gefällt mir“

Meiner Ansicht nach wird das Thema KI dieser Tage etwas zu hoch gehangen. Sicherlich ist maschinelles Lernen ein mächtiges Werkzeug, aber mehr eben auch nicht.

Dazu ein Beispiel:
Ich habe einen Papagei und bringe ihm bei, z.B. zu jedem der mich besucht „Idiot“ zu sagen. Es kommt also jemand zu mir nach Hause und wird von dem Vogel mit „Idiot“ beschimpft.
Aber hat der Papagei wirklich etwas gegen diesen Besucher? Vermutlich nicht, denn er sagt ja das Wort einfach nur, weil ich es ihm beigebracht habe UND, noch viel wichgtiger, er weiß auch gar nicht, was dieses Wort bedeutet.

Und genau so ist es mit den Systemen, die wir heute als KI kennen und die z.B. in autonomen Fahrzeugen stecken. Wir bringen diesen Systemen z.B. bei, an Baustellen mit Tempo-80-Schild nur mit 80 km/h zu fahren und das Fahrzeug tut das dann. Es versteht aber nicht warum das Schild da steht. Und es versteht auch nicht, das man an einer Baustelle auch ohne 80-Schild vorsichtig sein muss und ggf. die Geschwindigkeit drosseln sollte.

Kurz gesagt, heutige KI-Systeme „verstehen“ bzw. „durchdringen“ unsere Welt einfach nicht. Ein Sytem, dass die Fähigkeit besitzt, unsere Welt wirklich zu verstehen, wäre, meiner Meinung nach, eine sogenannte A.G.I., eine Artificial General Intelligence. Aber solch ein System wird in der nahen Zukunft nicht erwartet.

Aber ich will der grundsätzlichen Aussage von @Valentim damit nicht gänzlich widersprechen. Wir müssen über solche Systeme sprechen und ggf. neue Regeln dafür definieren. Aber das wird mMn eher so laufen, wie z.B. im Millitärischen bei Abkommen über den Einsatz von Streubomben oder im Zivilen bei Gesetzen über die digitale Massenüberwachung durch den Staat. Es ist eben einfach ein neues „Werkzeug“ wie viele Andere zuvor auch.

Eine echte „maschinelle Intelligenz“, quasi eine zweite dominante Spezies ala Skynet, halte ich allerdings für unwahrscheinlich.

3 „Gefällt mir“

Ich denke, das Thema wird eher zu wenig angegangen.

ChatGPT wird erfahrungsgemäß jetzt bereits für vielerlei professionelle (soll heißen, jemand verdient damit Geld) Info- und SEO-Texte verwendet, für wissenschaftliche Arbeiten, für Software-Codes. Und dann „nur nochmal drübergeguckt“.
DALL-E, Midjourney etc. - trainiert mit unzähligen Werken nicht gefragter Künstler - werden nicht nur für schicke Instagram-Profilbilder verwendet, sondern machen in der Praxis bereits jetzt Illustratoren und Concept-Artists obsolet.
Musik komponierende AI wird das nächste sein, mehr wird folgen. Wie klänge z.B. eine Rechtsprechungs-AI?

Im Arbeitsmarkt sehe ich Welt-umstürzendes Potenzial in Jahren, nicht Jahrzehnten. Und die Vertreiber und Entwickler wirken in Interviews so blind und naiv, wie man sie sich vorstellt.
Es ist eben nicht „Nur ein Werkzeug“, es ist die Akkumulation von in Jahren trainierten Fähigkeiten von Millionen. Trainiert mit Texten und Werken von Urhebern, die dem nie zugestimmt haben.

Die Bedeutung in Propaganda und Meinungsmanipulation ist ebenfalls eher beängstigend:
https://www.zeit.de/digital/2023-01/chatgpt-fake-news-desinformation-newsguard

Das ist eher ein positiver Aspekt bei der Sache.
Früher hat der Programmierer mit Templates und der Texter mit Textbausteinen gearbeitet, heute kann eine KI diesen lästigen Teil der Arbeit erledigen. Was spricht dagegen?

Auch hier sehe ich wenig Probleme, aber ich bin auch grundsätzlich kein Freund von zu starkem Urheberrecht. Klar, Künstler sollen von ihrer Arbeit leben können, aber das Vervielfältigen von Kunst zwecks maximaler Verfügbarkeit ist grundsätzlich etwas, das ich eher positiv sehe.

Und wenn ein großer Teil der nicht wirklich kreativen Werbetexter, Illustratoren und Concept-Artists durch eine KI ersetzt werden können ist das gesamtgesellschaftlich etwas positives, wie bei jeder Arbeitstätigkeit, die durch eine Maschine erledigt werden kann. Sorry, aber dieses Festhalten an obsolet gewordener, weil vollständig automatisierbarer, Arbeit ist einfach rückwärtsgewandt.

Eine KI wird niemals das Maß an Kreativität haben, das ein Mensch hat, eben weil sie nur gelerntes neu kombinieren kann. Klar, der Großteil der Künstler macht auch nichts anderes (besonders deutlich wird das bei Musik), aber hin und wieder schafft ein Künstler auch etwas, was fernab der ausgetretenen Pfade liegt. Und wenn eine KI das auch irgendwann kann - super!

Rechtsprechung dürfte noch ziemlich schwer sein, da die dort getätigten Abwägungen unheimlich kompliziert und kaum universell quantifizierbar sind.

Wie gesagt, es ist nicht zwangsläufig Blindheit und Naivität, sondern eventuell auch einfach eine begrüßende Haltung gegenüber der Utopie, die es uns erlaubt, dass möglichst wenig Arbeit nötig ist, um einen möglichst großen gesellschaftlichen Lebensstandard zu erzeugen. Das ist letztlich das Ziel hinter jeder Automatisierung.

Was das Thema „ChatGPT macht die Hausaufgaben“ angeht muss ich sagen, dass ich ChatGPT hier tatsächlich nur als Werkzeug sehe. Als die ersten Computer Rechtschreibkorrekturen bekommen haben gab es auch einen Aufschrei, weil plötzlich die Rechtschreibung, die immer ein Bewertungskriterium war, jetzt weitestgehend vom Computer korrigiert wurde. Ist halt so!

Wer z.B. ChatGPT nutzt, um sich eine Zusammenfassung eines Buchs oder Forschungsstandes zu erstellen und dann da noch mal drüber liest und fragwürdige Stellen ausbessert - why not? Dann müssen wir halt lernen, Leistung anders zu prüfen, wenn es uns nicht gefällt, dass das automatisiert werden kann.

Das ist natürlich ein Punkt, aber unvermeidbar. Jede neue Technologie wird auch im Krieg eingesetzt, dazu gehört auch die Desinformation.

1 „Gefällt mir“

Und was schließt du daraus, bzw. was sollte da geschehen?

Du scheinst dabei völlig zu übersehen, warum diese Arbeit obsolet geworden ist. Nicht weil sie so unangenehm wäre, und wir als Gesellschaft gemeinsam beschlossen hätten, dass damit deshalb Schluss sein sollte. Oder weil durch ein kleines Upsi jetzt eben doch die Technologie da ist, und man sie dann genauso gut auch nutzen kann.

Wie andere Maschinen auch, eignet sich die KI ganz hervorragend um menschliche (teure) Arbeit aus Produktionsprozessen zu entfernen. DAS ist ihr Sinn. Nur eben diesmal flächendeckend und massenhaft.
Bekanntlich brauchen Menschen zum Leben einen Job. Für eben jenen Job sind sie dann nicht mehr konkurrenzfähig. Nicht einmal ansatzweise.
Das zu erkennen, und auf die möglicherweise desaströsen Folgen hinzuweisen ist keineswegs rückwärtsgewandt.

Umgekehrt gefragt: Was macht dich denn glauben, dass dieser technologische Fortschritt „uns“ zugute kommen, und nicht nur kollektive Arbeitslosigkeit zur Folge haben wird? Es gab auch in den letzten Jahren und Jahrzehnten etliche Teil-Automatisierungen in einigen Bereichen. Die Produktivität steigt unaufhörlich. Weniger arbeiten müssen „wir“ deswegen trotzdem nicht.

1 „Gefällt mir“

Diese beiden Zitate zeigen das große Problem, das mit dieser Diskussion immer einhergeht.

Als noch 90% der Bevölkerung in der Landwirtschaft benötigt wurden, um überhaupt die Gesellschaft am Laufen zu halten, war Arbeitslosigkeit natürlich kein Problem. Wollen wir deshalb dahin zurück? Eher nicht.

Das Problem ist, dass sich Menschen nicht von der Idee lösen können, dass nur „Arbeit“ eine Berechtigung gibt, Teil der Gesellschaft zu sein, dass Arbeit zudem der zentrale Treiber der Selbstverwirklichung und Identität eines Menschen sei.

Desto mehr Arbeit wir durch technologischen Fortschritt automatisieren können, desto weniger Arbeit wird benötigt. Klar, auch Automatisierung erzeugt (hochqualifizierte) Arbeitsplätze, aber natürlich nicht in dem Maßstab, in dem sie (meist niedrig qualifizierte) Arbeitsplätze ersetzt - sonst wäre sie ja auch nicht betriebswirtschaftlich sinnvoll.

Das daraus resultierende dystopische Szenario sieht wie folgt aus:
Es herrscht Massenarbeitslosigkeit, die der Staat kaum noch stemmen kann. Die Unternehmen, die Arbeitsplätze wegrationalisiert haben, machen gigantische Gewinne, davon profitieren vor allem die Wohlhabenden (z.B. Aktionäre), was über Steuern an den Staat zurückfließt, genügt nicht, die Folgen der Massenarbeitslosigkeit zu bekämpfen. Es bildet sich ein System von Mega-Corporation, gegenüber denen die Staaten zunehmens an Einfluss verlieren, die Demokratie wird zur Korporatokratie mit plutokratischen Elementen. Der massive Reichtum, den die Automatisierung produziert, bleibt also bei den Reichen, während die Armen um die Krümmel vom Kuchen kämpfen.

Es gibt aber auch ein utopisches Szenario:
Der Großteil der nötigen Arbeit ist automatisiert. Ein großer Teil der Bevölkerung ist „arbeitslos“ und hat gelernt, sich anderweitig sinnvoll zu verwirklichen, über Ehrenamt, im Erziehungs- und Bildungssektor und an vielen anderen Stellen. Der Staat sorgt dafür, dass Unternehmen, die Arbeitsplätze automatisieren, einen großen Teil der dadurch entstehenden Gewinne zur Folgenbeseitigung aufbringen. Wir leben in großem Reichtum und jeder Mensch, unabhängig davon, ob er arbeitet oder nicht, hat an diesem Reichtum teil.

In welche Richtung uns Automatisierung führt, ist daher keineswegs klar. Und das Argument „Bekanntlich brauchen Menschen zum Leben einen Job“ ist keinesfalls so zwingend, wie du es hier darstellst.

3 „Gefällt mir“

Ich würde tatsächlich gern mal ein Lage-Kapitel dazu hören. Eigentlich sind Philip und Ulf doch prädestiniert für das Thema.

Warum sollen von allen Menschen Kunstschaffende ihr Schaffen eigentlich immer umsonst hergeben? Oder damit umsonst AIs trainieren, damit sie von ihnen ersetzt werden können?

Ist es? Es geht hier nicht um repetitive, rücken schädigende Fließbandarbeit. Es werden Tätigkeiten obsolet, die viele Menschen als sinnstiftend betrachten. Die bislang in aller Regel gesellschaftlich Anerkennung fanden. Jede automatisierbare Arbeit automatisieren ist für mich keine Utopie, sondern ganz definitiv eine Dystopie.

Das haben Schachspieler glaube ich auch mal so ähnlich gesagt. Ich bin kein Jurist, aber ich habe den Eindruck, Rechtsprechung basiert auf Logik und einem gut dokumentierten Regelwerk. Also ein denkbarer Anwendungsbereich.

Kreativität in „Kreativ-Jobs“ lässt sich meist auf Verfahren und Toolboxen herunterbrechen. Humor, Ästhetik, Prosa, folgt Regeln. Sehr leicht von AIs emulierbar, wie man ja JETZT bereits sieht.

Ich denke, Corporations werden diese Systeme zur Arbeitskostenminimierung nutzen, und um ihre menschlichen Angestellten unter noch mehr Druck setzen zu können. Ethisch ambivalente Staaten und Politiker werden sie zur Überwachung, Kontrolle, und Manipulation einsetzen. Wenige werden sich bereichern, viele bleiben auf der Strecke. Staaten werden destabilisiert etc…

Als Erstes mal sollten Inhalte, die nicht explizit dafür genehmigt wurden, nicht zu Trainings-Zwecken verwendet werden dürfen. Die Entwickler sollten dabei in der Nachweispflicht sein.
Plattformen (Artstation o.ä.) und Software (Adobe, MS-Office), die Deals mit Open-AI, MS oder ähnlichen machen oder selbst an AI entwickeln, müssen ihre User außerdem unmissverständlich darüber in Kenntnis setzen und die Möglichket des Ablehnens anbieten.

Dann muss es eine öffentliche und politische Diskussion geben. Das kann nicht wieder sein wie 2007, als die deutsche Justizministerin Brigitte Zypries nicht wusste, was ein Browser ist.

Und das können sie auch noch, nur halt nicht in einem bezahlten Angestellten-Verhältnis, sondern quasi Ehrenamtlich. Also abgesehen davon, dass ohnehin nicht jeder Werbetexter ersetzt werden könnte, weil die KI eben nicht wirklich „kreativ“ sein kann, wäre es doch eher schön, wenn obsolete Werbetexter dann Romane schreiben könnten…

Das liegt daran, dass du mit dem Bild sozialisiert wurdest, dass der Wert eines Menschen an dessen Arbeit bemisst, wie leider fast alle Menschen. Das müssen wir überwinden, die Alternative ist weiterhin tausende nutzlose Jobs um der Jobs Willen zu schaffen… und das halte ich für falsch.

In ferner, ferner Zukunft vielleicht, wobei selbst das zweifelhaft ist, weil es bei der Rechtsprechung wie gesagt um nicht wirklich quantifizierbare Abwägungen geht, die man deshalb auch nicht in einen Algorithmus packen kann. Schach ist das genaue Gegenteil, hier kann alles quantifiziert werden und das Spiel im Prinzip „gelöst“ werden, daher: Ein optimaler, objektiv „bester“ Zug gefunden werden. Rechtsprechung hingegen ist wie Politik, ein permanentes Aushandeln gesellschaftlicher Werte und Prioritäten.

Nicht wirklich. Erstell dir mal ein paar „Witze“ von ChatGPT, du wirst feststellen, dass Humor z.B. gerade nicht einfach zu emulieren ist. Denn gerade bei Humor erreicht man das Ziel nicht durch eine beliebige Kombination von Wörtern, sondern man muss den Sinn hinter den Worten und den Zusammenhang verstehen. Das kann aktuell noch keine KI und es wird noch lange dauern, und was Humor angeht behaupten sogar die meisten Experten, dass eine KI dies nie lernen kann.

Deswegen ist es mir auch so wichtig, über Regulationen nachzudenken. Aber eben konstruktive Regulierungen, die eine Weiterentwicklung von KI zum Nutzen der Gesellschaft ermöglicht, gleichzeitig aber verhindert, dass diese KI zu einer weiteren Vermögensakkumulation führt.

Das wäre eine Regulierung, die jeden Fortschritt im Bereich der KI massiv zurückwerfen würde. Warum dürfen Menschen die (öffentlichen) Gedanken anderer nutzen und rekombinieren, aber eine KI nicht? Warum darf ein Künstler ein sich von anderen Kunstwerken inspirieren lassen und darauf seine eigene Arbeit fußen, aber eine KI nicht?

1 „Gefällt mir“

Okay, dann für dich etwas präziser: Bekanntlich brauchen Menschen in unserem Wirtschaftssystem aktuell zum Leben einen Job. Ich bin der erste der da bereit ist, über Alternativen zu sprechen.

Du hast da wunderbar zwei Szenarien beschrieben. Ich kann mir ehrlich gesagt kaum vorstellen, dass du sie für gleich wahrscheinlich hältst.
Dickes lol, die Umverteilungsmaßnahmen für Szenario Nr.2 möchte ich sehen. Soll das dieselbe Regierung beschließen, die sich aktuell nicht mal auch nur zur popeligsten einmalige Vermögensabgabe durchringen kann? Und die Früchte dieser industriellen Revolution sollen aber diesmal ganz bestimmt abgeschöpft und wirklich echt allen gleichermaßen zugute kommen? Come on.

Den Aufruf zum Verzicht auf diese Technologien hast du übrigens hineingelesen, ebenso wie den Identitären Twist zur Arbeit.
Die sinnvolle Konsequenz heißt nicht „lassen wir bleiben“. Abgesehen davon, dass das ohnehin einfach passieren wird, ganz ohne demokratische Entscheidung. In der Tat: die Richtung ist keineswegs festgelegt. Nur haben die Pessimisten nun mal die Empirie auf ihrer Seite. Und „Kopf hoch, kann doch auch gutgehen“ reicht mMn einfach nicht, um diese im Grundsatz sehr vernünftigen Bedenken zu adressieren.

1 „Gefällt mir“

Auch die erste industrielle Revolution hat nach einer grausamen Anfangszeit maßgebliche Verbesserung im sozialen Bereich mit sich gebracht. Vor der ersten industriellen Revolution war die Zahl der Teilhaber am gesellschaftlichen Wohlstand minimal, zwanzig Jahre später, dank Sozialversicherungen, Arbeitszeitbegrenzungen, Arbeitnehmerrechten und co. sah es jedenfalls deutlich besser aus.

Wenn daher eine künstliche Intelligenz eine Dienstleistungs-Revolution mit sich bringt, im Rahmen dessen viele Dienstleistungen automatisiert werden können, wäre mein primäres Ziel, eine grausame Phase wie bei der industriellen Revolution zu verhindern, indem schon im Vorfeld die entsprechenden Gesetze erlassen werden, das Ganze in eine gute Bahn zu lenken.

Deine Befürchtung, dass die Politik das nicht gebacken bekommt, teile ich durchaus. In diesem Fall würde dann tatsächlich erst eine schlimme Phase einsetzen und als Konsequenz dessen würden sozialpolitische Maßnahmen kommen, die die Situation abfedern.

Wir brauchen definitiv langsam wieder einen Bruch im Trend der Vermögensakkumulation, daher einen radikalen Schnitt der Umverteilung von den obersten 5% auf den Rest der Gesellschaft. Ein solcher Bruch ist realistisch betrachtet am ehestens zu erwarten, wenn sich maßgebliche gesellschaftliche Aspekte ändern (Ende der Feudalherrschaft, Industrielle Revolution usw.).

1 „Gefällt mir“

Ehrlich gesagt unterschätzt du da ChatGPT denke ich. Die meisten Menschen hätten mehr Probleme damit hieraus etwas ansatzweise kreatives zu machen.

Ansonsten finde ich deinen Blick auf KI aber auch zu negativ, @BrewSwillis. Zwar sehe ich auch einige Berufe aktuell in Gefahr. Ein Abkömmling von GPT3 schreibt für die TAZ Kolumnen. Auch andere Zeitungen nutzen das schon erfolgreich.

Das setzt aber vor allem Kapazitäten frei für Recherche und stärkt vielleicht den investigativen Journalismus. Es gibt etliche Berufe, die wir der KI übergeben werden. Aber es bleiben doch etliche Jobs, in denen KI aktuell nicht konkurrenzfähig ist. Notfalls muss man umschulen. Das geht doch allen anderen Arbeitnehmern, die in den letzten 30 Jahren durch Roboter oder Prozesssteuerung ersetzt wurden, auch so. Der Unterschied ist lediglich, dass es nun auch Bürojobs an den Kragen geht.

Danke für den Hinweis. Das war mir bisher entgangen.

Und noch ein kleiner Hinweis, weil es gut zum Thema dieses Threads passt:
Bei Fefe im Blog wurde ein Artikel gepostet, bei dem ein Start-up seine Kunden bei Verfahren wegen Geschwindigkeitsübertretungen mit einer AR-Brille und einer Art Jura-ChatGPT im Gericht unterstützen wollte („robot“ meint hier eher „KI“):

Ich denke auch, dass bestimmte Tätigkeiten innerhalb der kreativen Berufe jetzt durch maschinelles Lernen (und Nachahmen) stark vereinfacht werden. Wenn man z.B. einen Werbetext schreiben lassen will, gibt man dem System halt die wichtigsten Talking-Points und dann fällt ein Text raus, den redigiert und korrigiert man ggf. noch und fertig. Der Punkt ist aber, das es niemals so sein wird, dass ChatGPT oder sonst wer ALLEIN ohne menschliche Unterstützung auskommen werden.

Deswegen sind solche Systeme eben auch nur Werkzeuge. Wenn ich einen Haufen Hämmer, Maurerkellen und Zementmischer auf ein leeres Grundstück werfe, dann entsteht dort auch nicht von selbst ein Haus. Erst wenn die Handwerker kommen und mithilfe der Werkzeuge wirklich arbeiten, dann entsteht das Haus.

Klar kann man sagen, dass durch die Hilfe von maschinellen Systemen, wie ChatGPT, beim Erstellen von Texten Arbeitskräfte wegrationalisiert werden können, aber möglicherweise findet auch eine Konzentration der „menschlichen Arbeitskräfte“ auf tatsächlich kreative Inhalte, die man durch maschinelles Lernen nicht erreichen kann, statt.

Der AI-Kolumnist der TAZ ist da mMn ein gutes Beispiel. Denn ich wette, da saß immer noch ein Mensch daneben und hat dem System Vorgaben für den Text gegeben. Aber nur ein menschlicher Kolumnist besitzt die Autonomie, „einfach so“ über ein passendes, aktuelles Thema zu schreiben. Und das wird auch so bleiben.

1 „Gefällt mir“

Und darüber bestimmen, wessen Job fortan ‚nutzlos‘ ist (gleiche Terminologie verwendet wie in ‚Qualityland‘, fand ich irgendwie witzig), werden die Nerds von OpenAI sowie ein paar narzisstische IT-Milliardäre.
Wieder mal ein paar Atombomben bauende weiße Männer, die es tun, weil sie es können.

Das wäre die Hoffnung.
Die Entwicklung sollte massiv gebremst werden, bis sich Politik und Gesellschaft global über Bedeutung und Gefahren bewusst werden.

Weil (fast) niemand zugestimmt hat, dass synthetische Intelligenz über Jahre erlernte Fähigkeiten von Millionen aberntet, um diese anschließend zur Bereicherung anderer anzubieten. Das ist immer noch kaum jemandem bewusst, der sein Schaffen im Netz veröffentlicht. Das ist neu, und muss neu bewertet werden.

1 „Gefällt mir“

Diese Verbesserungen, die das Leben mit der Technologie so lebenswert machen, sind ganz eindeutig nicht Ausfluss der Technologie selbst, sondern durch - teilweise ziemlich blutigen - Arbeitskampf unter jahrelanger Repression erstritten worden.
Es ist mir deshalb umso schleierhafter, wie man der

mehr oder weniger schulterzuckend gegenüberstehen kann. Schlimm verspricht hier nämlich auch eine völlig andere Größenordnung zu sein. Noch einmal fürs Protokoll: Ich habe nichts gegen die KI selbst, auch @pitus . Genauso wenig wie gegen Nähmaschinen oder Rasenmäher. Die Maschine ist im Gegenteil ein wahrer Segen, sie kann den Arbeiter befreien. Und hat wie du richtig sagst, gewaltiges Potential unser Leben um etliche Faktoren zu verbessern. Es sind halt die gesellschaftlichen Umstände, die dem entgegenstehen werden.

Ich finde, du hast die Frage von @Daniel_K nicht überzeugend beantwortet. Van Gogh hat ja auch nicht zugestimmt, dass sich bis heute Künstler von ihm inspirieren lassen und ähnliche Bilder mit Reproduktionsmittel tausendfach verkaufen.

Das einzige, was passiert, ist, dass der kommerzialisierte Kunstbetrieb an Wertschöpfung verliert. Die kommerzielle Popmusik z.B. ist auch nur zusammengeschraubtes Schema F. Ich bin sicher, das kann auch KI ohne Qualitätsverlust ausspucken. Nur ist dann keiner mehr dazu bereit, dafür viel Geld zu zahlen (auch nicht dem, der die KI dafür nutzt).

Während sich die Diskussion immer weiter Richtung „Ist KI eher Chance oder Bedrohung“ bewegt hat, möchte ich nochmal auf Folgendes hinweisen:

Ich halte es für nahezu deterministisch, dass sich die KI Entwicklung extrem beschleunigen wird. Selbst wenn alle Regierungen der Erde dagegen sind und auch tatsächlich keine geheime Militärforschung betreiben: Wie soll man unternehmerische Privatpersonen oder terroristische Vereinigungen davon abhalten, die KI weiterzuentwickeln? Indem jedes Land einen totalen Überwachungsstaat etabliert oder zumindest den privaten Besitz von Mikrochips unter Strafe stellt?

Eine kluge Politik sollte bereits heute identifizieren, welche Arbeitsplätze spätestens in einer Generation vollständig verschwunden sind (egal ob man das nun gut oder schlecht findet) und die entsprechenden Anreize in Bildungs- und Arbeitspolitik setzen.

4 „Gefällt mir“

Passend dazu:

Russland setzt autonome Kampfroboter in der Ukraine ein (n-tv)

Da die „Marker“ Ziele eigenständig identifizieren und eliminieren können sollen, wäre das tatsächlich ein voll-autonomes Waffensystem. Viele Experten bezweifeln, dass das Gerät im Praxiseinsatz wirklich effektiv genutzt werden kann, aber es ist dennoch ein Schritt in eine sehr problematische Richtung.

Im Bergkarabach-Konflikt wurde in der Vergangenheit zwar schon autonome „Loitering Munition“ eingesetzt, also Kamikaze-Drohnen mit Zielerkennung und eigenständiger Auslösung, aber der Einsatz von immer wieder verwendbaren Bodenfahrzeugen ist eine neue Dimension.

Das zeigt wieder das Problem mit der gesetzlichen Reglementierung derartiger Dinge:

Schurkenstaaten wie Russland oder China werden sich im Zweifel nicht an solche Regeln halten und wenn diese Systeme tatsächlich in Zukunft kriegsentscheidende Bedeutung erlangen, können wir es uns nicht leisten, hinterher zu hinken, unabhängig davon, ob wir es moralisch akzeptabel finden, Algorithmen über Leben und Tod entscheiden zu lassen.

1 „Gefällt mir“

Für mich ist das ein klassisches Gefangenendilemma: Sobald ein Staat autonom agierende Waffensysteme einsetzt bzw. auch nur entwickelt, werden wir nicht umhinkommen dies auch zu tun, um uns effektiv verteidigen zu können. Ich hoffe, dass Deutschland hier nicht die gleichen Fehler macht wie bei der Atomforschung und Gentechnik.

Ansonsten bin ich von den Möglichkeiten durch KI im Allgemeinen super begeistert und mega gespannt welche neuen Produkte in den nächsten Jahren entwickelt werden. Hoffe auf massive Effiziensgewinne für unsere Unternehmen, und dass Deutschland es schafft bei der Forschung und Entwicklung endlich mal wieder irgendwo vorne mit dabei zu sein!

1 „Gefällt mir“