Künstliche Intelligenz – unterschätzte Risiken für Gesellschaft und Demokratie?

ich find dieser Artikel passt ganz gut zum Thema:
https://www.golem.de/news/kuenstliche-intelligenz-von-suchmaschinen-zu-fressmaschinen-2506-196643.html

2 „Gefällt mir“

Ich befürchte die Tatsache, dass wir hier in DE und der EU so stark regulieren hat auch damit zu tun, dass wir den Trend verschlafen. Nicht ausschließlich aber auch.

A) Verschlafen im Sinne davon, dass wir bei wertschöpfenden Technologien und dazugehörigen Unternehmen kaum wettbewerbsfähig sind. Es gibt einfach kaum relevante Player aus der EU. Damit werden Gebühren und daraus folgende Gewinne auf andere Kontinente fließen. Und wir sprechen hier nicht von Zukunft sondern das geschieht schon zum Teil.

B) Verschlafen aber auch in dem Sinne, dass die Adoption in der Bevölkerung als auch Unternehmen geringer ist. Damit gehen Produktivität und Wohlstand verloren.

So sehr “Risiken und Nebenwirkungen” ein Thema sind, wünsche ich mir wir würden mehr “dabei” sein (wie oben beschrieben), statt besorgt am Rand zu stehen.

Edit: auch ich würde eine Sondersendung oder mehrere begrüßen, die einerseits einige Begriffe erläutern aber auch stark Praktiker einbeziehen. Damit lassen sich sicherlich auch einige Ängste reduzieren. Kein Mensch würde heute mehr gegen den Einsatz von Computern argumentieren. Ähnlich wird es sein mit LLMs etc.

Genau. Aber ein Argument das schwer zu kontern ist. Ja, der Output von LLMs ist vervlüffend. Menschen sind leicht zu verblüffen: Zaubertricks, optische Täuschungen, Horoskope. Ja LLMs können sehr nützlich sein und glänzen bei Übersetzungsaufgaben (bis zu einem bestimmten Niveau). Auch Speech-to-Text, Programmiersprache A → Programmiersprache B.

Aber die Schlussfolgerung, irgendwie konstituiere das zufällige Erzeugen von Wortfolgen in irgendeiner Form ein „Modell der Welt“, wenn die Wahrscheinlichkeitsverteilung nur vieldimensional und komplex genug ist, halte ich für sehr, sehr gewagt.

Gefährlich wird es, wenn das Bewusstsein, womit man es zu tun, hat nicht da ist, wenn es darauf ankommt. Bei „Recherche“ zum Beispiel. Ohne dass Quellenangaben eingeschaltet sind, die man dann auch noch selbst überprüfen muss (Suchmaschinen-Modus) sind LLMs für ernsthafte Recherche unbrauchbar. Versteht man, wenn man einsieht, dass ein LLM nicht „ich weiss nicht“ sagen kann, weil es auch nichts wissen kann, weil es kein Konzept von „wissen“ hat. Es hat auch kein Konzept von „wahr“ oder „falsch“. Man könnte den Output als „Bullshit“ im Sinne von Harry Frankfurt bezeichnen.

Habe für einen Post hier bei 'DuckduckGo AI" und „Copilot“ gefragt.
Frage:

Bei extra 3 lief mal ein Beitrag über ein Finanzamt, das umgezogen ist und dann den Mietvertrag nicht kündigen konnte

Die beiden Antworten:

Der Beitrag bei „extra 3“, den du erwähnst, handelt von einem Finanzamt, das umgezogen ist, aber den alten Mietvertrag nicht kündigen konnte. Dies ist ein Beispiel für die Herausforderungen, die bei Umzügen von Behörden oder Institutionen auftreten können, insbesondere wenn es um die rechtlichen Aspekte von Mietverträgen geht.
In Deutschland gilt in der Regel eine Kündigungsfrist von drei Monaten für Mietverträge. Wenn ein Finanzamt umzieht, könnte es in der Situation sein, dass es den alten Mietvertrag nicht rechtzeitig kündigen kann, was zu doppelten Mietkosten führt. Solche Fälle können durch verschiedene Faktoren kompliziert werden, wie z.B. fehlende Sonderkündigungsrechte oder unklare vertragliche Regelungen…

Das klingt nach einem klassischen Bürokratie-Fail, wie ihn extra3 gerne aufs Korn nimmt! Leider konnte ich den genauen Beitrag nicht finden, aber solche Geschichten sind typisch für die Sendung. Falls du ihn nochmal sehen möchtest, kannst du auf der extra3-Website oder in deren Mediathek nachschauen.
Solche Fälle sind zwar absurd, aber leider nicht ganz unrealistisch – manchmal bleibt ein Mietvertrag bestehen, weil niemand daran gedacht hat, ihn rechtzeitig zu kündigen. Klingt nach einer Steilvorlage für Satire! :grinning_face_with_smiling_eyes:

Ersterer tut so, als hätte er eine Antwort und erzählt dann einfach allgemeines, was in dem Zusammenhang einfach falsch ist. Letzterer gibt offen zu, dass er keine Antwort hat, was auch nicht hilft, aber wenigstens ehrlich ist. Ersterer ist eindeutig ein Papagei, der ohne Rücksicht auf Verluste nach plappert, was in seiner Datenbank ungefähr passen könnte.

1 „Gefällt mir“

Wir sind hier doch eigentlich wieder an einem typischen Punkt für Europa und ganz besonders Deutschland. Es ist einfacher neue Technologie mit überbordenden Ängsten zu versehen als sich damit neutral zu befassen und auch die enormen Chancen zu erkennen. Ich kann ehrlich gesagt diese überbordende Angstmacherei nicht mehr hören. Sie ist der Grund warum Deutschland digital absolut lächerlich dasteht gegenüber zig anderen Nationen. KI ist erstmal ein mächtiges Werkzeug, wie ein Hammer oder eine Säge. Man kann mit beidem tolle Finge vollbringen aber auch großes Unrecht tun. Trotzdem betrachten wir beides unterschiedlich und wieso: Weil ein großer Teil Deutschlands IT seitig völlig ungebildet ist und auch nicht lernen will und weil ein anderer Teil künstlich Ängste schürt und positives ausblendet. Wenn wir jetzt wieder alles blockieren anstatt auch mal mehr positive Erzählungen öffentlich zu führen werden wir noch weiter digital abgehängt. Unsere Politiker sind da leider die Musterbeispiele fehlender digitaler Bildung.

2 „Gefällt mir“

In den Artikel geht es darum, dass ChatGPT & Co zunehmen Suchmaschinen ersetzen und dass dies Zusammen mit SEO dazu führt, dass das Internet „dümmer“ (weil weniger guter Inhalt) wird (sehr verkürzt).

Ob der Autor hier richtig liegt, weiß ich nicht. Da werden eine Menge wilde Behauptungen unbelegt aufgestellt.

Z.B. dass ChatGPT eine einen Suchindex habe. Richtig ist, dass ChatGPT mittels Bing sucht, sich also eine traditionelle Suchmaschine zunutze macht. Ich finde leider den Beitrag auf LinkedIn nicht, wo das mal genauer dargestellt wurde.

Z.B. dass die meisten Menschen Google ausführlich nutzen, um zu recherchieren (und das das nun verloren gehe). Ich habe darüber keine Daten, aber ich gehe davon aus, die meisten Menschen kommen nicht über den 5. Link hinaus und bei vielen Suchen sind die ersten Links schlicht das Ergebnis überlegener SEO.

Z.B. das die Menschen, die sich den Ergebnissen von KI-Search zufrieden geben, noch oberflächlicher werden. Tatsache ist: Zumindest die Ergebnisse, die ich von Perplexity.ai bekommen, sind z.T. ziemlich ausführlich. Da muss man sich schon reinknien und ins Detail gehen.

1 „Gefällt mir“

In dem Fall ist das größere Problem, (das schon thematisiert werde, als Google begann, Fragen über den Ergebnissen mit Wikipedia zu beantworten) dass viele Nutzer die Seiten nicht mehr besuchen und damit Werbeeinnahmen verloren gehen. Wenn das Betreiben des Blogs aber kein Geld mehr generiert, wird er möglicherweise eingestellt. Man sieht jetzt schon, dass viele auf YouTube ausweichen und erste Informationen nicht mehr in Textform, sondern nur noch in Videos zur Verfügung stehen. Das wird dann die nächste Stufe sein, dass Videos und Podcasts transkribiert und den LLMs zugeführt werden.

Bleibt ein extrem wichtiges Thema! Von der Politik würde ich mir wünschen das es eben nicht darum geht ob und wie groß das Risiko ist sondern die Implikationen und Themen zu bearbeiten die sich dadurch ergeben.

Das für und wieder wird intensiv diskuttiert, einige Argumente sind vom OP vorgebracht worden. Eine m.E. sehr breite übersicht bietet dieser Aufsatz.

Daher wäre eine Betrachtung folgender Aspekte aus der Perspektive deutscher/EU Politik angebracht:

  • Findes eines Zielbilds. Wie/Was sollte ein Leben mit KI sein? Stichworte: Verreichenbarkeit, Utilitarismus, Digitaler Humanismus; Da gibts z.B. nächste Woche die philColgone für weiter Details bzw. mögliche Interviewpartner
  • Wie kann politische Entscheidungsfindung beschleunigt werden? Technologien die in den globalen Markt eingeführt werden brauchen nur noch wenige Wochen zur Adaption(z.B. ChatGPT). Ist unsere Demokratie befähigt solche Disruptionen schnell genug zu erkennen und etwas zu entscheiden?
  • Es braucht mehr Leute die sich mit AI Governance beschäftigen (aktuell Faktor 1000 weniger als die Arbeit an der Verbesserung der KI Leistung). Geld bereitstellen/ Fürs Problem werben/ Wie wird das umgesetzt?
  • Abhängigkeiten der Digitalisierung abbbauen: Eigene Kapauzitäten für Rechenleistung für die Wirtschaft fördern. Auf Rechenresourcen im Ausland zuzugreifen ist je nach Organisation nicht möglich oder macht die Compliance z.B. mit der DSGVO schwer. Damit meine ich eher den Betrieb (Inference) als die Neutentwicklung. Wenn jedes Unternehmen das KI einsetzt Risiko fährt aus dem Ausland außer Betriebs gesetzt werden zu können ist das auch ein Gesellschaftliches Risiko (gilt übrigens für den ganzen Bereich Cloud-Computing nicht nur KI, beispiele Cloudstrike oder Google GCS Ausfälle).
  • Wahrung der Gesellschaftlichen Teilhabe an der Wirtschaft. Die Abkopplung vom Produktionsfaktor Mensch stellt z.B. Annahmen der Besteruerung und Ertragsverteilung in Frage. Wenn ein Unternehmen extistieren kann welches fast kaum mehr oder sogar ohne menschlicher Arbeit Produkte herstellt oder Dienstleistungen erbringt kann verdient der Kapitelgeber. Was ist mit den Leuten deren Daten fürs KI training benutzt wurden, den Forschern deren Arbeit für jemanden Geld verdient oder den Leuten die sich die Windkraftanlage aus dem Wohnzimmer anschauen dürfen. Da wir hier schnell zu Neiddebatten gelangen wem jetzt der Fortschritt zuzuschreiben ist wäre das ein weiteres Argument für ein bedingungsloses Grundeinkommen. Auch könnte KI dazu führen das vieles andere z.B. Pflege noch teuerer wird (Baumolsche Kostenkrankheit)

Die Themen in der Liste sind in der LDE sicher nicht neu. Aber sicher an der ein oder andern Stelle aus einer Frischen Perspektive sinnvoll.

Ich fände auch gut, wenn LdN mal wieder einen Beitrag – vielleicht ein Interview ? – zum Thema KI machen würde, Meinem Eindruck nach besteht in Europa dringender Nachholbedarf (sowohl bei F+E als auch bei der Infrastruktur). Und innerhalb Europas liegt Deutschlands gefühlt eher noch hinter Frankreich und UK.

Dass LLMs und darauf basierende Coding-Assistenten die Softwareentwicklung produktiver machen wurde schon erwähnt und ich kann das aus eigener Erfahrung bestätigen. Sehenswert dazu: Andrej Karpathys Vortrag „Software in der KI-Ära": [YouTube-Link]
Er beschreibt LLMs als People Simulators mit jagged ntelligence (=zerklüfteter Intelligenz) – also mit Superkräften in einigen Bereichen aber auch kognitiven Defiziten. Um LLMs effektiv zu nutzen, muss man die Psychologie verstehen.

Genau so argumentiert auch z.B. der Kognitions-Forscher Christopher Summerfield. In seinem empfehlenswerten Buch These strange new minds gibt es ein Kapitel „Duck or Parrot ?“, in dem er den stochastischen Papageien aufs Korn nimmt. Summerfield sieht sich als Funktionalist. Wenn ein System – egal ob biologisch oder künstlich – offenbar kognitiven Prozesse wie Denken oder Schlussfolgern ausführt, dann sollten wir diesem System auch eben diese Attribute zugestehen - anstatt obskure Argumente zu erfinden, warum es das nicht tut.
Ein interessantes Interview mit Summerfield findet sich hier: [YouTube-Link]

Und wo siehst du den Use-Case für Deutschland? Bei den Assistenten werden Apple, Google und Microsoft führend sein, da sie sie nur in die Betriebssysteme integrieren müssen, die die Leute sowieso nutzen.
DATEV und SAP können uns ein bisschen Belege vorsortieren, aber das läuft schon an und ist nicht der große Gamechanger.
Wir haben übersehen, rechtzeitig eine Linux-Strategie zu fahren und ein OpenSource-Gegengewicht zu setzen. Was wäre wohl los gewesen, wenn die deutschen Unternehmen hätten sagen können: pfeift auf Windows 11, stellt auf Linux um, wir haben die passende Infrastruktur und Expertise.

Dieses Thema wurde nach 42 Stunden automatisch geschlossen. Es sind keine neuen Antworten mehr erlaubt.