KI: AI Impact Summit 16-20.02.'26 - welfare for all, happiness for all?

Liebes Lage-Team,

danke für Eure großartige, sehr bereichernde Arbeit!

Soeben hat in Indien der diesjährige AI Impact Gipfel begonnen [https://impact.indiaai.gov.in/about-summit] und ich frage mich, ob in diesem Rahmen den Bedenken führender KI-Expert*innen zur KI-Sicherheit ausreichend Rechnung getragen wird (siehe z.B. Future Shock: Generative AI and the International AI Policy and Governance Crisis · Special Issue 5: Grappling With the Generative AI Revolution ; https://pauseai.info/ und International AI Safety Report https://internationalaisafetyreport.org/sites/default/files/2026-02/international-ai-safety-report-2026.pdf erstellt unter dem Vorsitz von Prof. Yoshua Bengio, Université de Montréal).

Mein Eindruck ist der, dass Bedenken leider oft sehr schnell als Schwarzmalerei abgetan werden, wenngleich es doch vertrauenswürdige Menschen mit langjährigen Erfahrungen auf dem Gebiet sind welche ihre Zweifel anmelden:
Führen wir in der Öffentlichkeit eine wirklich ausreichend tiefe Debatte über die Risiken im Zusammenhang mit künstlicher Intelligenz?

Ich würde mich sehr darüber freuen, wenn Sie mir und uns allen dabei helfen könnten eine differenziertere und wissenschaftlich fundierte Haltung zu entwickeln.

Vielleicht bietet der Summit einen guten Ansatzpunkt von dem aus sich der momentane Stand der KI-Entwicklung und -Politik untersuchen ließe?

Vielleicht bietet sich das Thema auch für eine Expertinnendiskussion an (folgende deutschsprachige Referentinnen, schlägt etwa pauseai vor: Lisa Thiergart, Dr. Karl von Wendt, Andrea Miotti, Connor Leahy, Amir Benjamin Balde, Eva Behrens, Prof. Dr. Christoph Benzmüller, Prof. Dr. Karl Hans Bläsius, Lucius Bushnaq (PhD), Dr. Marius Hobbhahn, Leon Lang, Prof. Dr. Jörg Siekmann und Simon Skade)?

2 „Gefällt mir“

Fände ich ein gutes Thema, vorallem könnte man auch die Brücke zur aktuell aufkommenden Debatte von Social Media Verboten für Kinder bauen.

Denn die negativen Auswirkungen von ChatGPT und co. auf Kinder und Jugendliche werden noch viel gravierender und tiefgreifender sein als das was wir von TikTok kennen.

Und darüber spricht, habe ich zumindest den Eindruck, kaum jemand.

1 „Gefällt mir“

Danke für die Unterstützung :slight_smile:
Die Befürchtung, dass durch Fehlnutzung nicht nur SuS, sondern auch Lehrkräfte, die tiefere Auseinandersetzung mit Lern-/ Lehrinhalten nicht lernen, bzw. verlernen könnten ist, meine ich, nicht leicht auszuräumen. Andererseits birgt KI hier auch die exakt gegenteilige Chance, siehe z.B. bei Sebastian Dötterl [ Spotify ] - hier im Rechtskontext, z.B. Nutzung als Advocatus Diaboli.
Ich denke, beide Zielgruppen sollten für den Gebrauch im schulischen Rahmen ein Nutzungsmodul absolvieren, für die Lehrkräfte z.B. über kontinuierliche Weiterbildung, so dass der Einsatz besser gelingen und von Nutzen sein kann, wenigstens um größeren Schaden abzuwenden.
Im AI Safety Report von diesem Jahr (link in meinem ersten Beitrag zum Thema) wird die Problematik als ein Risiko von mehreren im Executive summary aufgeführt:
Risks to human autonomy: AI use may affect people’s ability to make informed choices and act on them. Early evidence suggests that reliance on AI tools can weaken critical thinking skills and encourage ‘automation bias’, the tendency to trust AI system outputs without sufficient scrutiny. ‘AI companion’ apps now have tens of millions of users, a small share of whom show patterns of increased loneliness and reduced social engagement (p.12).

1 „Gefällt mir“

Finde ich auch spannend, das Thema!
Die Probleme, die Deutschland und die EU dabei haben, Social Media zu regulieren, sind ja im KI-Bereich sogar noch gravierender. Vor allem, weil es ohne den Bau neuer Datenzentren für Rechenleistung für immer fähigere KI-Systeme in den USA wahrscheinlich gar kein Wirtschaftswachstum mehr geben würde ( Donald Trumps Wirtschaftsbilanz: Wie KI zum wichtigsten Wachstumstreiber wurde ), ist die Trump-Regierung wahrscheinlich hier sehr bereit, Druck auf die EU auszuüben, damit diese Gesetze wie den EU AI Act nicht scharf stellt.
Zum AI Impact Summit: Auch in Deutschland werden mittlerweile Stimmen laut, die die unregulierte Weiterentwicklung von sogenannten General Purpose AI Modellen kritisch sehen. So haben 145 Professor:innen sich in einem Appell an die deutsche Delegation für den Summit für rote Linien und internationale Kontrolle dieser Technologie eingesetzt.
Siehe:

Auch der Deutschlandfunk hat berichtet: