Hier sind die wichtigsten Take-aways aus dem Vortrag (maschinelle Übersetzung, teils von mir korrigiert):
Die Hälfte der KI-Forscher glaubt, dass es eine 10%ige oder höhere Chance gibt, dass die Menschheit aufgrund ihrer Unfähigkeit, die KI zu kontrollieren, aussterben wird.
Wenn wir eine neue Technologie erfinden, entdecken wir eine neue Klasse von Verantwortung. Wenn diese Technologie Macht verleiht, beginnt ein Wettlauf – und wenn wir uns nicht koordinieren, endet der Wettlauf in einer Tragödie.
Der „Erste Kontakt“ der Menschheit mit KI war Social Media – und die Menschheit hat verloren. Wir haben die Fehlausrichtung durch kaputte Geschäftsmodelle, die maximale Aufmerksamkeit fördern, immer noch nicht behoben.
Große Sprachmodelle (LLM) sind der „Zweite Kontakt“ der Menschheit und wir sind bereit, dieselben Fehler zu machen.
Sicherheitsvorkehrungen, von denen man vielleicht annehmen, dass sie existieren, gibt es tatsächlich nicht. KI-Unternehmen setzen ihre Arbeit schnell beim Publikum ein, anstatt sie über einen längeren Zeitraum sicher zu testen. KI-Chatbots wurden auf Plattformen hinzugefügt, die Kinder nutzen, wie Snapchat (sie zeigen ein Beispiel, in dem der Snapchat KI eine 13-Jährige animiert, mit ihrer sehr viel älteren Internetbekanntschaft zu schlafen). Sicherheitsforscher sind knapp und der größte Teil der Forschung wird von gewinnorientierten Interessen angetrieben statt von der Wissenschaft.
Die Medien haben die Fortschritte in der KI nicht so dargestellt, dass wir wirklich sehen können, was auf dem Spiel steht.
Hausaufgaben mit KI zu betrügen oder urheberrechtlich geschützte Kunst für KI-generierte Bilder zu stehlen, sind nur kleine Beispiele für die systemischen Herausforderungen, die vor uns liegen.
Unternehmen befinden sich in einem Wettrüsten um den Einsatz ihrer neuen Technologien und um so schnell wie möglich Marktdominanz zu erlangen. Im Gegenzug werden die von ihnen präsentierten Erzählungen so gestaltet, dass sie mehr über Innovation und weniger über potenzielle Bedrohungen handeln.
Wir sollten die Verantwortung dafür bei den Machern von KI belassen – anstatt bei den Bürgern – um ihre Gefahr zu beweisen.
Transparenzhinweis: Ich habe keinerlei Beziehungen zum Center of Humane Technologie