Wir haben kürzlich in unserem Team (Data Scientist und Data Engineers im KI-Umfeld) über den Brief von Musk und Co gesprochen und teilen die Besorgnis. Weniger befürchten wir da aber eine außer Kontrolle geratene Über-KI sondern die Nutzung von KI für Fake News.
Wir haben bereits DL Systeme um Personen in Bilder und Videos zu retuschieren. Es gibt Systeme um Stimmen nachzubilden. Mit CHATGPT haben wir nun auch eine Lösung um Texte im Stile einer beliebigen prominenten Person automatisiert zu erzeugen.
Aus meiner persönlichen Sicht benötigt man jetzt nur noch moderat Rechenpower und schon hat man eine automatisiert arbeitende Fake-News Fabrik.
Daher muss es Regelungen dazu geben, wie man solche Fakes erkennbar machen kann.