Aufweichung von KI-Sicherheitsstandards

Das Pentagon hat heute Anthropic, seinen bisherigen Hauptvertragspartner, als Sicherheitsrisiko für die Lieferkette eingestuft, so dass nun kein US-Behörde mehr Anthropic nutzen darf. Anthropic hatte sich geweigert, auf menschliche Kontrolle von KI-gestützten Waffensystemen zu verzichten und Massenüberwachung zu ermöglichen. Google und OpenAI sind in Verhandlung mit dem Pentagon, um die Rolle Anthropics als Vertragspartner des Pentagon zu übernehmen und damit Guardrails weitgehend aufzugeben. Das alles passiert vor dem Hintergrund einer möglichen militärischen Konfrontation zwischen den USA und China, die in der KI-Waffenentwicklung (zusammen mit Israel) wohl am weitesten fortgeschritten sein dürften. Im schlimmsten Fall erhöht die ungebremste Entwicklung waffenfähiger KI das Risiko für einen Flashwar, der zu schnell ausgelöst wird, um von Menschen eingedämmt zu werden. Warum gibt es eigentlich so wenig Problembewusstsein zu solchen Risiken und so wenig öffentlichen Diskurs? Geht alles zu schnell, haben wir zu wenig Einblick? Wieso entzieht sich diese Entwicklung zum immer stärkeren Aufweichen von Sicherheitsstandards bei der KI-Entwicklung so stark öffentlicher Kontrolle und wie kann dazu ein Diskurs entstehen, an dem möglichst viele partizipieren können?

2 „Gefällt mir“