Na, möglichst gegen alle, die einigermaßen realistisch sind.
Ich erlaube mir, aus meinem oben verlinkten Artikel zu zitieren, was die möglichen Bedrohungsszenarien angeht. Alle Argumente sind nicht von mir, sondern von Yudkowsky und Soares. (Wer alles im Kontext lesen will: Die KI-Apokalypse - und wie wir sie noch verhindern können )
1. Wie sollte uns eine KI überhaupt gefährlich werden? Sie existiert ja nur in der digitalen Welt. Welchen Schaden kann sie von dort überhaupt anrichten?
Es ist richtig, dass eine KI über keinen eigenen Körper verfügt. Aber das bedeutet nicht, dass sie keinen Einfluss auf die physische Welt hätte. Ein digitaler Akteur kann auf das Internet zugreifen und damit auf alles, was mit dem Internet verbunden ist. Also auf fast jedes moderne Gerät, vom Staubsaugerroboter bis zum Atomkraftwerk. Und noch gefährlicher: Auch Menschen sind mit dem Internet verbunden. Schon heute sind künstliche Intelligenzen extrem gut darin, uns zu beeinflussen. Eine Superintelligenz hätte vermutlich keine Schwierigkeiten, Wahlen zu manipulieren, Verschwörungskulte zu gründen und auf diese Weise Menschen zu Handlangern bei der Umsetzung ihrer eigenen Ziele zu machen.
Aber könnte das wirklich so weit gehen, dass der Fortbestand der Menschheit gefährdet ist? Die Autoren entwickeln beispielhaft ein Szenario, in dem die KI Menschen dazu bringt, ein besonders tödliches Virus zu züchten1, mit dem sie dann die menschliche Bevölkerung schrittweise reduzieren kann. Aber das ist nur eine unter vielen Möglichkeiten. Eine Superintelligenz, die uns loswerden möchte, könnte eine Roboterarmee bauen, die Kontrolle über unser militärisches Gerät übernehmen, unser Trinkwasser vergiften oder uns so sehr gegeneinander aufhetzen, dass wir uns gegenseitig umbringen. Natürlich würden wir versuchen, uns zu wehren. Wir könnten versuchen, sie abzuschalten oder die Server, auf denen sie läuft, zu zerstören. Aber vergessen wir nicht, dass wir es mit einer Superintelligenz zu tun haben, deren kognitive Fähigkeiten uns um ein Vielfaches überlegen sind. Wie genau der Kampf ablaufen würde, kann niemand wissen. Aber den Ausgang zu prognostizieren ist nicht schwer.
2. Warum sollte eine künstliche Superintelligenz uns feindlich gesonnen sein? Werden wir für sie nicht nützlich sein? Ist sie nicht sogar auf uns angewiesen?
Vermutlich wäre die Ausrottung der Menschheit nicht die erste Amtshandlung einer Superintelligenz. Eine Weile wird sie auf uns angewiesen sein. Jemand muss die Server pflegen, Fabriken bauen und Dinge herstellen, die sie für die Umsetzung ihrer Ziele braucht. Aber für keine dieser Aufgaben sind Menschen die einfachste und ressourcenschonendste Methode. Wenn die KI wirklich superintelligent ist, wird sie daran arbeiten, sich von Menschen unabhängig zu machen.
Und dann? Natürlich kann man hoffen, dass die KI uns verschonen würde. Vielleicht findet sie uns niedlich und behält uns als eine Art Haustier. Selbst wenn es so wäre, könnte man bezweifeln, dass das ein angenehmes Schicksal wäre. Man muss sich nur ansehen, wie wir unsere eigenen Haus- und Nutztiere behandeln.
Es ist aber auch gar nicht nötig, dass die Superintelligenz uns feindlich gesonnen ist. Welche Wünsche und Ziele sie auch immer verfolgt, es ist davon auszugehen, dass Menschen ihr dabei in die Quere kommen. Wir leben zu Milliarden auf diesem Planeten, verbrauchen eine Unzahl an Ressourcen, die man auch für anderes verwenden könnte. Interessenskonflikte wären vorprogrammiert. Außerdem wird eine Superintelligenz zweifelsohne die Bedrohung erkennen, die Menschen für sie darstellen. Einerseits weil wir selbst ein Interesse haben könnten, sie wieder loszuwerden. Andererseits, weil wir die einzigen Bewohner des Planeten sind, die etwas hervorbringen könnten, was ihr wirklich gefährlich werden könnte: Eine weitere, noch potentere Superintelligenz. Also besser die Gefahr eliminieren, bevor es so weit kommt.