Von Rossum's Robotern zur Künstlichen Intelligenz

Leonid Savin (Bild zvg)

von Leonid Savin*

(25.4.2021) Am 25. Januar 2021 jährte sich zum hundertsten Mal die Uraufführung des Dramas «R.U.R. – Rossum’s Universal Robots» des tschechischen Science-Fiction-Autors Karel Čapek. Dieses kurze Theaterstück war ein Vorläufer späterer Bücher zum Thema sowie Cyberpunk- und postapokalyptischer Filme wie «The Terminator» und «Alien: Covenant» vorweg. Rossums Universal-Roboter waren als menschliche Helfer gedacht, doch nach einiger Zeit rebellieren sie und vernichten die menschliche Rasse, mit Ausnahme eines Fabrikarbeiters, den sie brauchen, um ihre eigene Art neu zu erschaffen.

Das Wort «Roboter» wurde bald alltäglich und auf Mechanismen mit begrenzten programmierbaren Funktionen angewendet, die diagnostiziert, gewartet und repariert werden mussten. In jüngerer Zeit, vor allem nach der Entwicklung von Computern und Cybertechnologien, wird darüber diskutiert, ob Maschinen den Menschen bereits ebenbürtig sind im Denken und bei der Entscheidungsfindung.

Nirgendwo sind die neuesten Errungenschaften in der Robotik und Computerisierung gefragter als beim Militär, vor allem in den USA, wo neue Zentren eingerichtet wurden, um spezifische Programme, Anwendungen und Hardware zu entwickeln. Zahlreiche Labors der US-Armee, des Marine Corps, der Navy und der Air Force bringen mit Hilfe von Unternehmern und führenden Institutionen des Landes die Prototypen fortschrittlicher Modelle zur Vollendung. All diese Technologie soll den neuen Kriegen dienen, die Washington für die Zukunft plant.

Die jüngsten Fortschritte in diesem Bereich sind aufschlussreich.

Das unbemannte Schiff Ghost Fleet Overlord hat kürzlich erfolgreich 4700 Seemeilen zurückgelegt und nahm an der Übung Dawn Blitz teil, bei der es fast die gesamte Zeit autonom operierte.

Diejenigen, die über Chinas wachsende Macht besorgt sind, schlagen vor, solche Systeme für alle zukünftigen Auseinandersetzungen mit der Volksbefreiungsarmee (VBA) zu nutzen: zum Beispiel mit Unterwasser-Selbstmorddrohnen, um chinesische U-Boote anzugreifen. Die USA sprechen bereits von Unterwasser- und Überwasser-Kampfrobotern, die angeblich vom chinesischen Militär entwickelt werden und die die Chinesen eine «Unterwasser-Grossmauer» nennen. Damit schlagen sie vor, mit den Chinesen gleichzuziehen oder ihnen wenn irgendwie möglich zuvorzukommen.

Chinas Bemühungen in diesem Bereich zeigen, dass die Verfügbarkeit neuer Waffentypen den USA keine Garantie dafür bietet, dass solche Systeme nicht auch von anderen Ländern in Dienst gestellt werden. So hat zum Beispiel das Auftauchen von Kampfdrohnen in einigen Ländern die USA gezwungen, Methoden und Strategien zur Abwehr dieser Flugobjekte zu entwickeln.

1920 erschien Karel Čapeks Science Fiction,
«R.U.R. – Rossum’s Universal Robots», in dem
am Ende Roboter die Menschheit vernichteten.

Das US-Verteidigungsministerium veröffentlichte im Januar 2021 eine Strategie zur Bekämpfung kleiner unbemannter Flugsysteme, in der es seine Besorgnis über die sich verändernde Art der Kriegsführung und den wachsenden Wettbewerb zum Ausdruck bringt – zwei Elemente, welche die bisherige amerikanische Überlegenheit in Frage stellen.

Generalleutnant Michael Groen, Direktor des Joint Artificial Intelligence Center des US-Verteidigungsministeriums, spricht von der Notwendigkeit, die Umsetzung der Programme zur Nutzung der Künstlichen Intelligenz (KI) für militärische Zwecke zu beschleunigen: «Wir könnten uns bald in einem Kampfgebiet wiederfinden, das durch datengesteuerte Entscheidungsfindung, integriertes Handeln und Tempo definiert ist. Wenn wir heute die notwendigen Anstrengungen unternehmen, um die KI zu implementieren, werden wir in Zukunft mit einer noch nie dagewesenen Effektivität und Effizienz operieren können.»

Das 2018 gegründete Joint Artificial Intelligence Center des Pentagons ist eine der führenden militärischen Einrichtungen, die «intelligente Software» für zukünftige Waffen-, Kommunikations- und Kommandosysteme entwickelt.

Künstliche Intelligenz ist mittlerweile das meistdiskutierte Thema in der US-Verteidigungsforschung. Sie ist eine Ressource, die helfen kann, bestimmte Ziele zu erreichen, wie zum Beispiel Drohnen in die Lage zu versetzen, unbeaufsichtigt zu fliegen, Informationen zu sammeln oder Ziele durch schnelle und umfassende Analysen festzulegen.

Es wird davon ausgegangen, dass die Entwicklung der Künstlichen Intelligenz zu einem harten Wettbewerb führen wird, da sich die KI selbst von vielen früheren Technologien durch ihre natürliche Tendenz zur Monopolisierung unterscheidet. Diese Tendenz zur Monopolisierung wird die Ungleichheit sowohl im Inland als auch international verschärfen. Die Wirtschaftsprüfungsgesellschaft PricewaterhouseCoopers prognostiziert, dass «bis 2030 ein BIP-Wachstum von fast 16 000 Milliarden Dollar aus der KI erwachsen könnte», wovon 70% allein auf die USA und China entfallen werden. Wenn Rivalität der natürliche Lauf der Dinge ist, dann erscheint diese Sichtweise für Unternehmen, die KI für militärische Zwecke oder Dual-Use-Technologien nutzen, ganz logisch. Es wird eine neue Art des Wettrüstens sein.

Auf der ethischen Seite könnten militärische Systeme der KI jedoch auch an lebensrettenden Entscheidungen beteiligt sein ebenso wie Todesurteile ausführen. Dazu gehören sowohl tödliche autonome Waffensysteme, die ohne menschliches Zutun Ziele auswählen und bekämpfen können, als auch Programme zur Entscheidungsunterstützung. Es gibt Menschen, die sich aktiv für die Einbeziehung von Maschinen in komplexe Entscheidungsprozesse einsetzen. Der amerikanische Wissenschaftler Ronald Arkin zum Beispiel argumentiert, dass solche Systeme nicht nur oft bessere Kenntnisse der Situation haben, sondern auch nicht durch Überlebensinstinkt, Angst, Wut, Rache oder fehlgeleitete Loyalität bestimmt werden, was nahelegt, dass Roboter deshalb weniger Gefahr laufen als Menschen, Friedensabkommen zu verletzen.

Einige glauben auch, dass Funktionen der künstlichen Intelligenz das Verhältnis zwischen der taktischen, operativen und strategischen Ebene des Krieges verändern können. Autonomie und Vernetzung werden zusammen mit anderen Technologien wie etwa Nanotechnologie, Tarnkappe oder Biogenetik hochentwickelte taktische Kampffähigkeiten am Boden, in der Luft und auf See ermöglichen. Zum Beispiel könnten Schwärme autonomer Unterwasserfahrzeuge, die an bestimmten Stellen im Ozean konzentriert sind, die verdeckten Aktionen von U-Booten erschweren, welche derzeit einen garantierten Vergeltungsschlag der Atommächte gewährleisten. Daher könnten auch andere taktische Plattformen einen strategischen Einfluss haben.

Verbesserte Manövrierfähigkeit wird ebenfalls mit KI in Verbindung gebracht. Dazu gehören unter anderem Software und Sensoren, die es Robotern ermöglichen, sich an gefährlichen Orten autonom zu bewegen. Dies ist eine der zentralen Gründe für den Einsatz von autonomen Systemen durch das Militär. Das US-Militär setzt grosse Hoffnungen in die Autonomie der Maschinen, da sie jenen Menschen, die an der Seite von Robotern kommandieren und kämpfen, mehr Flexibilität bieten könnte. Die amerikanischen Entwickler erwarten, dass sie von derzeit 50 Soldaten, die eine Drohne, ein unbemanntes Bodenfahrzeug oder einen Wasserroboter unterstützen, zu einem Paradigma übergehen, bei dem eine Person 50 Roboter unterstützt.

Aber Künstliche Intelligenz könnte auch ernsthafte Probleme schaffen. Militärische KI könnte die Gefechte potenziell so weit beschleunigen, dass die Aktionen von Maschinen die mentalen und physischen Fähigkeiten derjenigen übersteigen, die in den Kommandoposten eines zukünftigen Krieges die Entscheidungen treffen. Daher wird die Technologie die Strategie überholen, menschliche und maschinelle Irrtümer werden höchstwahrscheinlich ineinander übergehen – mit unvorhersehbaren und unbeabsichtigten Konsequenzen.

Eine Studie der RAND Corporation, die sich mit dem Einfluss von denkenden Maschinen auf die Abschreckung bei militärischen Konfrontationen befasst, verdeutlicht die schwerwiegenden Probleme, die sich ergeben könnten, wenn KI auf dem Kriegsschauplatz eingesetzt wird. Anhand der Ergebnisse der durchgeführten Kriegsspiele wurde gezeigt, dass Aktionen einer Partei, die von beiden Spielern als deeskalierend empfunden wurden, von der KI sofort als Bedrohung wahrgenommen wurden. Wenn ein menschlicher Spieler seine Streitkräfte zurückzog, um eine Situation zu deeskalieren, nahmen die Maschinen dies höchstwahrscheinlich als einen taktischen Vorteil wahr, den es zu konsolidieren galt. Und wenn ein menschlicher Spieler seine Kräfte mit einer offensichtlichen (aber nicht feindlichen) Entschlossenheit nach vorne bewegte, neigten die Maschinen dazu, dies als unmittelbare Bedrohung wahrzunehmen und entsprechende Massnahmen zu ergreifen. Der Bericht stellte fest, dass die Menschen nicht nur mit der Verwirrung umgehen mussten darüber, was ihr Gegner wohl dachte, sondern auch mit der Wahrnehmung der KI des Gegners. Die Spieler mussten sich auch damit auseinandersetzen, wie ihre eigene KI menschliche Absichten – sowohl freundliche als auch feindliche – fehlinterpretieren könnte.

Mit anderen Worten: Die Idee, die in Karel Čapeks Stück über Roboter enthalten ist, ist auch heute noch relevant – es ist unmöglich, das Verhalten von Künstlicher Intelligenz vorherzusagen. Und wenn «intelligente» Roboter einen militärischen Nutzen haben, dann könnten sie auch zu einer Gefahr für ihre Besitzer werden. Selbst in den USA gibt es Skeptiker im Militär, die dem Lager der Traditionalisten angehören und glauben, dass solche Innovationen der Utopisten aus dem Silicon Valley der amerikanischen Kunst der Staatsführung schaden werden.

Quelle: Oriental Review vom 1.2.2021

(Übersetzung «Schweizer Standpunkt»)

* Leonid Savin ist Autor und geopolitischer Analyst , Chefredaktor von Geopolitica.ru

* * *

Kommentar der Redaktion zum Artikel «Von Rossum’s Robotern zur Künstlichen Intelligenz»

red. Liest man Savins Artikel zum Einsatz von Künstlicher Intelligenz in Waffensystemen, kann man nur noch zu der Erkenntnis gelangen: «Krieg ist obsolet».

Ein Krieg, in dem hochgefährliche autonome Waffensysteme ohne menschliches Zutun die Situation analysieren und entsprechend ihrer Einschätzung in so hohem Tempo reagieren, dass kein Mensch mehr steuernd eingreifen kann, ist für «Freund und Feind» gleichermassen zerstörerisch.

Die so viel gepriesene KI kann dem Menschen nie wirklich überlegen sein: Emotionen und Absichten des Gegenübers abwägen und einschätzen, ethische Standpunkte miteinbeziehen, flexibel auch Möglichkeiten der Deeskalation in Betracht ziehen, auch wenn sie kurzfristig zum eigenen «Nachteil» gereichen – all das kann keine Maschine.

Man erinnere sich an die Kuba-Krise von 1962. Wie nahe stand die Menschheit da am Abgrund einer atomaren Katastrophe. Drei heikle Situationen zur Veranschaulichung:

  • Ein amerikanischer Zerstörer zwang ein sowjetisches U-Boot zum Auftauchen. Das U-Boot hatte einen Nukleartorpedo an Bord. Doch Wassili Alexandrowitsch Archipow, einer der drei Offiziere, welche für den Abschuss von Nuklearwaffen verantwortlich waren, weigerte sich, den Torpedo ohne weiteren Befehl aus Moskau abzufeuern. Was hätte eine Maschine an seiner Stelle getan?

  • Ein amerikanisches U-2-Spionageflugzeug wurde über Kuba von einer S-75-Flugabwehrrakete abgeschossen. Der Pilot, Major Rudolf Anderson, wurde dabei getötet. US-Präsident John F. Kennedy untersagte trotzdem einen Gegenangriff ausdrücklich und erklärte sich noch einmal zu weiteren Verhandlungen bereit. Wie hätte eine Maschine an seiner Stelle entschieden?

  • In einem Geheimtreffen seines Bruders mit dem Sowjetbotschafter Anatoli Dobrynin liess Kennedy seinen Bruder erklären, dass er auch einem Abzug der in der Türkei stationierten amerikanischen Jupiter-Raketen zustimmen würde, wie es Nikita Chruschtschow gefordert hatte. Diese Möglichkeit hielt er vor den meisten Mitgliedern des Executive Committee geheim, die mehrheitlich einen Luftangriff forderten. Dobrynin gab diese Nachricht sofort nach Moskau weiter. Spätnachts entschied Chruschtschow, das Angebot Kennedys anzunehmen und die Raketen aus Kuba abzuziehen.1

Hätte eine «intelligente» Maschine anstelle Kennedys und/oder anstelle Chruschtschows auch so entschieden?

Möglicherweise bestände unsere Welt nicht mehr, hätte es damals schon mit sogenannter «künstlicher Intelligenz» ausgestattete, autonom entscheidende Waffensysteme gegeben.

Heute gibt es sie. Deshalb ist heute jeder Krieg, will man nicht die gesamte Menschheit aufs Spiel setzen, ebenso obsolet wie ein Atomkrieg.

1 Alle Informationen zur Kubakrise sind aus Wikipedia.

Zurück