Execute <kill>: Autonome Waffensysteme

Was, wenn künstliche Intelligenz am Drücker sitzt?

Bei der ersten Waffe, die der Mensch einsetzte, ob zur Jagd oder im Kampf gegen seinesgleichen, handelte es sich wohl um einen Stein oder ein Stück Holz. Dann folgte der Wunsch nach Reichweitenausdehnung und Wirkungsverstärkung: Speer, Speerschleuder als erste Fernwaffe, Pfeil und Bogen sowie Armbrust dienten dazu. Mit dem Aufkommen von Hakenbüchsen verloren alle anderen Waffen ab dem 15. Jahrhundert rasch an Bedeutung.

Vitaly V. Kuzmin, CC BY-SA 3.0 <https://creativecommons.org/licenses/by-sa/3.0>, via Wikimedia Commons

Die Entwicklung feuchtigkeitsunempfindlicher Metallpatronen und rauchloser Pulver gegen Ende des 19. Jahrhunderts steigerte die Zuverlässigkeit, Handhabungssicherheit, Reichweite und Wirkung der Feuerwaffen erheblich. Seither hat sich an deren Funktionsprinzip im Wesentlichen nichts mehr geändert: Die bei der Verbrennung eines Treibmittels freigesetzte Energie wird genutzt, um ein Projektil durch einen Lauf zu treiben oder um eine Rakete von einer Abschussvorrichtung aus in Richtung eines Zieles zu starten. Moderne Torpedos werden mit Elektromotoren oder, wie der russische Superkavitationstorpedo „Schkwal“, durch Raketentriebwerke angetrieben.

Der Fortschritt ist nicht aufzuhalten

Die in den rund 100 Jahren seit dem Ersten Weltkrieg erzielten Fortschritte in der Rüstungstechnik wurden vorrangig bei waffentragenden Systemen erzielt. Man denke an Kampfpanzer, U-Boote, Kampfflugzeuge und Flugzeugträger. Die im Zweiten Weltkrieg aufkommenden Raketenwaffen (die „V2“ war das erste menschengemachte Objekt, das den Weltraum erreichte) erschlossen hinsichtlich der Reichweite, mit einer nuklearen Bestückung auch hinsichtlich ihrer Zerstörungskraft, neue Dimensionen.

Der Einsatz von Nuklearwaffen erscheint gegenwärtig unwahrscheinlich – zumindest, was die großen Atommächte betrifft. Zu groß ist das Risiko eines verheerenden Vergeltungsschlags durch land- oder U-Boot-gestützte Raketen. Zwar steht die Welt derzeit am Beginn der Modernisierung bestehender Nuklearwaffenarsenale, der Schwerpunkt der waffentechnischen Entwicklungen liegt aber auf dem Einsatz künstlicher Intelligenz und dem „Cyber-Krieg“.

Während alte Männer Kriege anzuzetteln pflegen, haben junge Männer sie zu führen. Geburtenrückgänge in Europa und in den USA bringen es mit sich, dass das einst im Überfluss verfügbare Kanonenfutter rar wird. Über zahlreiche Söhne im wehrfähigen Alter verfügt heute kein Staat der Ersten und Zweiten Welt mehr. Wer aber nur wenige Krieger aufzubieten hat, muss die spärliche Wehrkraft sorgsam einsetzen. Da zudem keine (westliche) Regierung längere Zeit Bilder von in Nationalflaggen gehüllten Särgen aushält, fließen ungeheure Mittel in die Steigerung der Überlebensfähigkeit der eingesetzten Truppen. Stark erhöhte Leistungen von Panzer- und Flugabwehrsystemen und die Entwicklung unbemannter Kampfdrohnen sind das Resultat.

Vom Krieg der Sterne zum Kampfroboter

Derartige Waffensysteme bedürfen derzeit noch der steuernden Hand von Menschen und deren Letztentscheidung, wann und gegen wen sie eingesetzt werden. Die Entwicklung geht indes dahin, in bestimmten Einsatzräumen dislozierte Waffen (Kampfdrohnen oder erdgebundene waffentragende Roboter) zu befähigen und zu ermächtigen, aufgrund komplexer Algorithmen selbständig Ziele auszuwählen und zu bekämpfen. Sogenannte „Loitering Weapons“, also unbemannte Fluggeräte, die sich mit ihrer brisanten Ladung auf ein von ihnen auserkorenes Ziel stürzen, lagern schon in den Arsenalen.

Die Erfahrung lehrt, dass das Machbare gemacht und das Verfügbare auch eingesetzt wird. Während Scharfschützen mit ihrer Büchse nur klar definierte Ziele ins Visier nehmen und ausschalten, bedeutet der Einsatz von Distanzwaffen, besonders in asymmetrischen Kriegen, oft unbeteiligte Opfer. Das wirft ethische und juristische Fragen auf.

Wer trägt die Verantwortung für den Einsatz autonomer Waffen – besonders in jenen Fällen, in denen aufgrund fehlerhafter Programmierungen oder wegen bewusst in Kauf genommener Kollateralschäden Nichtkombattanten zu Schaden kommen? Schlimm genug, wenn Menschen über Leben und Tod von Zivilisten befinden. Aber wie gefährlich wird es erst, wenn schwerwiegende Entscheidungen Algorithmen überlassen werden?

Dieser Artikel ist soeben in der Mai-Ausgabe eigentümlich frei Nr. 212 erschienen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.