Veranstaltung: | Landesdelegiertenkonferenz 20. Oktober 2018 |
---|---|
Tagesordnungspunkt: | 5. Verschiedene Anträge |
Antragsteller*in: | Sebastian van Schie (KV - VR) |
Status: | Eingereicht |
Eingereicht: | 21.09.2018, 17:04 |
V7: Autonome Waffensysteme weltweit ächten
Antragstext
Anfang September wurde, mit überwältigender Mehrheit, eine Entschließung des
Europäischen Parlaments zu autonomen Waffensystemen (1)verabschiedet, auf der
die Entwicklung, Produktion, Handel und Einsatz autonomer Waffensysteme LAWS
weltweit völkerrechtlich geächtet und nach einer LAWS-Konvention verboten werden
soll.
Begründung
Autonome Waffen und Waffensysteme sind z.B. Drohnen, Panzer oder Raketen, die ohne menschliche Hilfe Ziele erkennen und selbstständig operieren. Sie orten, identifizieren und töten einen Menschen - ohne dass ein Soldat daran beteiligt ist. Erste Exemplare derartiger Kriegsroboter existierten schon in den 1990er Jahren.
Bei diesen Systemen wird die Entscheidung über Zerstören und Töten an einen Algorithmus delegiert, der Mensch ist nicht mehr beteiligt, er übergibt die alleinige Verantwortung an die Technik.
Rüstungsfirmen bauen schon heute Waffensysteme mit Drohnen als intelligenten Schwarm, die mit diesen Algorithmen eigenständig operieren, lernen und entscheiden, ohne menschliche Unterstützung.
Diese autonomen Waffensysteme werden mit unter als dritte Revolution der Kriegsführung bezeichnet, nach der Erfindung des Schwarzpulvers und der Atombombe. Ihre Verbreitung und ihr Einsatz gefährden die internationale Gemeinschaft, sie werden die Kriegsführung massiv verändern und bedrohen damit auch die Anstrengungen für weltweiten Frieden.
Die Verantwortung für das Töten wird an Maschinen delegiert.
In dem 20. Jahrhundert, als noch die Doktrin der MAD (Mutual Assurance Destruktion - die gegenseitig totale Vernichtung) mit Thermonuklearen Waffensystemen und der Prämisse der Atommächte den sogenannten SSC (Second Strike Capability - die Möglichkeit des ultimativen Vergeltungsschlages und der damit verbundenen Auslöschen der gesamten Zivilisation) anzuwenden, waren die globalen Machtverhältnisse in einem fragilen „Gleichgewicht“.
Die Anwendung von autonom agierenden Waffensystemen, aber auch von den dagegen autonom agierenden Verteidigungssystemen - welche sich durch ständig „evolutionierenden“ Algorithmen in einem permanenten Wettrüsten befinden -entziehen sich jedweder humaner Kontrolle.
Wir erleben erstmals das Paradoxon, dass nicht mehr der Waffenträger (Soldat etc.) entscheidet und tötet, sondern die Waffe selbst.
Damit wäre auch das letzte Deckmäntelchen - die angebliche Eigenverantwortung des Waffen bestellenden Kunden - der internationalen Waffenlobby und des MIK (2)gefallen.
Die Verschiebung von einer symmetrischen militärischen Auseinandersetzung - d.h. zwei verfeindete reguläre militärische Strukturen, in einem linearen geographischen Konfrontationsmuster - verändert sich zu einer hybriden Kriegsführung, welche eine asynchrone (irgendwann) ; asymmetrische (es gibt keine Front, das gesamte Territorium ist Kampfgebiet) und permanente ( zeitlich nicht mehr begrenztem) tödliche Auseinandersetzung wird.
Während halbautonome Drohnen wie die MQ-9A Predator B „Reaper“ mit einem geschätzten Stückpreis etwa 10,5 Millionen US-Doller kosten, können bewaffnete Kleinstdrohnen schon für weniger als 100 Dollar hergestellt werden.
Dabei entwickeln bereits existierende halbautonome oder ferngelenkte Systeme, wie etwa „Drohnen“ und unbemannte Bodenfahrzeuge, die bereits durch terroristische oder andere nicht- staatliche Gruppierungen eingesetzt werden, sich zu einem immer realistischeren Bedrohungspotential. Sie könnten eine fortgeschrittene Drohne oder andere Trägermittel entweder selbst entwickeln oder anderweitig beschaffen, um sie im Rahmen eines automatisierten oder durch Menschen ferngesteuerten Angriff gegen gut geschützte Ziele einzusetzen, wie etwa Kraftwerke, Wasserwerke und andere kritische Infrastruktur oder gegen militärische Liegenschaften.(3)
Die Abwehr eines terroristischen Dronenangriffs im Inland könnte nur eine hochausgerüstete Bundeswehr leisten. Dieser Einsatz ist aber in der Bundesrepublik durch das Grundgesetz untersagt. Hier ist eine grundsätzlich politische Diskussion unausweichlich.
Schon 2015 haben über 3000 im Bereich der künstlichen Intelligenz und Robotik tätigen Forschern und 116 Gründer führender, im Bereich der Robotik und der künstlichen Intelligenz tätigen Unternehmen, in einem offenen Brief gewarnt und zwei Jahre später 240 Technologieunternehmen und 3 049 Einzelpersonen verpflichtetet, sich zu keinem Zeitpunkt an der Entwicklung oder Herstellung letaler autonomer Waffensysteme zu beteiligen oder diese einzusetzen.
Das Rote Kreuz und Initiativen der Zivilgesellschaft, wie etwa die Kampagne „Stop Killer Robots“, in der 70 Organisationen aus 30 Ländern vertreten sind, darunter Human Rights Watch, Article 36, PAX und Amnesty International, stellen sich gegen diese Entwicklung.
Auch der Heilige Stuhl des Vatikans fordert ein Verbot letaler autonomer Waffen.
In der Uno drängen rund 120 Länder auf die globale Ächtung der Killerroboter, vor allem Staaten mit weniger entwickelten Kriegsmaschinen. Hinter den Kulissen bremsen ein solches Verbot dagegen jene Länder, die bei der Kooperation von künstlicher Intelligenz und Kriegsgeräten führend sind, heißt es. Dazu zählen die USA, Großbritannien, China, Israel, Russland und Südkorea.
Befürworter argumentieren, dass die Gefahren für Soldaten minimiert werden. Gerade das jedoch könnte dazu führen, dass die Hemmschwelle sinkt und es häufiger zu Kampfeinsätzen kommt – und damit auch zu einer höheren Zahl ziviler Opfer. Diese Entwicklung zeigt sich bereits beim Einsatz der ferngesteuerten Drohnen.
Aber auch viele Militärs sind skeptisch. Bei der Bundeswehr geht man noch weiter. „Vollautonome Roboter, die Waffen gegen Menschen einsetzen, halten wir für ethisch nicht vertretbar“, sagt Oberstleutnant Jörg Wellbrink. Der Leiter des Dezernats Zukunftsanalyse im Planungsamt der Bundeswehr
Der politisch stärkste Einwand gegen LAWS allerdings lautet, dass Killerroboter die Risikoverteilung ändern. Der Angreifer riskiert nur den Verlust von Gerät, der Angegriffene hingegen kann unversehens und überall getroffen werden, auch weit hinter der Front. Ein solches Ungleichgewicht senkt aber massiv die Schwelle zum Angriff und damit auch zur Eröffnung von Kriegen.
Vollautnome Waffensysteme gefährdeten vor allem die Zivilbevölkerung, weil Computer weder Menschen- noch Völkerrecht kennen.
Roboter sollten nicht die Möglichkeit haben, über Leben und Tod von Menschen entscheiden zu können.
Anhang:
(1) (2018/2752(RSP) EP-Entschließungsantrag als Link Download
(2) Von einem MIK = militärisch-industriellen Komplex wird gesprochen, wenn es in einer Gesellschaft Phänomene
folgender Art gibt:
- ausgeprägte Lobby - Arbeit von Vertretern der Militärindustrie,
- zahlreiche persönliche Kontakte zwischen Vertretern des Militärs, der Industrie und der Politik,
- intensiver Personalaustausch zwischen den Führungspositionen von Militär, Wirtschaft und staatlicher Verwaltung, insbesondere wenn Vertreter des Militärs oder der Politik auf wesentlich besser dotierte Posten in dieser Industrie wechseln,
- intensive, durch staatliche Aufträge maßgeblich gestützte Forschung im Bereich neuartiger Waffensysteme,
- gezielte Beeinflussung demokratischer Kontrollgremien und der öffentlichen Meinung durch eine übersteigerte Sicherheitsideologie.
(3) Bundesakademie für Sicherheitspolitik Arbeitspapier Sicherheitspolitik, Nr. 23/2017
Unterstützer*innen
- Fabian Czerwinski (KV Vorpommern-Rügen)
- Falk Jagszent (KV Mecklenburgische Seenplatte)
- Johannes Kalbe (KV Rostock)
- Felix Winter (KV Rostock)
- Phillip Schwitalla (KV Vorpommern-Rügen)
Kommentare