Künstliche Intelligenz beim Militär
16. März 2015An der Grenze zwischen Süd- und Nordkorea patrouilliert derzeit ein Maschinengewehr-schwingender Roboter: SGR-A1. Sobald er einen Menschen ausmacht, fordert er "Hände hoch." Es bleiben 30 Sekunden, bevor er feuert. Der halbautomatische, ferngesteuerte - von einer Tochtergesellschaft von Samsung gebaute - Roboter hat Hitze- und Bewegungsmelder. Damit kann er potenzielle Ziele mehr als zwei Meilen entfernt identifizieren - all das ist keine Science-Fiction, sondern Realität.
Die Diskussion um die Gefahren von Künstlicher Intelligenz (KI) und militärischen Systemen ist 2014 ins Rollen gekommen und wird wohl kaum wieder zu stoppen sein: Zwar fanden zu genau diesem Thema mehrere UN-Treffen im letzten Jahr statt, größere, internationale Aufmerksamkeit entstand aber erst, als Physiker Stephen Hawking und Elon Musk - Silicon Valley-Star und Tesla-Motors-Chef - unmissverständlich warnten: Die Künstliche Intelligenz könnte das Ende der Menschheit einleiten.
Auch der Oxford-Philosoph und Physiker Nick Bostrom warnte in seinem 2014 erschienen Buch "Superintelligenz", dass sich künstliche Intelligenz zukünftig selbstständig verbessern könnte. Die vermeintliche Konsequenz: Eine anschließende "Intelligenzexplosion" mit unkontrollierbaren Folgen.
Beginn einer neuen Ära?
Das Zentrum Technik und nationale Sicherheitspolitik in Washington DC, dass der dem Pentagon nahestehenden National Defense University (NDU) gehört, veröffentlichte im September eine Studie, in der man den Beginn einer neuen Ära ankündigte - der automatisierte Krieg könne innerhalb von nur 15 Jahren kommen.
Anfang diesen Jahres warnten so dann eine Reihe prominenter Wissenschaftler und Unternehmer in einem offenen Brief des Future of Life Institute: Die Forscher fordern dazu auf, KI-Systeme unter verstärkten Sicherheitsaspekten zu entwickeln. Unter den Unterzeichnern: Entwickler von Google und Microsoft.
Kommen die "Super Soldiers"?
"Wir sind vermutlich fünf bis zehn Jahre entfernt von einem sogenannten Terminator-Szenario, in dem humanoide Kampfroboter vollautomatisch zum Einsatz kommen könnten", behauptet James Barrat, Autor des Buches "Unsere letzte Erfindung: Künstliche Intelligenz und das Ende der menschlichen Ära", gegenüber der DW. Barrat hat zahlreiche KI-Experten zum Thema interviewt und die Ergebnisse in seinem Buch zusammengefasst. Der Dokumentarfilmer und KI-Experte geht davon aus, dass momentan ein Wettrennen um intelligente Waffen stattfindet. Laut Barrat "träumt die US-Armee von einem 'Super Soldaten'". Dies könnte in Zukunft ein vollautomatischer Roboter sein, der Entscheidungen selbstständig trifft, niemals müde wird und weitere vermeintliche Vorteile mit sich bringen würde.
Eine Vorstufe davon sei der sogenannte erweiterte "Super Soldat" (engl. augmented super soldier). Gemeint ist ein menschlicher Soldat - ausgestattet mit einem externen Exoskelett - das ihn schneller und kräftiger macht, so wie mit Sensoren, die ihn länger wach halten und nachts sehen lassen.
Barrat fordert ein "dringend notwendiges internationales Übereinkommen zum Bann von vollautomatischen Robotern und Drohnen." So wie es bei ABC-Waffen längst Realität sei.
Etwas andere Töne kommen vom Referat "Zukunftsanalyse" der deutschen Bundeswehr:: Derzeit kämpfe man noch mit "aktuellen Schwächen von Künstlicher Intelligenz: Überforderung bei nicht vorhersehbaren Ereignissen und keine Fähigkeit zur Improvisation."
Von der Entwicklung sogenannter Killer Robots oder Kampfroboter seien wir laut Olaf Theiler, dem Referatsleiter, und Annika Vergin, Referentin, "noch sehr, sehr weit entfernt, wenn sie den überhaupt so möglich sein wird."
Schutz gegen Missbrauch
Mit dem Auftauchen autonomer Waffensysteme auf den Schlachtfeldern der Zukunft müsse aber durchaus gerechnet werden, auch wenn ihre taktische Verwendbarkeit sehr eingeschränkt bleiben würde. Das Referat "Zukunftsanalyse" räumt aber ein, "dass wir in Zukunft 'Selbstmorddrohnen' und Angriffe von Robotern auf Menschen nicht völlig ausschließen können". Die Bundeswehrabteilung regt an, Anwendungen zu erforschen, die "zum Schutz gegen den Missbrauch derartiger Systeme dienen."
Yvonne Hofstetter, Entwicklerin von intelligenten Software-Systemen für zivile Firmen und die Rüstungsindustrie, gibt zu bedenken, dass KI seit 20 Jahren im militärischen Bereich eingesetzt werde. Sie sei unverzichtbar geworden. Im Interview mit der Deutschen Welle beleuchtet die Autorin des Buches "Sie wissen alles. Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen", den ihrer Meinung nach durchaus sinnvollen Einsatz von KI-Aufklärung: Flugüberwachung, U-Boot-Technik, Klassifizierung und Detektierung von Landminen und Bomben sei sicherer und einfacher geworden durch den Einsatz von KI.
Ihrer Meinung nach sei die militärische Forschung abgerückt von KI-Robotern, aber, so warnt Hofstetter: "Maschinen ohne kognitive Fähigkeiten und Bewusstsein sind bereits im Einsatz und brandgefährlich."
Behörde für Technologie-Ethos
Die KI-Expertin sieht vielmehr Firmen im sogenannten zivilen Bereich an der Spitze der Entwicklung: Der Trend gehe weg von militärischen Systemen, hin zu Unternehmen, die "alles auf dem Tisch liegen haben, um intelligente Waffen zu bauen." Wer das sei? "Google." Das Unternehmen habe, so Hofstetter, inzwischen soviel Technologie hinzu gekauft, dass es "alle erdenklichen Dinge bauen könnte, die Schreckensszenarien ausmachen. Das Militär wiederum geht auf diese Unternehmen zu und muss zukaufen, was es nicht mehr selbst erforscht und entwickelt."
Es gehe Unternehmen wie Google um Sensorik, Knowhow für weitergehende Datensammlung, aber "sie können natürlich auch ganz andere Dinge damit machen", bemerkt Hofstetter vieldeutig.
Laut der Rüstungsexpertin gebe es Vorstöße von Juristen in den USA, eine Behörde einzurichten, um unter anderem einen Technologie-Ethos zu entwickeln. Hofstetter fordert eine ebensolche Behörde für Deutschland und Europa. Und sie macht unmissverständlich klar: "KI kann zu Gutem führen, zu Wachstum, genauso gut kann sie die Menschheit zerstören." Hofstetter bemängelt, dass es noch keinen Plan gebe, wie man mit KI umgehe. Regulierungs-Flickschusterei im Nachhinein würde nichts bringen, man müsse Maßnahmen ergreifen, solange noch Zeit ist.