Nicht die KI, sondern der Mensch entscheidet über den Krieg

 

Erfurt, 30./31.05.2024. Ist der Einsatz Künstlicher Intelligenz beim Militär eine „Technologie des Todes?“ und „Kann Künstliche Intelligenz vom Menschen Moral lernen“: So lautete der Titel zweier Podiumsdiskussionen, die unter dem Dach der Katholischen Militärseelsorge auf dem Katholikentag in Erfurt angeboten wurden. Der Zuspruch des Publikums zeigte, dass die Themen auf Interesse stoßen, ein Interesse, dass man durchaus als freundlich und aufgeschlossen bezeichnen darf. Die Aussage „KI verursacht Probleme, aber diese sind lösbar“ fand im Publikum des vollbesetzten Kaisersaals in Erfurt eine deutliche Mehrheit. Anders der Satz, „KI hat Vorteile, aber macht mir auch Angst“: Dem wollten nur 20 Prozent der Zuhörerinnen und Zuhörer zustimmen. Im Kaisersaal diskutierten Generalleutnant a.D. Ansgar Rieks, Unternehmerin Christin Schäfer, Statistikerin Katharina Schäfer und Patrick Sensburg vom Reservistenverband mit dem Unternehmer und Informatiker Christof Ebert über die Frage, ob KI denn Moral lernen kann. Im Prinzip „Ja“, lautete Eberts Antwort: „Die KI hat keine selbst definierte Moral, sondern spiegelt das wider, was wir reingesteckt haben.“ Ebert sprach sich dafür aus, der Künstlichen Intelligenz menschliche Moralvorstellungen nahzubringen.

Wobei sich Katharina Schüller die Frage stellt, ob eine KI wirklich intelligent ist. Sie könne nur so gut sein, wie die Daten, mit der sie gefüttert wird. „Was der KI fehlt ist die emotionale Intelligenz, die notwendig ist, um mit wenigen Daten eine Lösung zu finden.“

Für Ansgar Rieks ist KI vor allem ein Werkzeug mit vielen sehr unterschiedlichen Anwendungsmöglichkeiten. Insofern gebe es Schwierigkeiten, dafür allgemeine Regeln aufzustellen. Gleichwohl plädierte er dafür, allen Anwendungen „ein gewisses Maß an ethischem Handeln“ einzubauen. Zentral sei aber, dass in diesem Fall Ethik und Moral genauer definiert werden müsse, nur ein Gefühl reiche nicht. 

Auch Sensburg, der als Dozent an einer Polizeihochschule tätig ist, sieht KI vor allem als ein Instrument, um viele Daten schnell analysieren zu können. Das könne Sicherheitsorganen wie der Polizei, aber auch dem Militär, im Einsatz wertvolle Zeit verschaffen. Problematisch sei, dass eine KI nur auf der Basis zuvor eingegebener Daten weiterlernen und deshalb nicht gegen eine vorgegebene Norm entscheiden könne. Als Beispiel nannte er die Mauerschützen an der DDR-Grenze, deren Handeln zwar nach DDR-Gesetzen rechtens gewesen sei, moralisch aber nicht. Sensburg: „Die Frage ist also, wie weit wir der KI die Entscheidungsmacht lassen. Diese Grenze müssen wir jetzt definieren.“

Entscheiden solle eine KI nicht, wandte Rieks ein. Dennoch könne sie in Entscheidungsprozessen eine wichtige Rolle spielen. „Sie kann Ratschläge geben und damit eine Situation ent-emotionaliseren“. 

Mit dieser Aussage schlug der Generalleutnant a.D. eine Brücke zur am darauffolgenden Tag stattfindenden Diskussionsrunde „Technologien des Todes? Künstliche Intelligenz im militärischen Einsatz“, die vom Institut für Theologie und Frieden (ithf) organisiert wurde. Moderiert von ithf-Wissenschaftlerin Sarah Delere, diskutierten der Leiter der Schule für Informationstechnik der Bundeswehr, Brigadegeneral Rainer Simon, der grüne Verteidigungspolitiker Omid Nouripour, Friedensethikerin Nicole Kunkel und Rechtsanwalt Andreas Schüller.

Auch Brigadegeneral Simon teilte Rieks Ansicht. Automatisierte Schutzsysteme, etwa zur Raketenabwehr, seien sinnvoll. Mehr aber nicht, vollautonome Systeme wolle die Bundeswehr gar nicht, denn: „Ein System hat kein Gewissen, keine Moral. Die Entscheidung trägt am Ende der Mensch.“

Für Nouripour müssen drei Punkte gewährleistet sein: Die Interventionsmöglichkeit für Menschen, die Haftbarkeit des Menschen und die Sicherheit vor Hackern. Bei der Bundeswehr habe er in dieser Hinsicht keine Sorgen, international aber schon. 

Brigadegeneral Simon verwies in diesem Zusammenhang auf das Prinzip Innere Führung der Bundeswehr. Es werde viel Wert auf die Persönlichkeitsbildung der Soldatinnen und Soldaten gelegt mit dem Ziel, dass diese in kritischen Situationen sachgerecht und menschlich zu handeln.

Das Problem allerdings sei die moralische Verantwortung, warf Nicole Kunkel ein. „Wenn das System unkontrolliert lernt, wer ist dann am Ende schuld?“ Eine Frage, die auch das Publikum beschäftigte und die zumindest für die Bundeswehr geklärt ist. Es gebe vor Ort den verantwortlichen Kommandeur, sagte Simon: „Wer entscheidet, trägt die Verantwortung.“ Die Soldatinnen und Soldaten seien dem Grundgesetz und dem Schutz der Menschenwürde verpflichtet. Es gebe damit auch bestimmte Grenzen, jenseits derer die KI nicht mehr entscheiden dürfe.

Die aus dem Publikum geäußerte Sorge, dass der Einsatz Künstlicher Intelligenz Konflikte eskalieren lassen könnte, teilte Simon nicht. „Anpassungsfähigkeit heißt nicht Eskalation“. Soldaten entscheiden den Krieg nicht, aber sie schaffen die Voraussetzung dafür, dass die Politik Zeit habe, Wege zum Frieden zu finden.
Ähnlich argumentierte Nouripour: „Krieg ist kein Naturgesetz. Krieg ist von Menschen gemacht. Der Mensch entscheidet, ob er eskaliert oder nicht.“

Theo Weisenburger