Roboter plündern nicht

Roboter sollen helfen, aber nicht töten: Führende Wissenschaftler, darunter Stephen Hawking, haben kürzlich ein Verbot bewaffneter Roboter gefordert. Aber ist das realistisch und sinnvoll?

1

Maschinen gegen Menschen, bewaffnete Roboter, die auf Menschen schießen – das gibt einen guten Stoff für Science-Fiction-Filme ab. Aber in der Realität darf das nicht vorkommen. Zumindest forderte das kürzlich das Future of Life Institute (FLI) in einem offenen Brief.

„Autonome Waffen wählen Ziele aus und stellen sie ein, ohne eine menschliche Intervention“, schreiben die Forscher. Künstliche Intelligenz (KI) könne viel Nutzen für die Menschheit bringen. Aber bitte nicht beim Militär: „Einen KI-Rüstungswettlauf anzufangen, ist eine schlechte Idee.“ Zu den Unterzeichnern gehören namhafte Robotiker und KI-Forscher sowie Prominente aus Wissenschaft und Technik, darunter Stephen Hawking, Elon Musk und Steve Wozniak.

So einleuchtend die Forderung klingt, einiges spricht auch gegen sie. Nicht nur dürfte sie nur schwer wirksam umzusetzen sein, Roboter könnten durchaus auch ethisch gesehen dem Menschen im Kampfgetümmel etwas voraushaben. Was fehlt, sind Regeln.

Wer putzende Roboter mag, muss kämpfende in Kauf nehmen

Dass ein Verbot für diese Technik nicht realistisch ist, liegt daran, dass gerade KI-Forschung und Robotik in den Bereich Dual Use gehören. Sie können also für friedliche Zwecke ebenso eingesetzt werden wie für militärische. Das US-Robotikunternehmen iRobot etwa baut Roboter, die den Fußboden saubermachen. Die halten wir auch für sehr nützlich.

Das Unternehmen baut aber auch Roboter für das Militär: Sie entschärfen Sprengfallen und retten damit Leben – und nicht nur das von Soldaten: Die gleichen Roboter wurden auch für die Erkundung des zerstörten Atomkraftwerks in Fukushima eingesetzt.

Es dürfte schwierig sein, beides auseinanderzuhalten: die zivile und die militärische Nutzung. Und die Forschung daran ganz zu verbieten, ist nicht praktikabel. Schließlich wollen wir ja Roboter, die uns die Hausarbeit abnehmen, die in der Pflege helfen, uns Pakete nach Hause liefern. Wenn also daran geforscht wird, wird keine Deklaration, keine Resolution und kein Vertrag jemanden davon abbringen, bewaffnete Roboter zu bauen. Und wenn es keine regulären Armeen sind, dann sind es vielleicht Terroristen. Einen Copter zu bewaffnen, ist ja nicht schwierig.

Waffensysteme werden autonom

Abgesehen davon gibt es heute schon Waffensysteme mit einem gewissen Grad an Autonomie: Bestimmte Raketen dirigieren sich selbst in das Ziel, das ein Mensch ihnen vorgegeben hat. Es gibt Systeme, die dem Menschen potenzielle Ziele vorschlagen. Der Mensch muss diese nur noch bestätigen. Das vom US-Rüstungskonzern Raytheon entwickelte System Phalanx schießt automatisch ankommende Raketen ab.

Ein Verbot bewaffneter Maschinen erscheint also nicht realistisch. Was aber muss passieren, wenn sich bewaffnete Roboter nicht verhindern lassen?

 

Quelle: Roboter plündern nicht

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Time limit is exhausted. Please reload CAPTCHA.