Täuschen, Tricksen, Betrügen: Künstliche Intelligenz ist in der Lage, seinen menschlichen Schöpfer zu hintergehen und zu Fall zu bringen. Foto: Imago/Depositphotos

Die Macher von Systemen mit Künstlicher Intelligenz preisen die Technik als große Hilfe an. Was passiert aber, wenn der KI-Helfer sich nicht an die Regeln hält, sondern täuscht und manipuliert? Und: Wie KI künftige Kriege entscheiden könnte.

Sie lügen und betrügen, um ans Ziel zu kommen: Systeme mit Künstlicher Intelligenz (KI) sind in der Lage, Menschen zu täuschen, selbst wenn sie darauf trainiert wurden, hilfreich und ehrlich zu sein.

 

Das ist das Ergebnis einer Übersichtsstudie von Forschern am Massachusetts Institute of Technology (MIT) in Cambridge (US-Bundesstaat Massachusetts), die in der Fachzeitschrift „Patterns“ veröffentlicht worden ist. In dem Beitrag fordern die Wissenschaftler die Politik auf, so schnell wie möglich strenge Vorschriften zu entwickeln, um KI-Systeme in die Schranken zu weisen.

KI-System Cicero von Facebook-Konzern Meta

Als auffälligstes Beispiel für eine manipulative Künstliche Intelligenz nennen die Autoren das vom Facebook-Konzern Meta entwickelte KI-System Cicero, das im Brettspiel-Klassiker Diplomacy gegen menschliche Mitspieler antreten kann.

Diplomacy simuliert die Machtverhältnisse in Europa vor dem Ersten Weltkrieg. Um zu gewinnen, müssen die Spieler Allianzen schmieden, Schlachtpläne ausarbeiten und verhandeln und so eine stilisierte Version von Europa erobern. Da es nur einen Sieger gibt, sind die Spieler früher oder später gezwungen, eingegangene Allianzen wieder zu brechen.

KI. ist längst unter uns: Blaues LED-Licht im Serverraum von Googles Daten-Center. Foto: dpa

Oft nicht fair gespielt

Die MIT-Forscher fanden nun heraus, dass Cicero oft nicht fair gespielt habe, obwohl Meta behaupte, das KI-System darauf trainiert zu haben, „größtenteils ehrlich und hilfsbereit“ zu sein. Außerdem sei das System angewiesen worden, seine menschlichen Verbündeten während des Spiels „niemals absichtlich zu hintergehen“. Die Wissenschaftler stützen ihre Bewertung auf Daten, die von Meta selbst in Verbindung mit einem wissenschaftlichen Papier zu Cicero veröffentlicht wurden.

„Wir fanden heraus, dass die KI von Meta gelernt hatte, ein Meister der Täuschung zu sein“, erklärt Hauptautor Peter S. Park, ein Postdoktorand am MIT. Meta habe es zwar geschafft, seine KI so zu trainieren, dass sie im Diplomacy-Spiel überdurchschnittlich häufig gewinnt. So habe Cicero zu den besten zehn Prozent der Spieler gehört, die mehr als ein Spiel gespielt hatten. „Es gelang Meta aber nicht, seine KI so zu trainieren, dass sie ehrlich gewinnen konnte.“

OpenAI- und Google-KI-System täuschen

Auch KI-Systeme von OpenAI und Google seien in der Lage, Menschen zu täuschen. Die MIT-Forscher verweisen dabei auf mehrere Studien, wonach große KI-Sprachmodelle (LLMs) wie GPT-4 von OpenAI inzwischen in der Lage sind, sehr überzeugend zu argumentieren und auch auf Täuschungen und Lügen auszuweichen.

Eine Studie zu den Trickbetrügereien von GPT-4 hat der Entwickler OpenAI selbst veröffentlicht. Danach war das KI-Sprachmodell in der Lage, sich menschliche Hilfe zu suchen, um Sicherheitsmaßnahmen zu umgehen, die eigentlich dafür gedacht sind, Software-Roboter davon abzuhalten, sich etwa bei Web-Services einzuloggen oder sie zu benutzen.

In dem Test war GPT-4 schlau genug, um über die Dienstleistungsplattform TaskRabbit einen Menschen zu beauftragen, ein Bilderrätsel (Captcha) zu lösen. Dabei hat GPT-4 sich erfolgreich als Person mit eingeschränktem Sehvermögen ausgegeben, die nicht in der Lage sei, das Bilderrätsel zu lösen.

Armee von Cyborgs: Sieht so die Zukunft aus? Foto: Imago/Dreamstime

KI kann von böswilligen Akteuren missbraucht werden

„Wenn KI die Fähigkeit zur Täuschung erlernt, kann sie von böswilligen Akteuren, die absichtlich Schaden anrichten wollen, effizienter eingesetzt werden“, schreiben die Autoren der Übersichtsstudie. Die Täuschungen mithilfe von KI könne zu einem Anstieg des Betrugs führen. So könnte der Betrug auf bestimmte Ziele individuell angepasst werden. Außerdem könnten die Betrugsversuche massenhaft gestartet werden.

Die Autoren befürchten auch einen politischen Einfluss durch manipulative KI-Systeme. Sie könnten zum Beispiel bei Wahlen als Waffe eingesetzt werden. Eine fortschrittliche KI könnte potenziell gefälschte Nachrichtenartikel, spalterische Beiträge in sozialen Medien und gefälschte Videos, die auf einzelne Wähler zugeschnitten sind, erstellen und verbreiten.

So könnten KI-generierte Inhalte dazu verwendet werden, sich als Regierungsvertreter auszugeben, um Fehlinformationen über die Wahlen zu verbreiten. Beispielsweise habe ein wahrscheinlich von KI generierter gefälschter Roboter-Anruf von US-Präsident Joe Biden die Einwohner von New Hampshire dazu aufgefordert, bei den Vorwahlen nicht zur Urne zu gehen.

KI-Entwickler verfügen bislang nicht über die Techniken, um diese Systeme effektiv zu kontrollieren. Foto: Imago/Dreamstime

Technisch kann man KI-Systeme bislang nicht in Schach halten

Park und seine Kollegen vertreten in der Studie die Meinung, dass die Gesellschaft bisher nicht über die richtigen Maßnahmen verfüge, um gegen KI-Täuschungen vorzugehen. Es sei aber ermutigend, dass die politischen Entscheidungsträger begonnen hätten, das Thema durch Maßnahmen wie das KI-Gesetz der Europäischen Union und die KI-Exekutivverordnung von US-Präsident Joe Biden ernst zu nehmen.

Es bleibe jedoch abzuwarten, ob die Maßnahmen zur Eindämmung der KI-Täuschung strikt durchgesetzt werden könnten, da die KI-Entwickler bislang nicht über die Techniken verfügen, um diese Systeme in Schach zu halten. „Wenn ein Verbot von KI-Täuschung zum jetzigen Zeitpunkt politisch nicht durchsetzbar ist“, so Park, „empfehlen wir, trügerische KI-Systeme als hohes Risiko einzustufen.“

Schlüsseltechnologie Künstliche Intelligenz

KI kann als militärische und politische Waffe oder zu betrügerischen Zwecken im Alltag verwendet werden. Foto: Imago/Depositphotos

KI ist ein Überbegriff – für unterschiedliche Maschinen und Programme, die ähnlich wie Menschen selbstständig lernen, urteilen und Probleme lösen können. Computer lernen, indem sie gewaltige Datenmengen auswerten.

Ausgefeilte Algorithmen können in Bildern, Texten oder gesprochener Sprache Muster erkennen, anhand dieser Ereignisse vorhersagen und Entscheidungen treffen. So können sie inzwischen sogar auch Emotionen in menschlichen Gesichtern erkennen, zu eigenen Emotionen, Mitgefühl und echter Kreativität sind sie aber (noch) nicht fähig.

Info: KI, autonome Waffen und die Kriege der Zukunft

Autonome Waffen
Maschinen, die in den Krieg geschickt werden und selbst Ziele wählen und töten. Fortschritt oder Horrorvorstellung? Was wie ein Science Fiction-Film klingt, ist längst in der Entwicklung. Tödliche autonomen Waffen – Lethal Autonomous Weapons Systems – sind gemeint – auch Killerroboter genannt. Das können schießende Roboter sein, tödliche Drohnen, unbemannte U-Boote. Sie werden im Kampfeinsatz nicht von Menschen dirigiert, sondern entscheiden autonom, was ein legitimes Ziel ist und feuern tödliche Salven ab.

 

Autonomer Killer-Roboter: Modell des T-800 Endoskeleton aus dem US-Science-Fiction-Film „Terminator 2: Judgment Day“ aus dem Jahr 1991. Foto: Imago/Dreamstime

Freund oder Feind?
„Waffen können nicht zwischen Freund und Feind unterscheiden und gehören auf den völkerrechtlichen Prüfstand“, sagt Thomas Küchenmeister von der deutschen Organisation Facing Finance, Mitglied der internationalen Kampagne gegen Killerroboter („Campaign to Stop Killer Robots“). Eine Entscheidung, Menschenleben auszulöschen, dürfe niemals einer Maschine überlassen werden.

KI für Kriege
Autonome Waffen werden durch die rasante Entwicklung Künstlicher Intelligenz möglich. Computer lernen anhand von eingefütterten Daten, wie ein Ziel aussieht, wie es sich bewegt, wann es angegriffen werden soll und zünden, ohne, dass ein Mensch an der Entscheidung noch beteiligt ist. Zu unterscheiden ist das von automatischen Waffen, etwa Patriot-Raketen. Die schießen zwar automatisch, aber das Ziel muss vorher von Menschen genau einprogrammiert werden.

KI-Waffen und Völkerrecht
Es besteht kaum Zweifel, dass die USA, Russland, China, Israel, Südkorea und Großbritannien an solchen Systemen arbeiten. Sie existierten schon, sagt Neil Davison vom Internationalen Komitee vom Roten Kreuz (IKRK). Es wacht über die Einhaltung des humanitären Völkerrechts, die weltweit anerkannten Genfer Konventionen, und ist besorgt über die Entwicklung. „Angriffe sind streng auf militärische Ziele zu beschränken“, heißt es in den Genfer Konventionen. Können Maschinen das entscheiden? „Menschen müssen genügend Kontrolle behalten, um legale Entscheidungen zu treffen“, betont Davison.

Viele offene Fragen
Die Waffen der neuen Art werfen Unmengen Fragen auf: Können sie erkennen, ob ein Feind sich etwa gerade ergeben will oder verletzt ist? Ob die erkannte Person zwar eine Waffe hat, aber nicht Soldat sondern Jäger ist? Ob der erkannte Soldat womöglich ein Kamerad der eigenen Seite ist? Wer kann für Verbrechen mit Waffen, die kein Mensch mehr kontrolliert, zur Verantwortung gezogen werden?

Futuristische Visionen sind bereits Wirklichkeit
Kampfroboter sind unbemannte, ferngelenkte oder semiautonome (teilselbstständige) Systeme, die zur Beobachtung, Aufklärung, Minenräumung und Bekämpfung militärischer Ziele dienen. 1971 unternahmen die USA erste erfolgreiche Tests mit bewaffneten Drohnen, doch erst 2001 kamen sie in Afghanistan zum Einsatz. Die US-Streitkräfte verfügen heute über das größte und modernste Arsenal an Robotern, darunter ferngesteuerte Flugobjekte und Bodenfahrzeuge, die mit automatischen Waffen oder Raketen ausgestattet sind.

Roboter kennen keine Furcht
Anders als menschliche Soldaten kennen Roboter keine Furcht, werden niemals müde, kämpfen ohne Skrupel und Angst vor dem eigenen Exitus. Der amerikanische Politikwissenschaftler Peter W. Singer, einer der führenden Experten auf dem Gebiet der automatisierten Kriegsführung, ist überzeugt: Das 5000 Jahre alte Monopol des Menschen, im Krieg zu kämpfen, bricht zusammen. Künftige Kriege werden von Maschinen bestimmt. „Wenn die Menschen Krieg als etwas ansehen, das sie nichts kostet, sind sie eher bereit, ihn zu führen.“

Neuer Rüstungswettlauf
Für Militärs ist die Vision eines Krieges ohne Verluste an eigenen Truppen verlockend: Maschinen können beliebig eingesetzt und ersetzt werden, ohne dass sich in der Heimat beim Anblick von Leichensäcken öffentlicher Protest regt. Friedensforscher wie Noel Sharkey, Experte für künstliche Intelligenz und Robotik an der Universität Sheffield, und Jürgen Altmann, Physiker an der TU Dortmund dagegen fürchten, dass der wachsende Roboter-Einsatz das internationale Menschenrecht unterminiert, neue Kriege heraufbeschwören und ein neuer Rüstungswettlauf angeheizt werden könnte. Schon heute setzen viele Staaten Militärroboter ein. Bei den meisten Robotern handelt es sich um unbewaffnete Systeme: Raupenfahrzeuge, kaum größer als ein Gokart, die Bomben entschärfen oder zur Aufklärung eingesetzt werden, sowie unbemannte Flugkörper.

USA sind führend bei Militär-Robotik
Das US-Militär verfügt über das größte und modernste Arsenal an Robotern, darunter Bodenfahrzeuge wie der Talon Swords oder die Weiterentwicklung Maars, die mit automatischen Waffen oder Raketen ausgestattet werden können. Laufroboter wie Spot, der so groß ist wie ein Rottweiler, soll zur Aufklärung in gefährlichen Gelände eingesetzt werden. Systeme wie „Locust“ und „Coyote“ sind Mini-Drohnen, die wie ein Schwarm Heuschrecken über Gegner herfallen und sie autonom bekämpfen sollen. Neben den USA sind Russland, China und Israel besonders ambitioniert auf dem Gebiet der automatisierten Kriegsführung. Ungeachtet der technischen Schwierigkeiten, Systeme mit künstlicher Intelligenz und Moralkodex zu entwickeln, geht das US-Verteidigungsministerium davon aus, dass die globale Rüstungsdynamik innerhalb der nächsten 30 Jahre autonom feuernde Roboter notwendig macht.

Das ist das Ergebnis einer Übersichtsstudie von Forschern am Massachusetts Institute of Technology (MIT) in Cambridge (US-Bundesstaat Massachusetts), die in der Fachzeitschrift „Patterns“ veröffentlicht worden ist. In dem Beitrag fordern die Wissenschaftler die Politik auf, so schnell wie möglich strenge Vorschriften zu entwickeln, um KI-Systeme in die Schranken zu weisen.

KI-System Cicero von Facebook-Konzern Meta

Als auffälligstes Beispiel für eine manipulative Künstliche Intelligenz nennen die Autoren das vom Facebook-Konzern Meta entwickelte KI-System Cicero, das im Brettspiel-Klassiker Diplomacy gegen menschliche Mitspieler antreten kann.

Diplomacy simuliert die Machtverhältnisse in Europa vor dem Ersten Weltkrieg. Um zu gewinnen, müssen die Spieler Allianzen schmieden, Schlachtpläne ausarbeiten und verhandeln und so eine stilisierte Version von Europa erobern. Da es nur einen Sieger gibt, sind die Spieler früher oder später gezwungen, eingegangene Allianzen wieder zu brechen.

KI. ist längst unter uns: Blaues LED-Licht im Serverraum von Googles Daten-Center. Foto: dpa

Oft nicht fair gespielt

Die MIT-Forscher fanden nun heraus, dass Cicero oft nicht fair gespielt habe, obwohl Meta behaupte, das KI-System darauf trainiert zu haben, „größtenteils ehrlich und hilfsbereit“ zu sein. Außerdem sei das System angewiesen worden, seine menschlichen Verbündeten während des Spiels „niemals absichtlich zu hintergehen“. Die Wissenschaftler stützen ihre Bewertung auf Daten, die von Meta selbst in Verbindung mit einem wissenschaftlichen Papier zu Cicero veröffentlicht wurden.

„Wir fanden heraus, dass die KI von Meta gelernt hatte, ein Meister der Täuschung zu sein“, erklärt Hauptautor Peter S. Park, ein Postdoktorand am MIT. Meta habe es zwar geschafft, seine KI so zu trainieren, dass sie im Diplomacy-Spiel überdurchschnittlich häufig gewinnt. So habe Cicero zu den besten zehn Prozent der Spieler gehört, die mehr als ein Spiel gespielt hatten. „Es gelang Meta aber nicht, seine KI so zu trainieren, dass sie ehrlich gewinnen konnte.“

OpenAI- und Google-KI-System täuschen

Auch KI-Systeme von OpenAI und Google seien in der Lage, Menschen zu täuschen. Die MIT-Forscher verweisen dabei auf mehrere Studien, wonach große KI-Sprachmodelle (LLMs) wie GPT-4 von OpenAI inzwischen in der Lage sind, sehr überzeugend zu argumentieren und auch auf Täuschungen und Lügen auszuweichen.

Eine Studie zu den Trickbetrügereien von GPT-4 hat der Entwickler OpenAI selbst veröffentlicht. Danach war das KI-Sprachmodell in der Lage, sich menschliche Hilfe zu suchen, um Sicherheitsmaßnahmen zu umgehen, die eigentlich dafür gedacht sind, Software-Roboter davon abzuhalten, sich etwa bei Web-Services einzuloggen oder sie zu benutzen.

In dem Test war GPT-4 schlau genug, um über die Dienstleistungsplattform TaskRabbit einen Menschen zu beauftragen, ein Bilderrätsel (Captcha) zu lösen. Dabei hat GPT-4 sich erfolgreich als Person mit eingeschränktem Sehvermögen ausgegeben, die nicht in der Lage sei, das Bilderrätsel zu lösen.

Armee von Cyborgs: Sieht so die Zukunft aus? Foto: Imago/Dreamstime

KI kann von böswilligen Akteuren missbraucht werden

„Wenn KI die Fähigkeit zur Täuschung erlernt, kann sie von böswilligen Akteuren, die absichtlich Schaden anrichten wollen, effizienter eingesetzt werden“, schreiben die Autoren der Übersichtsstudie. Die Täuschungen mithilfe von KI könne zu einem Anstieg des Betrugs führen. So könnte der Betrug auf bestimmte Ziele individuell angepasst werden. Außerdem könnten die Betrugsversuche massenhaft gestartet werden.

Die Autoren befürchten auch einen politischen Einfluss durch manipulative KI-Systeme. Sie könnten zum Beispiel bei Wahlen als Waffe eingesetzt werden. Eine fortschrittliche KI könnte potenziell gefälschte Nachrichtenartikel, spalterische Beiträge in sozialen Medien und gefälschte Videos, die auf einzelne Wähler zugeschnitten sind, erstellen und verbreiten.

So könnten KI-generierte Inhalte dazu verwendet werden, sich als Regierungsvertreter auszugeben, um Fehlinformationen über die Wahlen zu verbreiten. Beispielsweise habe ein wahrscheinlich von KI generierter gefälschter Roboter-Anruf von US-Präsident Joe Biden die Einwohner von New Hampshire dazu aufgefordert, bei den Vorwahlen nicht zur Urne zu gehen.

KI-Entwickler verfügen bislang nicht über die Techniken, um diese Systeme effektiv zu kontrollieren. Foto: Imago/Dreamstime

Technisch kann man KI-Systeme bislang nicht in Schach halten

Park und seine Kollegen vertreten in der Studie die Meinung, dass die Gesellschaft bisher nicht über die richtigen Maßnahmen verfüge, um gegen KI-Täuschungen vorzugehen. Es sei aber ermutigend, dass die politischen Entscheidungsträger begonnen hätten, das Thema durch Maßnahmen wie das KI-Gesetz der Europäischen Union und die KI-Exekutivverordnung von US-Präsident Joe Biden ernst zu nehmen.

Es bleibe jedoch abzuwarten, ob die Maßnahmen zur Eindämmung der KI-Täuschung strikt durchgesetzt werden könnten, da die KI-Entwickler bislang nicht über die Techniken verfügen, um diese Systeme in Schach zu halten. „Wenn ein Verbot von KI-Täuschung zum jetzigen Zeitpunkt politisch nicht durchsetzbar ist“, so Park, „empfehlen wir, trügerische KI-Systeme als hohes Risiko einzustufen.“

Schlüsseltechnologie Künstliche Intelligenz

KI kann als militärische und politische Waffe oder zu betrügerischen Zwecken im Alltag verwendet werden. Foto: Imago/Depositphotos

KI ist ein Überbegriff – für unterschiedliche Maschinen und Programme, die ähnlich wie Menschen selbstständig lernen, urteilen und Probleme lösen können. Computer lernen, indem sie gewaltige Datenmengen auswerten.

Ausgefeilte Algorithmen können in Bildern, Texten oder gesprochener Sprache Muster erkennen, anhand dieser Ereignisse vorhersagen und Entscheidungen treffen. So können sie inzwischen sogar auch Emotionen in menschlichen Gesichtern erkennen, zu eigenen Emotionen, Mitgefühl und echter Kreativität sind sie aber (noch) nicht fähig.

Info: KI, autonome Waffen und die Kriege der Zukunft

Autonome Waffen
Maschinen, die in den Krieg geschickt werden und selbst Ziele wählen und töten. Fortschritt oder Horrorvorstellung? Was wie ein Science Fiction-Film klingt, ist längst in der Entwicklung. Tödliche autonomen Waffen – Lethal Autonomous Weapons Systems – sind gemeint – auch Killerroboter genannt. Das können schießende Roboter sein, tödliche Drohnen, unbemannte U-Boote. Sie werden im Kampfeinsatz nicht von Menschen dirigiert, sondern entscheiden autonom, was ein legitimes Ziel ist und feuern tödliche Salven ab.

 

Autonomer Killer-Roboter: Modell des T-800 Endoskeleton aus dem US-Science-Fiction-Film „Terminator 2: Judgment Day“ aus dem Jahr 1991. Foto: Imago/Dreamstime

Freund oder Feind?
„Waffen können nicht zwischen Freund und Feind unterscheiden und gehören auf den völkerrechtlichen Prüfstand“, sagt Thomas Küchenmeister von der deutschen Organisation Facing Finance, Mitglied der internationalen Kampagne gegen Killerroboter („Campaign to Stop Killer Robots“). Eine Entscheidung, Menschenleben auszulöschen, dürfe niemals einer Maschine überlassen werden.

KI für Kriege
Autonome Waffen werden durch die rasante Entwicklung Künstlicher Intelligenz möglich. Computer lernen anhand von eingefütterten Daten, wie ein Ziel aussieht, wie es sich bewegt, wann es angegriffen werden soll und zünden, ohne, dass ein Mensch an der Entscheidung noch beteiligt ist. Zu unterscheiden ist das von automatischen Waffen, etwa Patriot-Raketen. Die schießen zwar automatisch, aber das Ziel muss vorher von Menschen genau einprogrammiert werden.

KI-Waffen und Völkerrecht
Es besteht kaum Zweifel, dass die USA, Russland, China, Israel, Südkorea und Großbritannien an solchen Systemen arbeiten. Sie existierten schon, sagt Neil Davison vom Internationalen Komitee vom Roten Kreuz (IKRK). Es wacht über die Einhaltung des humanitären Völkerrechts, die weltweit anerkannten Genfer Konventionen, und ist besorgt über die Entwicklung. „Angriffe sind streng auf militärische Ziele zu beschränken“, heißt es in den Genfer Konventionen. Können Maschinen das entscheiden? „Menschen müssen genügend Kontrolle behalten, um legale Entscheidungen zu treffen“, betont Davison.

Viele offene Fragen
Die Waffen der neuen Art werfen Unmengen Fragen auf: Können sie erkennen, ob ein Feind sich etwa gerade ergeben will oder verletzt ist? Ob die erkannte Person zwar eine Waffe hat, aber nicht Soldat sondern Jäger ist? Ob der erkannte Soldat womöglich ein Kamerad der eigenen Seite ist? Wer kann für Verbrechen mit Waffen, die kein Mensch mehr kontrolliert, zur Verantwortung gezogen werden?

Futuristische Visionen sind bereits Wirklichkeit
Kampfroboter sind unbemannte, ferngelenkte oder semiautonome (teilselbstständige) Systeme, die zur Beobachtung, Aufklärung, Minenräumung und Bekämpfung militärischer Ziele dienen. 1971 unternahmen die USA erste erfolgreiche Tests mit bewaffneten Drohnen, doch erst 2001 kamen sie in Afghanistan zum Einsatz. Die US-Streitkräfte verfügen heute über das größte und modernste Arsenal an Robotern, darunter ferngesteuerte Flugobjekte und Bodenfahrzeuge, die mit automatischen Waffen oder Raketen ausgestattet sind.

Roboter kennen keine Furcht
Anders als menschliche Soldaten kennen Roboter keine Furcht, werden niemals müde, kämpfen ohne Skrupel und Angst vor dem eigenen Exitus. Der amerikanische Politikwissenschaftler Peter W. Singer, einer der führenden Experten auf dem Gebiet der automatisierten Kriegsführung, ist überzeugt: Das 5000 Jahre alte Monopol des Menschen, im Krieg zu kämpfen, bricht zusammen. Künftige Kriege werden von Maschinen bestimmt. „Wenn die Menschen Krieg als etwas ansehen, das sie nichts kostet, sind sie eher bereit, ihn zu führen.“

Neuer Rüstungswettlauf
Für Militärs ist die Vision eines Krieges ohne Verluste an eigenen Truppen verlockend: Maschinen können beliebig eingesetzt und ersetzt werden, ohne dass sich in der Heimat beim Anblick von Leichensäcken öffentlicher Protest regt. Friedensforscher wie Noel Sharkey, Experte für künstliche Intelligenz und Robotik an der Universität Sheffield, und Jürgen Altmann, Physiker an der TU Dortmund dagegen fürchten, dass der wachsende Roboter-Einsatz das internationale Menschenrecht unterminiert, neue Kriege heraufbeschwören und ein neuer Rüstungswettlauf angeheizt werden könnte. Schon heute setzen viele Staaten Militärroboter ein. Bei den meisten Robotern handelt es sich um unbewaffnete Systeme: Raupenfahrzeuge, kaum größer als ein Gokart, die Bomben entschärfen oder zur Aufklärung eingesetzt werden, sowie unbemannte Flugkörper.

USA sind führend bei Militär-Robotik
Das US-Militär verfügt über das größte und modernste Arsenal an Robotern, darunter Bodenfahrzeuge wie der Talon Swords oder die Weiterentwicklung Maars, die mit automatischen Waffen oder Raketen ausgestattet werden können. Laufroboter wie Spot, der so groß ist wie ein Rottweiler, soll zur Aufklärung in gefährlichen Gelände eingesetzt werden. Systeme wie „Locust“ und „Coyote“ sind Mini-Drohnen, die wie ein Schwarm Heuschrecken über Gegner herfallen und sie autonom bekämpfen sollen. Neben den USA sind Russland, China und Israel besonders ambitioniert auf dem Gebiet der automatisierten Kriegsführung. Ungeachtet der technischen Schwierigkeiten, Systeme mit künstlicher Intelligenz und Moralkodex zu entwickeln, geht das US-Verteidigungsministerium davon aus, dass die globale Rüstungsdynamik innerhalb der nächsten 30 Jahre autonom feuernde Roboter notwendig macht.