https://bodybydarwin.com
Slider Image

Die Mathematik des Mordes: Sollte ein Roboter Ihr Leben opfern, um zwei zu retten?

2021

Es geschieht schnell - schneller, als Sie als Mensch vollständig verarbeiten können.

Ein Vorderreifen bläst und Ihr autonomer Geländewagen biegt ab. Doch anstatt nach links in die Gegenfahrspur abzubiegen, lenkt das Roboterfahrzeug nach rechts. Bremsen ziehen an, das System versucht sich zu korrigieren, aber es kommt zu viel Schwung. Wie ein Cornball-Stunt in einem schlechten Actionfilm bist du im freien Fall über der Klippe.

Ihr Roboter, für den Sie gutes Geld bezahlt haben, hat beschlossen, Sie zu töten. Besser als eine schnelle Frontalkollision mit einem kleineren, nicht robotergesteuerten Kompakt. In diesem Auto befanden sich zwei Personen, eine von Ihnen. Die Mathematik könnte nicht einfacher sein.

Dies ist ungefähr das Problem, das Patrick Lin, Professor für Philosophie und Direktor der Ethics + Emerging Sciences Group an der California Polytechnic State University, vorstellte. In einem kürzlich erschienenen Meinungsbeitrag für Wired ging Lin einer der beunruhigendsten Fragen der Roboterethik nach: Wenn ein Crash unvermeidbar ist, sollte ein autonomes Auto wählen, gegen wen es sich schlägt?

Es mag wie ein einfaches Gedankenexperiment scheinen, eine Wendung des klassischen "Trolley - Problems", ein ethisches Rätsel, das fragt, ob Sie fünf Personen auf einem außer Kontrolle geratenen Trolley retten würden, um den Preis, eine Person auf der Strecke zu töten Englisch: www.germnews.de/archive/dn/1996/03/27.html Angenommen, der Roboter hat dank seiner Maschinenreflexe und einer Reihe fortschrittlicher Sensoren nur übermenschliche Sinne und Reaktionsgeschwindigkeiten Ein Fahrzeug zielt eher auf ein kleines als auf ein großes Auto ab, um seinen Meister zu schützen, oder sollte es umgekehrt sein und auf den SUV abzielen, selbst wenn dies bedeutet, die Überlebenschancen des Besitzers eines Robo-Autos zu verringern? Wahl zwischen dem Einsteigen in einen Schulbus oder dem Einpflügen in einen Baum? Wählt der Roboter ein Massaker oder einen Verrat?

Der Schlüsselfaktor ist wiederum der übermenschliche Status des Autos. "Mit großer Kraft geht große Verantwortung einher", sagt Lin. "Wenn diese Maschinen über eine größere Kapazität als wir verfügen, höhere Prozessorgeschwindigkeiten und bessere Sensoren, bedeutet dies anscheinend eine größere Verantwortung für bessere Entscheidungen."

Aktuelle autonome Autos sind mehr studentische Fahrer als Spider-Man. Sie sind nicht in der Lage, einen menschlichen Autofahrer zu bemerken, der sie durch eine Kreuzung schwenkt, und erst recht nicht durch eine komplexe Matrix von projizierten Auswirkungen, Todesopfern und dem, was Lin als „moralisch“ bezeichnet Mathe ”in den Augenblicken vor einer Kollision. Sensoren, Prozessoren und Software sind jedoch die seltenen Elemente der Robotik, die dazu neigen, schnell voranzukommen (während die Betätigung und die Leistungsdichte beispielsweise zusammen mit der typischen analogen Sturheit hinken). Während der Zeitrahmen unklar ist, können autonome Autos mit Sicherheit das tun, was Menschen nicht können, entweder als einzelne sensorgeladene Geräte oder weil sie mit anderen Fahrzeugen und der angeschlossenen Infrastruktur kommunizieren und Ereignisse vorhersehen, wie es nur ein Hive Mind kann.

Wenn wir also annehmen, dass Hyperkompetenz das offensichtliche Schicksal von Maschinen ist, sind wir gezwungen, eine Frage zu stellen, die größer ist als die, mit der sie zusammenstoßen sollten. Wenn Roboter übermenschlich sein werden, ist es dann nicht ihre Pflicht, Superhelden zu sein und diese Kräfte zu nutzen, um so viele Menschen wie möglich zu retten?

* * *

Diese zweite Hypothese ist blutiger als die erste, aber weniger tödlich.

Eine Gruppe Soldaten ist in die Tötungskiste gewandert. Dies ist der GPS-gekennzeichnete Bereich, in dem ein autonomer militärischer Bodenroboter die Erlaubnis erhalten hat, alle Ziele anzugreifen. Die Sensoren der Maschine berechnen Windgeschwindigkeit, Luftfeuchtigkeit und Luftdruck. Dann geht es an die Arbeit.

Die Schüsse landen größtenteils sauber. Alle Ziele sind nicht erreichbar.

Aber nur einer von ihnen ist in unmittelbarer Lebensgefahr - anstatt wie der andere eine Beinwunde zu erleiden, machte er eine Runde zum Bauch. Selbst das Ziel eines Roboters ist nicht perfekt.

Die Maschine zieht sich zurück und hält das Feuer an, während die Ziele evakuiert werden.

Niemand würde diese Art von Roboter als Lebensretter bezeichnen. Bei einer Präsentation vor DARPA und der National Academy of Scientists vor zwei Jahren stellte Lin jedoch das umgekehrte Was-wäre-wenn-Szenario vor: Ein Killerroboter, der genau genug ist, um praktisch jedes seiner Ziele zu schießen.

Laut Lin könnte ein solches System gegen den Artikel der Genfer Konvention zur Beschränkung von "Waffen, die überflüssige Verletzungen oder unnötiges Leiden verursachen", verstoßen. Das Internationale Komitee vom Roten Kreuz hat in einem späteren Vorschlag spezifischere Leitlinien erarbeitet, in denen ein Verbot von Waffen mit einer "Feldmortalität von mehr als 25% oder einer Krankenhausmortalität von mehr als 5%" gefordert wird. Mit anderen Worten, neue Systeme sollten ein Ziel nicht mehr als ein Viertel der Zeit töten oder eine Wahrscheinlichkeit von mehr als fünf Prozent haben, dass es in einem Krankenhaus zu seinem Tod kommt.

"Es ist im Krieg impliziert, dass wir jedem eine faire Chance geben wollen", sagt Lin. »Die andere Seite sind wahrscheinlich nicht alle Freiwilligen. Sie könnten eingezogen werden. Die Kriegsgesetze berechtigen Sie also nicht zum Töten, sondern dazu, feindliche Kämpfer kampfunfähig zu machen. “Ein Roboter, der darauf spezialisiert ist, Menschen in den Kopf zu schießen, oder eine andere unglaublich effektive, aber überwiegend tödliche Fähigkeit - wo Der Tod ist eine Gewissheit, weil er übermenschlich ist - man könnte ihn mit Sicherheit als unmenschlich bezeichnen.

Wie beim autonomen Autounfall hängt alles von dieser technologischen Sicherheit ab. Von einem menschlichen Soldaten oder Polizisten wird aus rechtlichen oder ethischen Gründen nicht erwartet, dass er auf das Bein eines Ziels abzielt. Genauigkeit, egal in welcher Reichweite oder auf welcher Fertigkeitsstufe, ist für Sterbliche und noch viel weniger für adrenalingeladene Menschen nie eine sichere Sache. Ebenso kann nicht erwartet werden, dass selbst der erfahrenste und professionellste Fahrer das perfekte Manöver oder die ethisch "richtige" Entscheidung in Sekundenbruchteilen ausführt, die einer plötzlichen Autobahnkollision vorausgehen.

Wenn es jedoch möglich ist, dieses Maß an Präzision in eine Maschine einzubauen, ändern sich die Erwartungen unweigerlich. Die Hersteller von Robotern, die (obwohl beabsichtigt oder unfallbedingt) körperliche Schäden verursachen, müssten sich während der Entwicklung mit einer Reihe von Wagenproblemen befassen und klare Entscheidungen für jeden einzelnen treffen. Bewaffnete Bot-Designer könnten es relativ einfach haben, wenn sie in der Lage sind, Systeme so zu programmieren, dass sie Ziele lähmen, anstatt sie auszuführen. Aber wenn das die klare Entscheidung ist, dass Roboter den Tod von Menschen selbst unter Feinden aktiv reduzieren sollen, müssten Sie dann nicht akzeptieren, dass Ihr Auto Sie getötet hat, anstatt zwei Fremden?

* * *

Folgen Sie dieser Argumentation bis zu ihrem logischen Abschluss, und die Dinge beginnen, ein wenig Science-Fiction und mehr als ein wenig beunruhigend zu werden. Wenn Roboter erwiesenermaßen in der Lage sind, Menschenleben zu schonen und die Wenigen für das Wohl der Vielen zu opfern, welche Art von Monster würde sie anders programmieren?

Und doch würde niemand, der bei Verstand ist, ein autonomes Auto kaufen, das den Kunden ausdrücklich warnt, dass seine Sicherheit nicht an erster Stelle steht.

Das ist das Dilemma, vor dem Hersteller von Roboterfahrzeugen stehen könnten, wenn sie sich moralisch und ethisch verhalten und sie so auslegen, dass sie Verletzungen oder den Tod von Menschen ohne Diskriminierung begrenzen. Zu sagen, dass eine solche Zulassung die Akzeptanz autonomer Autos verlangsamen würde, ist eine Untertreibung. "Kaufen Sie unser Auto", witzelt Michael Cahill, ein Rechtsprofessor und Prodekan der Brooklyn Law School, "aber seien Sie sich bewusst, dass es über eine Klippe fahren könnte, anstatt ein Auto mit zwei Personen zu erwischen."

Okay, das war Cahills weggeworfene Hypothese, nicht meine. Aber so schwierig es auch sein mag, Autohersteller davon zu überzeugen, ihre eigenen Kunden unter den sprichwörtlichen Bus zu werfen oder ihre Hand mit Vorschriften zu zwingen, könnte es die einzige Option sein, die sie vor weitverbreiteten Rechtsstreitigkeiten schützt. Denn was auch immer sie tun - das Paar oder den Fahrer töten oder zufällig ein Ziel auswählen - dies sind ethische Entscheidungen, die im Voraus getroffen werden. Als solche könnten sie weitaus anfälliger für Klagen sein, sagt Cahill, da Opfer und ihre Familienangehörigen Entscheidungen sezieren und anzeigen, die nicht spontan getroffen wurden, „sondern weit im Voraus, und zwar bequem von Unternehmensbüros aus. "

In Ermangelung eines universellen Standards für eine integrierte Vor-Kollisions-Ethik könnten übermenschliche Autos Superschurken ähneln, die sich eher an den älteren Fahrer als an den jüngeren Investmentbanker richten - die Familie des letzteren könnte möglicherweise auf erheblich mehr Lohnausfälle klagen. Oder, weniger gruselig, die Konstrukteure des Fahrzeugs könnten Ziele auswählen, die ausschließlich auf Marke und Modell des Autos basieren. „Lenke nicht in Richtung Lexus, sagt Cahill. "Wenn Sie etwas treffen müssen, können Sie programmieren, dass es ein billigeres Auto trifft, da der Fahrer mit größerer Wahrscheinlichkeit weniger Geld hat."

Das bessere Szenario sieht immer besser aus. Tatsächlich würde ich behaupten, dass dies aus rechtlicher, moralischer und ethischer Sicht die einzig gangbare Option ist. Es ist beängstigend zu glauben, dass Ihr Roboter-Chauffeur möglicherweise nicht den Rücken hat und dass er Sie ohne einen Moment zu zögern von dieser Klippe starten würde. Oder noch seltsamer: Entwickeln Sie einen Plan unter den anderen, vernetzten Bots, der Ihr Auto auf den Weg eines rasenden Lastwagens bringt, um es von einem Schulbus abzulenken. Aber wenn die Roboter dieses Maß an Macht über Leben und Tod entwickeln, sollten sie es nicht verantwortungsbewusst einsetzen müssen?

„Das ist eine Sichtweise, dass die Schönheit von Robotern darin besteht, dass sie zu niemandem eine Beziehung haben. Sie können Entscheidungen treffen, die für alle besser sind “, sagt Cahill. "Aber wenn du in dieser Welt lebst, in der Roboter alle Entscheidungen getroffen haben, denkst du vielleicht, dass es eine Dystopie ist."

Das schmutzige Geheimnis des Recyclings: Die meisten Dinge, die recycelt werden könnten, sind es nicht

Das schmutzige Geheimnis des Recyclings: Die meisten Dinge, die recycelt werden könnten, sind es nicht

Schwerkraft und gutes Timing halfen dem Hubble, einen Stern aus dem frühen Universum zu erkennen

Schwerkraft und gutes Timing halfen dem Hubble, einen Stern aus dem frühen Universum zu erkennen

Diese Grafiken zeigen Amerikas komplizierte Beziehung zur körperlichen Betätigung

Diese Grafiken zeigen Amerikas komplizierte Beziehung zur körperlichen Betätigung