Dienstag, 25. Dezember 2012

Maschinenethik - Wer entscheidet, wen mein selbstfahrendes Auto überfährt?

Mit den Fortschritten, die Robotik und Automatisierungssysteme machen, zeichnet sich nicht nur perspektivisch ab, dass wir in nicht allzu ferner Zukunft manches Sci-Fi-Element als Alltag erleben. Es tauchen auch ein paar Fragen auf, die eigentlich sehr alte Debatten fortführen, die wir aber noch nicht wirklich gelöst haben.

Etwa: Wie definieren, modellieren und programmieren wir ethisches Verhalten? Wie verändern und verschieben sich Verantwortlichkeiten durch Automatisierung?

Um es plastischer darzustellen: Wer ist eigentlich schuld, wenn mein selbstfahrendes Auto jemanden überfährt? Ich als Fahrer bin ja eben das nicht mehr, sondern Passagier statt Akteur. Eine Ecke weiter gedacht: Wie entscheidet das Auto in einer Situation, in der - durch äußere Umstände bedingt - auf jeden Fall jemand zu Schaden kommt? Wenn es sich in einem Szenario befindet, in dem eine sichere, niemanden gefährdende Lösung ausgeschlossen ist, etwa weil rechtzeitiges Halten nicht mehr gelingen kann - fährt es dann die Fußgänger vor sich um oder rammt es den entgegenkommenden Laster? 

Rammt es den gern als Klischee bemühten Schulbus voller Kinder oder schanzt es sich samt Fahrer gegen einen Brückenpfeiler?

Bild: Flckr user jurvetson (Steve Jurvetson). Trimmed and retouched with PS9 by Mariordo // Wikimedia Commons.

Was hier abstrakt klingt, ist dank Google & Co. gar nicht so weit weg. Der Suchmaschinenriese testet seine selbstfahrenden Autos schließlich seit einiger Zeit erfolgreich. Um genau zu sein, haben sie schon vor einer ganzen Weile 300.000 unfallfreie Meilen zurückgelegt, besser als der durchschnittliche US-Autofahrer. Natürlich fahren die Autos momentan noch unter Aufsicht, für die jeweiligen Streckenabschnitte wird die Software optimiert und sie sind mit Sensorik unterwegs, die schon allein mehr als ein Mittelklassewagen kostet.

Auf dem langen Weg, den sie noch vor sich haben, bis sie tatsächlich reif für Straßenzulassungen ohne Experiment-Charakter sind, müssen aber neben technischen Dingen in der Tat noch ein paar interessante Fragen geklärt werden. Im Folgenden also ein paar lockere Überlegungen. (Hier geht es mir eher um das Erkennen der Fragen als das Finden von Antworten.)


Denn bei selbstfahrenden Autos wie auch bei für militärische Zwecke gebauten Robotern kommen auf einmal Fragen der Verantwortung jenseits direkter Kontrolle und der Ethik von Maschinen ins Spiel. Bleiben wir bei den Autos: Wie soll eine Entscheidungsmatrix aussehen für den Fall, dass das Auto Schaden nicht vermeiden kann? Wie soll es eine Abwägung hier berechnen und nach welchen Kriterien?


Wer entscheidet, wie mein Auto entscheidet?


Mal davon abgesehen, dass wir hier schon bei der Erfassung der Situation von komplexen Dingen reden, ist die Bewertung im Abstrakten ja der eigentliche Knackpunkt. Denn wie entscheidet das Auto in einer Situation, in der auf jeden Fall jemand Schaden nehmen wird? Und, ähnlich spannend, wer entscheidet, wie das Auto entscheidet? Die Computersysteme können schließlich nur ihrer Programmierung folgen. Wir haben es nicht mit Intelligenz im Sinne von Bewusstsein zu tun, ein Google-Auto ist keine Christine wie bei Stephen King. Der einzige Geist in der Maschine ist der, der ihr einprogrammiert wurde.

Wir reden aber bei Abwägungen in solchen Szenarien von Dingen, bei denen nicht einmal wir Menschen uns einig sind. Die Entscheidung, ob ich lieber den LKW ramme als die Fußgänger, lieber den Schulbus ramme als den Betonpfeiler, treffen ja Menschen schon nicht einheitlich. Wie soll man sie da in einen Algorithmus packen?

Und wer entscheidet, ob unsere Autos utilitaristisch, altruistisch oder wie auch immer entscheiden? Das jeweilige Verkehrsministerium durch Vorgaben zum Straßenverkehr? Tempo 120, Autobahnmaut, Fußgänger vor Laster?

Oder der Hersteller? Analog zum unterschiedlichen Crashverhalten und der Philosophie dahinter könnten Marken dann auch unterschiedliches Unfallverhalten zeigen. Fahrzeuge wie der Golf sind ja ohnehin eher aggressive Crashpartner. Entschiede der Hersteller und böte Charaktersimulationen an, die zu seiner Markenwelt passen - dann ließe sich in Zukunft vielleicht tatsächlich sagen, Fahrer der Marke X sind alles Egoisten. Oder es wäre zumindest klar, dass ihre Fahrzeuge ein derartiges Verhalten simulieren.

Naheliegender wäre ja, es zum Teil des Konfigurationsprozesses zu machen. Wenn der Käufer festlegen kann, welche Farbe, welche Ausstattung, welche Felgen sein Auto hat, warum nicht auch dessen Entscheidungskriterien? Die Folge wäre wohl ein Psychotest, in dem der Fahrer sich zu Situationen äußert und so das Crashverhalten seines Autos festlegt. Szenarien hätten den Vorteil, dass sich daraus besser Kriterien modellieren lassen als aus abstrakten Konzepten. Und es würde das Fahrzeugverhalten dem Eigner anpassen. Denn um ethische Richtlinien, Richtig und Falsch streiten sich Menschen seit Jahrtausenden. Wenn wir das schon in langen Gesprächen und Debatten nicht klären können, ist es eher unwahrscheinlich, dass wir uns auf einen Algorithmus für alle einigen könnten.
 
Ein anderer interessanter Punkt bei autonomen Systemen ist: Wo liegt die Verantwortung? Tatsächlich selbstfahrende Autos würden auch komplett andere Haftungs- und Versicherungsstrukturen nach sich ziehen. Denn die Erfahrung des Eigners kann keine Rolle spielen, wenn er nicht steuert. Und bei normalen Unfällen gilt dann auch: Wer nicht steuert, kann kein schuldhaftes oder fahrlässiges Verhalten an den Tag gelegt haben. Macht das Unfälle dann zu Garantiefällen? Haftet der Hersteller für nicht korrekt funktionierende Software? Aber das öffnet ein anderes Feld. Bleiben wir mal dabei, wie eine Maschine ethisch entscheiden soll.


RoboCop trifft Eichhörnchen


Entsprechende Algorithmen zu programmieren würde ja immer noch kompliziert genug. Es gibt eine ganze Reihe von Wissenschaftlern, die sich dem Feld Maschinenethik widmen. (Etwa in Oxford, Yale oder am etwas schrägen Singularity Institute.) Ein durchaus interessantes Gebiet, denn je autonomer Maschinen werden, umso relevanter wird die Frage, nach welchen Regeln und Kriterien sie entscheiden sollen. Isaac Asimov hilft uns da nicht wirklich weiter. Und es gibt ja Einsatzfelder, in denen entsprechende Problemstellungen einen integraleren Bestandteil darstellen als bei Fahrzeugen.

Umstritten sind schließlich auch Roboter für den militärischen Einsatz. Manche Gruppierungen wollen den Einsatz autonomer Roboter ähnlich ächten wie den von Antipersonenminen. Was nicht passieren wird. Ohnehin handelt es sich bei der Haltung "Maschinen dürfen keine Menschen töten" eher um Gesinnung als Argumentation. Denn der Einsatz entsprechender Roboter böte ja unbestritten auch Vorteile, rein rational betrachtet. Fehlfunktionen mal außen vor gelassen, treten klassische menschliche Aussetzer nicht auf. Natürlich ließe sich derartige Technologie auch mißbrauchen, aber das ist meist der Fall.

Der Roboter hat freilich kein Mitleid mit dem Gegner, den er weisungsgemäß ausschaltet. Er klinkt aber auch nicht aus und massakriert Zivilisten, vergewaltigt halbe Dörfer oder foltert Gefangene. Er macht schlicht das, worauf er programmiert wurde. (Der Sinn des Drills in vielen Armeen rund um die Welt liegt ja gerade darin, letzteres zu erreichen.)

Das heißt aber auch, dass die Krux genau darin liegt: Wie programmiert man eine derartige Maschine? Ein Team an der Georgia Tech ist gerade dabei, Robotern das Täuschen beizubringen. Um genau zu sein, geht es dabei um ein kleines Scout-Gefährt, das darauf programmiert wird, falsche Fährten zu legen. Womit sich Gegner nicht nur verwirren, sondern perspektivisch auch in Hinterhalte locken ließen. Die Forscher orientieren sich dabei am Verhalten von Eichhörnchen und Vögeln. So sieht das Ganze in der Praxis aus:





Die kybernetische Mimikry des Maschinen-Golem 

 

Im Endeffekt geht es im Kontext von Maschinenethik und Roboterprogrammierung ganz häufig um die Simulation von Verhalten, um, sagen wir, kybernetische Mimikry. Zunächst hat das Äußerlichkeiten und Bewegungsmuster betroffen. Die Art, wie ein Chassis geformt wurde, wie sich Maschinen bewegen, lehnt sich oft genug an Vorbildern aus der Natur an. Bei zumindest teilautonomen Systemen geht es nun darum, auch Vorbilder für Verhalten zu finden und Wege, dieses Verhalten für eine Programmierung zu modellieren. Je komplexer die Roboter dabei werden, umso entwicklungsgeschichtlich höher sind auch ihre Vorbilder angesiedelt.

Googles selbstfahrende Autos etwa müssen in Teilen menschliche Fahrer simulieren. Eines der größten Probleme für Google war das Verhalten an Vier-Wege-Kreuzungen. Im Endeffekt mussten sie den Fahrzeugen einprogrammieren, in der Kreuzung nicht zu warten, sondern ein Stück einzufahren. So sollen sie den Willen, ihre Vorfahrt zu erhalten, bekunden. Ein Verhalten, dass die Fahrzeuge deshalb simulieren müssen, damit sie nicht ewig und drei Tage an der Kreuzung stehen und warten.

Das heißt auch: Um derartige Programmierungen richtig vorzunehmen, müssen Menschen ihre Umwelt und ihr eigenes Verhalten so genau und unverfälscht erkennen, dass sich daraus Modellierungen ableiten lassen. Über abstrakte, diffuse Sachverhalte und Verhaltensweisen müssen wir so viel Klarheit gewinnen, dass wir sie weiter geben können.

Anders gesagt: Um uns im Blick des Golems zu erkennen, müssen wir uns vorher selbst kennen. Nur dann finden wir die richtigen Worte für die Tontafel, die ihn zum Leben erweckt.


Lesetipps:
Moral Machines
Morals and the Machine
March of the Robots
Deceptive robots mimic squirrels and birds for potential military use
Yes, Driverless Cars Know the Way to San Jose



Verwandte Artikel:
Planetary Resources und die Kickstarter-Kampagne fürs eigene Weltraumteleskop 
Amazon und sein Zukauf Kiva Systems: Domo Arigato, Mr. Roboto-Lagerist 
Ist es ein Vogel? Ist es ein Flugzeug? Nein, es ist eine autonome Drohne!

 

 

Keine Kommentare:

Kommentar veröffentlichen