Text - Martina bachler
Illustrationen – OD!ank 

Oma oder Kind
Es wird super, wenn Autos ganz von selbst durch die Gegend fahren. Wenn wir nicht mehr lenken müssen und Zeit für das Wichtige haben. Und wenn die Autos dann auch die moralischen Fragen für uns beantworten. Zum Beispiel: Niete ich die Oma um oder doch das süße Kind? 

Andy Greenberg ist mit etwa 100 Stundenkilometern unterwegs, als plötzlich die Klimaanlage zu zicken beginnt. Dann wechselt das Radio selbstständig auf einen Hip-Hop-Sender und die Scheibenwischer wischen los. Irgendwann streiken die Bremsen und auch mit dem Motor stimmt etwas nicht. Dem Journalisten Andy Greenberg ist das alles andere als geheuer, aber wirklich überrascht ist er nicht: Am Display lachen ihm Charlie Miller und Chris Valasek entgegen. Von ihrer Couch aus haben sie sein Auto gehackt, sie können damit machen, was sie wollen, ihre Testperson Greenberg hat die Kontrolle verloren.
In diesem Fall war das nur ein Test – der Autokonzern Fiat hatte Miller und Valasek engagiert, um etwaige Sicherheitslücken herauszufinden, und weil die beiden fündig wurden, hat Fiat deswegen 1,4 Millionen Jeep Cherokees zurückgerufen. Aber vielleicht ist das am Ende auch die Zukunft.

Willkommen in einer neuen Welt. Eine Welt, die zwar gruselig klingen mag, für manche Menschen aber gar nicht so gruselig ist. Denn was spricht dagegen, wenn das Auto einfach mit Autopilot fährt, während man selbst mit wichtigeren Dingen beschäftigt ist? Auf dem Weg ins Büro lassen sich dann schnell noch die Nägel machen oder das Hemd wechseln und die Mails checken. Alles viel einfacher, wenn man nicht gleichzeitig auf rechts vorbeischießende Radfahrer, die Ampelschaltung oder lustige deutsche Studenten achten muss, die an der Kreuzung mit drei Bällen zu jonglieren versuchen. Alles sicherer und billiger und umweltfreundlicher auch, weil das selbstfahrende Ding sich sklavisch an alle Verkehrsregeln hält und Wege und Spritverbrauch optimiert.
So zumindest wird es versprochen, und was, wie das Google Car, nach einem Pandababy aussieht, das lügt bestimmt nicht.

Bildschirmfoto 2015-11-11 um 12.46.39

Fast die gesamte Autoindustrie arbeitet seit Jahren daran, dass K.I.T.T. endlich Wirklichkeit wird. Die Alles-Vernetzer Google und Apple sowie das chinesische Baidu sind auch dabei, und weil das selbstfahrende Auto demokratisierend Taxifahren für alle bedeuten wird, hat sich auch das US-Start-up Uber dahinter geklemmt. Bei Uber, das bisher unterbezahlte Teilzeittaxler durch die Gegend schickt, haben die beiden Jeep-Cherokee-Hacker Miller und Valasek ihren nächsten Job – damit nichts schiefgeht. Damit niemand von außen sagt, hach, jetzt leite ich dich mal eben nach Minsk um, obwohl du eigentlich nach Marbella fahren willst. Damit die Maschine ganz selbst entscheidet, auf Basis ihrer Daten, und bloß kein Mensch dazwischenfunkt. Wir müssen uns nur mehr zurücklehnen, das Auto einfach machen lassen und darauf vertrauen, dass es schon das Richtige tut.

Aber was heißt das überhaupt, dass das Auto entscheidet, wo es langgeht?

Was bedeutet es, wenn nicht mehr die freiheitsliebenden Cowboys und Cowgirls der Straße die Zügel in der Hand haben, sondern eine neue Siri ihnen sagt, was passiert? Vor allem aber: Was ist das Richtige?

Zum Beispiel in dieser Situation: Ein selbstfahrendes Auto ist im bergigen Gelände unterwegs, fährt die Serpentinen runter, biegt ums Eck und stellt fest: Hui, eine Touristengruppe überquert die Straße, bremsen geht sich nicht mehr aus. Ein Mensch würde in dieser Situation intuitiv handeln und sich danach Jahre lang mit einem schlechten Gewissen quälen, weil er vielleicht besser reagieren hätte können.

Das Auto hat drei konkrete Möglichkeiten: Weicht es nach rechts aus, landet es im Graben, die vier Insassen sind wahrscheinlich tot. Weicht es nach links aus, überfährt es genauso sicher Touristen, die noch am Straßenrand stehen, wie wenn es weiter geradeaus fährt und diejenigen umräumt, die schon am Überqueren sind. Das Auto wird tun, was ihm die Programmierer bis dahin beigebracht haben, in einer solchen Situation zu tun. Wir Mitfahrer haben es gut: Uns trifft keine Schuld.

Das Auto aber steckt in einem ethischen Dilemma, und es ist klar, dass es nicht bei diesem einen bleiben wird. Spätestens seit das Anfang des Jahres auch Dieter Zetsche, der schnauzbärtige Vorstandsvorsitzende von Daimler, gefordert hat, diskutieren über Lösungsmöglichkeiten nicht mehr nur Technikpessimisten. Bis dahin wurde in der Industrie in erster Linie die neue Technologie selbst zur ethischen Entscheidungsfrage stilisiert: Autoroboter sollen schließlich vor allem Leben retten, denn von den bisher 1,3 Millionen Verkehrstoten pro Jahr geht der Großteil auf menschliches Versagen zurück. Sie sollen Menschen mobil machen, die es bisher aufgrund von körperlichen Einschränkungen nicht waren. Und in Echtzeit bestens vernetzt sollen sie dazu beitragen, dass der ganze Verkehr effizienter funktioniert.

Die wichtigste ethische Frage war deshalb bisher: Warum kommen selbstfahrende Autos nicht schneller auf den Markt?

Lange hat man gehofft, dass selbstfahrende Autos so fantastisch werden, dass sich aufgrund der technischen Versiertheit brenzlige Situationen gar nicht erst einstellen würden. „Risiken hätten die Vermarktung des neuen Lifestyles gestört, heute sieht man das in der Industrie aber anders“, sagt etwa Markus Maurer. Der Professor für Elektronische Fahrzeugsysteme an der Technischen Universität Braunschweig forscht seit 22 Jahren zu selbstfahrenden Autos. Techniker können nur technische Lösungen anbieten, sagt er, bewerten müsse diese dann – die Gesellschaft.

Also müsse man diskutieren. Eine Grundlage dafür ist das im Mai erschienene Kompendium der Daimler und Benz Stiftung. Neben Maurer hat dazu auch Patrick Lin beigetragen, Direktor der Ethics and Emerging Sciences Group an der California Polytechnic State University. Die Dilemmata, die wir exemplarisch in den Illustrationen zeigen, hat er durchgespielt.

Was heißt es also für Programmierer, wenn sie das Auto darauf vorbereiten müssen: Fahr ich jetzt Oma und Kind um, weil ich nicht mehr bremsen kann, oder nur einen von beiden? Treffen wird diese Entscheidung der Algorithmus des Autos. Die erste Anweisung könnte sein, nur einen der beiden Fußgänger zu erwischen. Im Zweifel die Großmutter, werden manche Menschen dann sagen. Sie hat ihr Leben quasi hinter sich, das Kind seines noch vor sich. Vielleicht würde das sogar die Großmutter selbst so sehen.

Aber ist das auch ethisch korrekt? Widerspricht es nicht jeglichen Gleichheitsgrundsätzen, wenn es im Zweifel den Älteren erwischt? Stirbt als Nächstes der Arbeitslose, wenn man damit einen Arzt retten kann? Schiebt das Auto den Motorradfahrer mit Helm um, weil er höhere Überlebenschancen hat als jener, der ohne Helm fährt? Und was tut das Auto-Selbst, wenn es die Wahl hat, sich selbst und seine vier Insassen zumindest schwer zu verletzen, dafür aber eine ganze Gruppe Kinder zu retten?

Ethikunterricht für Algorithmen

Das alles sind Fragen, auf die es noch wenige klare Antworten gibt. Volvo, zum Beispiel, sagt bisher, keine Art von Hierarchien ziehen zu wollen. Auch Entwickler der Autonomous Labs der FU Berlin betonen, dass ihr Auto alle Verkehrsteilnehmer gleich behandeln würde. Generell halten sich Konzerne und Zulieferer einstweilen sehr damit zurück, konkrete Vorschläge zu machen. Aber irgendwann werden sie nicht mehr darum herumkommen. Spätestens wenn sich der Gesetzgeber einschaltet.

In Bezug auf technische Innovationen sind ethische Fragestellungen aber nicht gänzlich neu, und oft rufen sie mulmige Gefühle hervor: Schon jetzt nimmt man für eine gewisse Anzahl von Leben, die etwa durch einen Airbag gerettet werden, in Kauf, dass dieser auch ein paar Todesfälle auslösen wird. Bei selbstfahrenden Autos wird es aber deutlich komplexer werden. „Hier geht es nicht um überschaubare U-Bahn-Trassen, wo es keinen Verkehr gibt, der von der Seite kommen kann, hier geht es um schwer prognostizierbare Situationen, bei denen auch Busse, Radfahrer und Fußgänger mitspielen“, sagt Gerald Steinhardt, Techniksoziologe und Dekan der Fakultät für Informatik an der TU Wien.

Aber wie bringt man Algorithmen Ethik bei? „Als Basis können zum Beispiel die drei Asimovschen Gesetze dienen“, sagt Robert Trappl, Kybernetiker und Artificial-Intelligence-Forscher in Wien. Der Science-Fiction-Autor und Biochemiker Isaac Asimov hat sie in seiner Kurzgeschichte „Run­around“ (1942) definiert und damit unsere Auffassung davon geprägt, nach welchen Prinzipien ein Roboter handelt.

Bildschirmfoto 2015-11-11 um 12.46.57

Sie sind hierarchisch aufgebaut:
1) Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
2) Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
3) Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Folgt das selbstfahrende Auto diesen Gesetzen, müsste es eigentlich in allen heiklen Situationen vor allem eines tun: sich schnellstmöglich abschalten. Folgt es wiederum einem strengen Utilitarismus, werden die Entscheidungen im Ernstfall zu recht simplen Rechenübungen: Das einzige Ziel des Autos ist es dann, möglichst wenig Schaden zu verursachen, also möglichst wenige Tote und Verletzte. Aber würde man sich wirklich gemütlich im Auto die Nägel machen, wenn man weiß, dass es im Zweifel lieber sich und einen selbst in den Graben schickt als das entgegenkommende Auto, wenn dort vier Menschen mitfahren?
Eine dritte Möglichkeit könnte sein, die Entscheidung schlicht dem Zufall zu überlassen. Dann könne man, so der Autoethikexperte Patrick Lin, aber gleich wieder den Menschen ans Steuer setzen. Auch wird sich dann irgendwann die Schuldfrage stellen: Hätte das Auto es wissen können, dass durch die Zufallsentscheidung jemand unnötig stirbt? Das, was wie ein menschlicher Affekt aussehen sollte, wäre dann vielleicht Mord. Werden wir Automitfahrer überhaupt wissen, nach welchen Kriterien unser Auto entscheidet?

Und wer wird dann dafür haften: der Autobesitzer, der Hersteller oder der Staat, der das Auto zugelassen hat?

„Wir haben für all die ethischen Themen noch Zeit“, beruhigt Markus Maurer, und zwar den lustigen Google Cars, die über kalifornische Autobahnen schleichen, und all den anderen Prototypen zum Trotz. Er rechnet damit, dass Autos frühestens 2030 so weit sein werden, wirklich an die Wahrnehmungsfähigkeiten des Menschen heranzukommen.

Doch es geht voran: Schon 2017 soll ein Audi A8 ohne Mensch auf Autobahnen zurechtkommen, zumindest bis zu einer Geschwindigkeit von 60 Stundenkilometern. Im gleichen Jahr will Volvo die ersten 100 Exemplare seines autonomen Autos in den Göteborger Alltag werfen.
Noch sind die technischen Herausforderungen aber riesig: Die Autos müssen mit Hilfe von Kameras, Radaren und Sensoren in Echtzeit erkennen, was sich auf und um die Straße herum abspielt, ihre Karten müssen immer am neuesten Stand sein, sie müssen Schilder lesen können und Tiere von Menschen, Menschen von Fahrzeugen und Fahrzeuge von Hindernissen unterscheiden. Und sie müssen all das so gut können, dass wir ihnen vertrauen. Auch bei Nebel, Schnee, Regen und in der Nacht. Sonst können wir’s ja gleich selbst machen.

Bildschirmfoto 2015-11-11 um 12.47.12

„Bisher sind allerdings keine Grenzen der technischen Lernfähigkeit zu erkennen“, sagt AI-Forscher Robert Trappl. Dennoch gibt es auch Zweifel daran, ob das ganz auf sich gestellte Auto, das wie das Google Car ohne Lenkrad und Pedale ausgestattet ist, je wirklich auf den Markt kommen wird. Zu den Zweiflern zählt zum Beispiel der bisherige Porsche-Chef und neue Vorstandsvorsitzende der Volkswagen AG Matthias Müller. Auf der Frankfurter Automesse nannte er das selbstfahrende Auto einen Hype, der durch nichts zu rechtfertigen sei.

Das Kernproblem? Der Ernstfall

„Ich frage mich immer, wie ein Programmierer mit seiner Arbeit entscheiden können soll, ob ein autonom fahrendes Auto im Zweifelsfall nach rechts in den LKW schießt oder nach links in einen Kleinwagen.“ Auch für den Techniksoziologen Gerald Steinhardt ist das vollkommen autonom fahrende Auto noch relativ weit weg. Das liegt an technischen Problemen, offenen Haftungsfragen und auch daran, dass unklar ist, ob es die öffentliche Hand oder die Industrie sein wird, die in neue Infrastruktur wie Sensoren und Kennzeichnungen investieren werden. Solche finanziellen Aspekte können für Unternehmen immer ein Faktor sein, ob sie die Weiterentwicklung einer Innovation forcieren oder nicht, so Steinhardt.

Er kann sich vorstellen, dass sich zumindest noch eine Zeit lang eine Kombination aus Mensch und Maschine bewährt. Schon jetzt bieten Autohersteller gewisse Automatisierungen an, von der Einparkhilfe, dem Tempomat bis hin zur automatischen Bremse, und da könnte noch einiges dazukommen. Es könnte dann aber weiterhin Situationen geben, in denen das Auto dann sagt: Mensch, jetzt übernimmst du. „Das bedeutet aber, dass wir das Auto beim Fahren weiterhin überwachen müssen, und das könnte fast anstrengender sein als das Fahren selbst, weil es unendlich langweilig und konzentrationsaufwendig ist“, sagt Steinhardt.

Vielleicht gibt es ihn dann ja doch noch, den Moment, in dem der Held zur Tat schreitet. Und vielleicht macht das den ganzen Kontrollverlust für all jene wett, für die zur Freiheit des Autofahrens auch gehört, dabei Scheiße zu bauen.

Bildschirmfoto 2015-11-11 um 12.47.23

Erschienen im Herbst 2015

Share