In der idealen Welt autonomer Autobauer rollt alles reibungslos dahin: Personen steigen in von unsichtbarer Hand geführte Karossen und lassen sich geschmeidig an ihr Ziel chauffieren; Güter rauschen ohne schlaftrunkenen Fahrer am Steuer in selbstfahrenden Lastern von A nach B – der Mensch denkt, der Algorithmus lenkt.

Dumm nur, dass es auch in der digital besten aller möglichen Welten diese lästigen unberechenbaren Störfaktoren gibt: selbstfahrende Menschen zum Beispiel. Ob beim Frontalzusammenstoß eines autonomen Google-Fahrzeugs mit einem Linienbus in Kalifornien oder dem Unfall mit Todesfolge, den ein Tesla-Auto in Amerika baute; ob im Fall des im Autopilot-Modus von Tesla gerammten Busses auf einer deutschen Autobahn oder bei der Kollision eines autonomen Uber-Taxis in Arizona mit einem Lastwagen – entweder heißt es: Nun gut, unsere Software hat da einen Fehler gemacht, der wäre nichts passiert, hätte sich das Auto nicht bewegt (ach!), oder es heißt, der Mensch dürfe sich eben nicht auf den bloß vermeintlichen Autopiloten verlassen, sondern müsse jederzeit „voll konzentriert“ Beifahrer spielen, der notfalls das Lenkrad rumreißt (aber warum dann nicht gleich selbst fahren?). Oder aber es waren – wie seit jeher im Straßenverkehr – eben die anderen schuld.

Den vollständigen Artikel finden Sie auf faz.net