Autonomes Fahren – Die ersten richtigen Probleme

Es war nur eine Frage der Zeit bis ein Unglück passiert und die Branche erschüttert.
Wie mitgeteilt wurde kam es bereits im Mai zum ersten Todesopfer des autonomen Fahrens. Bei einer Testfahrt hat der Fahrer eines Tesla Model S auf Autopilot geschaltet. Dieser Autopilot übersah jedoch tragischer weise einen LKW, worauf es zum Unfall kam. Der 40-jährige Testfahrer kam dabei ums Leben.

Wie die Sensoren des Elektroautos den LKW ignorieren konnten ist noch unklar. Tesla teilte jedoch mit, dass die Kameras die weiße Seite des Lastwagens „übersehen“ hat.
Mit Sicherheit kann man es noch nicht sagen, da die Ermittlungen noch laufen.

Was bedeutet das für die Pläne des autonomen Fahrens? Was Entwicklung betrifft: Nicht viel, außer vielleicht eine Rückrufaktion bei der die Software gepatcht wird oder eventuell neue Kameras, sofern die Vermutung von Tesla stimmt.

Was die potenziellen Kunden betrifft: Das könnte ein Schlag mitten ins Gesicht sein und einige Leute verängstigen. Sollten Sensoren, Kameras und Messgeräte nicht genau solche Unfälle verhindern? Ging man nicht davon aus dass eben dieses autonome Fahren generell am sichersten sein soll?

Ich persönlich halte von solchen Aussagen gar nichts. Zumindest in diesem Jahrtausend nicht…

Es wird in absehbarer Zeit kein Auto geben, welches zu 100% zu jedem Zeitpunkt das richtige entscheidet. Ob es nun ausweichen soll, bremsen soll, was es erkennt, was es nicht erkennen soll.
Dafür sind unsere Technologien noch viel zu jung und fehlerhaft. Aus diesem Grund sollen auch die Testfahrer von Tesla immer aufpassen was der Autopilot macht und im Bedarfsfall eingreifen.
Die Fälle in denen der Computer dann falsch reagiert, werden dann dokumentiert und untersucht.

Und es werden auch immer Unfälle passieren können wenn auch jedes Auto einen Autopiloten aktiviert hat. Hinter dem ganzen System steckt immer die Software. Und es gab noch kein Programm, welches noch nie abgestürzt ist oder kein Update benötigte. Wie lange versuchen schon Entwickler von Rennspielen die perfekten KI-Fahrer zu programmieren?
Trotz Jahrzehntelanger Weiterentwicklung sind diese oft selbst nicht in der Lage einem stehenden Fahrzeug auszuweichen.

Ich finde die Entwicklung autonomer Autos durchaus sinnvoll als Hilfe und Unterstützung.
Jedoch nicht als Fahrerersatz! Es ist eine gute Sache wenn das Fahrzeug im NOTFALL abbremst. Aber dazu soll es gar nicht kommen müssen.

Stellt man sich zum Beispiel vor, es fahren 100 Autos auf der Straße. 50 davon mit Autopilot, der Rest auf normalem Weg. Es ist unberechenbar wie ein Autopilot Reagieren soll falls ihm ein Fahrer entgegenkommt. Dem selbst fahrenden Auto kann man keine Handzeichen geben, oder mit der Lichthupe warnen. Das ganze System ist einfach noch nicht ausgereift genug um dem Fahrzeug die 100%-ige Kontrolle zu überlassen. Daher hätte leider auch der Tesla-Pilot früh genug eingreifen sollen.

Ich persönlich würde nie mein Leben einem Bordcomputer in die Hand drücken.  Man sollte die Forschung lieber weiter auf Alternativenergien setzen. Assistenzsysteme gibt es in meinen Augen bereits genügend.

Schreibe einen Kommentar

Your email address will not be published.