Brett hat geschrieben:Ich hab jetzt absichtlich nicht die eigentliche Zuverlässigkeit und Sicherheit von Autopiloten angesprochen, das überlasse ich gern weiterhin dem Stefant.
Was die Zuverlässigkeit betrifft, kann ich nicht viel sagen, aber zum derzeitigen Zeitpunkt (und auf absehbare Zeit sicher auch) ist schon recht erstaunlich was alles geht, aber würd ich mein Leben drauf wetten? Sicher nicht.
Was die Sicherheit betrifft: Das traurige ist, selbst mit dem derzeitigen Stand bringt ein Autopilot vermutlich mehr Sicherheit als ohne. Man braucht sich nur anschaun, mit welchem Abstand die Leute hier in Ö auf der Autobahn/am Gürtel/im Kreisverkehr/.. fahrn. KEIN Autopilot weder jetzt noch sonst wann würd so fahren.
Es gibt natürlich auch verschiedene Levels an Autopilot, und die sind grundsätzlich verschieden:
1) Fahrhilfen, wie Einparkhilfe, automatische Bremssysteme / Abstandhalter, ..: funktionert relativ gut, weil der Einsatzbereich bzw Aufgabenbereich sehr eingeschränkt und kontrolliert ist. Einparken geht sehr langsam auf geringem Platz. Automatisches Bremsen verringert nur Geschwindigkeit, wenn irgendwas mit zu wenig Abstand grad voraus vorm Auto ist.
2) Fahrerunterstützter Autopilot: Auto hält die Spur und Geschwindigkeit selbst, bremst selbst. Der Fahrer ist aber immer noch in der Loop, und muss jederzeit eingreifen können, wenn er irgendwas erkennt, was das Auto nicht erkennt, oder das Auto was falsch erkennt. Das ist das was Tesla aber auch Mercedes und andere gerade auf den Markt schleudern, und Google schon lang dran bastelt.
3) Vollständig autonomes Fahren, wie es Google am Ende vorhat. Der Fahrer gibt nur mehr das Ziel ein, das Auto macht wirklich alles andere, Verkehrssituation erkennen, losfahren, Kreuzungen, ..; Egal was Google sagt, ich glaube nicht dass das wirklich so bald auf den Markt kommt. Im gegensatz zu 2) gibts hier nämlich wirklich keinen Fahrer mehr, auf den man sich bei einem Unfall rausreden kann, bzw auf den die Software zurückgreifen kann, wenn sie sich nicht mehr auskennt. D.h. sie muss wirklich *alle* Verkehrssituationen "richtig" behandeln, und darin liegt die große Schwierigkeit. Das fängt schon damit an, dass man der Software mal den Vertrauensgrundsatz beibringen muss, genauer, wie sie erkennt wer vertrauenswürdig ist. Und wer da vermutlich trotzdem einfach die Fahrertür aufreißt am Parkplatz weil er am Handy telefoniert, auch wenn er eigentlich das kommende Auto grad ansieht. Kann mir keiner erklären dass das in absehbarer Zeit je wirklich zuverlässig funktionieren wird.
Der Trick ist, 2) funktioniert (halbwegs) gut auf der Autobahn, wo alle in die gleiche Richtung fahrn, wo es klare Spuren gibt, keine Kreuzungen und Abzweigungen. Grad auf der Autobahn ist aber dafür auch die Geschwindigkeit extrem hoch, und grad Mercedes hat da ziemlich Probleme damit, dass das Auto nicht zu ruckartig innerhalb der Spur lenkt oder zum schaukeln anfängt. Das ist *extrem* unangenehm, obwohl das eigentlich eine recht simple Aufgabe sein sollt. Tesla macht das aber anscheinend besser. Der Vorteil auf der Autobahn mit Autopilot ist, dass man nicht *permanent* den Vordermann anschaun muss, was Ermüdung und Tunnelblick reduziert, wodurch lange Fahrten letztlich sicherer werden. Außerdem kann die Elektronik schlicht viel besser Abstand halten und viel schneller auf die Bremse hupfen. Wie beim Tempomat darf man sich aber klarerweise nicht einfach schlafen legen. Mercedes hat nen Sensor am Lenker, der checkt ob man eh brav weiter die Hände am Lenker hat, Tesla prüft zumindest ob man im Sitz sitzt und die Türen zu sind. Wenn aber wer ne Wasserflasche auf den Lenker stellt und nen Sandsack auf den Sitz stellt, dem ist halt nicht zu helfen. Das ist genauso wie wenn man bei nem normalen Auto den Tempomat einschaltet und Zeitung liest oder nen Ziegelstein aufs Gaspedal legt. Natürlich gibts immer wieder Trotteln die das machen, aber es gibt auch anscheined genug Leut die ihre Katze in die Mikrowelle stecken (und nicht um die Katze zu grillen). Ist das dem Hersteller anzukreiden, wenn die Leute mit seiner Motorsäge andere Leute durchsägen? Heutzutage ist es anscheinend selbstverständliich geworden, dass man das Recht hat dämlich zu sein, und man als Verbraucher nix falsch machen können darf. Auch so etwas wo die Gesellschaft grundlegend falsch abgebogen ist und man nicht einfach durch noch mehr Technik ne Lösung finden wird.
2) funktioniert aber noch viel besser wenn man im Stau steht oder Schlange fährt. Da braucht das Auto nämlich nur dem Vordermann nachfahrn und drauf schaun dass es genug Abstand hält und nicht wem reinfährt. Das ist vergleichsweise simpel, und man hat es naturbedingt mit wesentlich geringeren Geschwindigkeiten zu tun, was sowohl dem Fahrer etwas mehr Zeit gibt eingreifen zu können, als auch das Spur halten und lenken und schlimmstenfalls den Unfall nicht allzu kritisch macht. Aber grad diese Staus und Kolonne fahrn ist für einen Menschen ziemlich zach, und da kann der Autopilot wirklich auftrumpfen, wenn man da im Stau einfach beim Fenster rausschaut und nicht auf den Deppen vor einem der 3x Spur wechselt auf 100m. In New York gibts angeblich schon 1% Teslas, weil sich dort so ein Autopilot wirklich bezahlt macht.
3) wird denk ich noch lange Zeit ein echtes Problem sein, und da wirds sicher einige Unfälle geben, weil die Software Blödsinn macht. Und sofern man nicht eine Bilderkennungssoftware mit sozialer Kompetenz baut, wird es immer Situationen geben in denen es daneben geht.
Aaaaaber: Das funktioniert in beide Richtungen. So wie die Menschen im Alltag gelernt haben, dass man nicht einfach blind auf die Straße vor die Autos hupft, weil *kein* Auto das je derbremsen würd, ob Kind oder Erwachsener (am Radweg müssen sies erst lernen), und man als Autofahrer nicht versucht die Bim abzudrängen, werden die Leut auch lernen, gewisse Dinge nicht zu machen wenn ein Google Auto herkommt (aber man kann seinen rechten Arm drauf wetten, dass es immer genug Leute geben wird, die jede Gelegenheit nutzen werden, vor ein Google Auto zu springen um es zum halten zu zwingen, quasi als DoS Attacke, oder um zu testen wie gut es bremsen kann). Dann passt man eben erst recht auf wenn man die Autotür aufmacht, und gut ist.
Insofern glaub ich kommt man/Google mit einigen relativ einfachen Regeln und einem Haufen Sensoren schon recht weit. Auf alle Fälle jedenfalls weiter als wenn die Leute selber fahren. Die Statistik ist etwa 1:260, dass man in einen tötlichen Autounfall verwickelt ist. Das sollte zu schlagen sein.
Das Hauptproblem was ich grad bei 2) und bei 3) seh ist, dass ab einer gewissen Komplexität der Software es so aussieht als wäre sie tatsächlich intelligent und könnte eigentlich alles handlen. Die tatsächlichen Regeln sind nicht mehr nachvollziehbar, d.h. man kann als User nicht sagen, Aha, das kommt die Situation XY grad, da wird das Auto genau so reagieren, da greif ich lieber gleich mal ein. Das geht bei so einfachen, recht starren Hilfen wie 1) noch, ein klein wenig noch bei 2) aber das wars. Und dann wirds eben gefährlich weil die Leute den Respekt davor verlieren und so deppate Dinge machen wie sich auf den Rücksitz setzen, oder das Auto einfach in die Rote Ampel reinlaufen lassen. Da dem Fahrer die Schuld zu geben ist dann schon grenzwertig, weil wenn er nicht genau weiß wie das Auto entscheidet, woher soll er dann wissen wo er dem Auto vertrauen darf und wo nicht.
Das ist ja auch das Problem bei 2), grad auf der Autobahn: Die Hersteller verlangen, dass der Fahrer jederzeit eingreifen kann.. aber das muss echt schnell gehn, und woher soll der Fahrer wissen, dass er gleich gebraucht wird. Tesla piept halt, wenn er sich nicht auskennt, was soviel heißen kann wie: Ich hab *jetzt* keine Ahnung mehr wo die Straße weitergeht, du hast 0.5sek Zeit einen Unfall zu vermeiden.
Mercedes erlaubt dem Fahrer immerhin großzügige 10sek, innerhalb denen er wieder übernehmen muss, wenn das Auto das Ende der Strecke erreicht, wo der Autopilot sich verwenden lässt (nur auf Autobahnen). Aber viel ist das auch nicht grad, und die 10sek *muss* das Auto noch durchhalten (wenn nix passiert, wird das Auto dann versuchen an die Seite ranzufahren und zu halten.. aber das ist auch schon nicht so einfach, wenns grad keinen Pannenstreifen gibt oder man von LKWs umringt ist .. ich sag nur Knoten Kaisermühlen). Einfach Motor aus und ausrollen lassen ist mit Autopilot plötzlich kein Safe State mehr, den man im Zweifelsfall immer machen kann.
Dadurch dringt die Elektronik nun im Auto in Sicherheits-Anforderungs-Bereiche vor, die bisher nur Flugzeugen vorbehalten war. Das hat aber auch den Vorteil, dass sich die Autoindustrie mal gehörig an der Nase nehmen muss und ihr Zeug mal ein paar Stufen besser machen muss. Das hat durchaus Vorteile für den Anwender, auch wenns nicht billiger dadurch wird.
Was rechtliche Probleme betrifft: da hat Mercedes das anscheinend in Europa nur durchgebracht, indem sie komplette Verantwortung übernommen haben für alles was mit dem Autopilot passiert. Das könnte deren Rechtsabteilung noch schlaflose Nächte bereiten, v.a. wenn man denen
div. Youtube-Videos zeigt.. Elon Musk hingegen kommt in den USA damit durch dass er sagt, wenn du dumm genug bist uns zu vertrauen, ists dein Problem - und irgendwo hat er damit auch recht. Trotzdem, wenn man den Leuten einen Autopiloten gibt, kann man trotzdem nicht erwarten dass man da innerhalb 0.2 Sek das Steuer wieder übernimmt, sondern das Auto muss einem zumindest 2sek *vorher* Bescheid geben, bevor es
mit 70 von der Straße in eine Hauseinfahrt abbiegt.
I find your lack of platform support disturbing.