Haftung bei autonomen Fahrzeugen

Genau das wird ja quasi heute gemacht. Aber Bosch will ja offenbar darüber hinaus gehen.

Wir Menschen sind sehr viel besser, als jede KI. Das wir Menschen nicht sicherer Auto fahren liegt nur daran, das wir es nicht wollen.

Das ein Passant unter das Cruise Robotaxi geraden könnte, hatte man auch nicht bedacht. In dem Interview oben sagt Dr. Radusch dazu:

Aus Sicht von uns Forschenden ist dieses Unfallgeschehen insofern ernüchternd, weil wir bislang nicht auf die Idee gekommen wären, eine solche Situation zu programmieren. Aber es zeigt sich, dass man auch solche Fälle, mögen sie noch so selten vorkommen, im Blick haben muss.

Es zeigt sich also, dass es nicht eben reicht ein bestimmtes Unfallszenario als unwahrscheinlich oder hypothetisch zu erklären, denn genau wegen dieser Nachlässigkeit musste GM seine Robotaxis stilllegen.

Sichtfeld, Reaktionszeit, etc. haben nichts mit Wollen zu tun, sondern sind ganz einfach Einschränkungen die nicht vermieden werden können.

Zu diesen Vorteilen von Computersystemen ggn. einem menschlichen Fahrer, würde ich dann auch noch mal Dr. Radusch zitieren:

Herausforderungen, ob ein Computer es schafft, das Lenkrad fein genug zu steuern oder weit genug zu ‚sehen‘ auch bei Regen und Schnee wurden gut bewältigt. Ebenfalls das den Anforderungen entsprechende Betätigen von Gas- und Bremspedal. Und weil das damals alles so gut funktionierte, dachten wir, in fünf Jahren muss kein Mensch mehr das Autofahren lernen. Aber zehn Jahre später sehen wir uns mit ständig neuen Detailproblemen und den ‚berühmten‘ ‚unkown Unkowns‘, also den unbekannten Unbekannten konfrontiert – siehe Unfall.

Falls du den Text nicht gelesen hast, ich kann ihn wirklich empfehlen, weil er sehr ins Detail geht, verglichen mit einem normalen Zeitungsartikel. Es gibt das ganze Interview übrigens auch in Deutsch, ich hatte nur den Sprachschalter nicht gefunden :grin::

1 „Gefällt mir“

Danke für den Link.

Hier sind wir aber wieder bei dem Punkt, dass Einzelfälle, die man nach Auftreten des Einzelfalls umprogrammieren kann, als Kern des Ganzen genommen werden. Gingen wir aber beim Menschlichen Fahrer nach genau solchen Einzelfällen, dann müsste man das Auto in seiner heutigen Form wohl sofort verbieten. Und doch sind Fahren auf Radwegen, Umkehren auf Fahrbahnen die nur in eine Richtung führen, Überfahren von Roten Ampeln, Missachten von Vorfahrt auch weiter an der Tagesordnung.

Und er sieht das Thema ja auch nicht als gescheitert an, sondern lediglich als komplexer als von vielen gedacht. Darin gebe ich ihm ja durchaus recht. Die Leute die schon vor 2-3 Jahren damit gerechnet haben dass Elon jeden Tag auf einen Knopf drücken könnte und ihr Tesla fährt dann komplett autonom habe ich noch nie Ernst genommen.

Was mir auffällt bei der Rechnung mit den 1,5 Personen pro Fahrzeug, inkl. Reinigung ist, dass ja auch ein Taxi nicht grundsätzlich von einer Person bedient wird. Auch Taxifahrer arbeiten schließlich nicht 24 h sondern es gibt Schichten und auch Reinigungskräfte. Hier bräuchte man mehr Details um diese Zahl sinnvoll einordnen zu können.

Berlin: Große Bestürzung und Kritik nach Tod von Mutter und Kind (t-online.de)

Der Rentner soll am Samstagmorgen auf der Leipziger Straße am Potsdamer Platz in Berlin-Mitte viel zu schnell gefahren sein. Außerdem soll er einen Schutzstreifen für Radfahrer zum Überholen benutzt haben. Zu diesem Zeitpunkt befand sich eine 41-jährige Mutter mit ihrem vierjährigen Kind auf der Fahrbahn, die er frontal erfasste und tödlich verletzte. Der genaue Unfallhergang ist noch nicht geklärt.

Das ein Auto mit überhöhter Geschwindigkeit auf einem Schutzstreifen versucht einen Stau zu umfahren, hatten Experten nicht als wahrscheinlich angesehen. Kenner der bisherigen Trainingsdaten sagten uns, dass der Fall eigentlich von bestehenden Regeln hätte abgedeckt sein müssen.
Bis festgestellt wird, warum sich dieser tragische Unfall ereignen konnte, die Ausbildung dahingehend angepasst wird, dass eine solche Situation niemals erneut eintreten kann und bis alle 58 Millionen Führerscheininhaber in Deutschland entsprechend nachgeschult wurden, wird vorsichtshalber allen menschlichen Fahrern die Betriebserlaubnis entzogen.

Naja, macht man irgendwie nicht. Better be unsafe than sorry.

Hoffe du bist mit der Einkürzung im Zitat einverstanden. Dein Argument ist hier offenbar, dass man bei menschlichen Fahrern und Computer-Systemen für autonomes Fahren die gleichen Maßstäbe anlegen sollte. Das ist aber aus einer Reihe von Gründe nicht sinnvoll.

Einer davon ist, dass Menschen alle anders sind und einen Fehler den ein Fahrer macht, muss der nächste Fahrer nicht zwangsläufig auch machen. Bei Computer-Systemen, die alle gleich programmiert sind, ist das natürlich anders. Das konnte man gut an den Tesla-Problemen mit Blaulicht-Fahrzeugen sehen oder an diesem jüngeren Beispiel bei Waymo:

Außerdem sollen autonome Autos ja einen Sicherheitsgewinn bringen und dafür müssen sie sich mMn sowohl besser an die Verkehrsregeln halten (was ja einigermaßen klappt) aber eben auch Entscheidungen im Straßenverkehr treffen, deren Qualität einem menschlichen Fahrer so nahe wie möglich kommt. Und an der Stelle sehe ich auch das größte Problem.

Gerade dass alle Autos die gleiche Software haben ist nicht nur Nach- sondern auch Vorteil.
Wenn ein Problem erkannt und das Update ausgespielt, tritt es auf keinem Auto mehr auf.
Menschliche Fahrer fahren trotz großer gelber Schilder immer noch über die Ausfahrt auf die Autobahn.

1 „Gefällt mir“

Du solltest keinesfalls der Annahme erlegen, dass im Software-Bereich einmal behobene Probleme nicht wieder auftauchen könnten. Das passiert sogar so oft, dass es dafür einen Begriff gibt: Regression.

Das liegt aber eben daran, dass Menschen das wollen. Und die Frage ist auch, ob das mit autonomen Fahrzeugen sehr viel besser wird. Solange der Mensch die autonomen Fahrfunktionen ausschalten kann um z.B. über den Standstreifen an einem Stau vorbei zu fahren oder schneller zu fahren als erlaubt, wird man dieses Problem mMn nicht wirklich wegbekommen.
Das größte Potential sehe ich daher in Assistenzsystemen, die „nur“ sehr schnell „einfache“ Entscheidungen treffen müssen, z.B. Abbremsen.

Wenn wir mal den aktuellen Fall mit dem 83jährigen nehmen, der 2 Menschen totgefahren hat:

Warum den Fokus nicht eher auf die menschlichen Unzulänglichkeiten setzen und durch KI „schützend“ eingreifen lassen?

Bevor man sich auf die Komfortaspekte stürzt

Das ist in dieser Diskussion aber eigentlich ein Randthema. Solange der Fahrer sie ausschalten kann, kann er eingreifen und der Hersteller wird sich vor der Haftung drücken.
Und ist auch jetzt schon ein Thema, wenn der Abstandstempomat versagt, das selbstfahrende System vor der Kurve zu spät abbremst, die Sensoren beim Rückwärtsfahren nicht piepsen oder der Totewinkelwarner die Gefahr nicht anzeigt - der Fahrer sich aber aufgrund bisheriger Erfahrungen oder Überschätzung des Systems darauf verlässt.