Haftung bei autonomen Fahrzeugen

Nun bin ich Jurist und kein Techniker. Allerdings finde ich den Aspekt im Verhältnis zwischen Nutzer und Geschädigtem eher zweitrangig. Dadurch dass der Nutzer mit seinem Fahrzeug ein Risiko schafft, sollte er auch dafür haften - im Zweifel auch unabhängig von eigenem Verschulden. Ich finde es nicht unbillig ihm in diesem Verhältnis auch ein Versagen der KI, die er beschafft hat und nutzt, zuzurechnen.
Auf der zweiten Ebene sollte der Nutzer sich natürlich im Wege des Regress an den Fahrzeughersteller wenden können, wenn die KI fehlerhaft war.
Perspektivisch stellt sich die Frage, ob es nicht sinnvoll ist, einen von den Herstellern/Importeuren befüllten KI-Verkehrsopferfonds nach dem Vorbild der Verkehrsopferhilfe einzurichten, um künftig KI-Unfälle verschuldensunabhängig abzudecken. Wenn ich es richtig verstanden habe, ist es ja auch für die Hersteller kaum überblickbar oder beherrschbar was sich die KI „ausdenkt“ und welche Entscheidungen sie trifft.

Dem was du oben geschrieben hast, stimme ich voll zu. Wenn „das Auto fährt“, sei es das autonome Fahren oder bei einem einfachen Tempomaten ist der Hersteller des Systemes für dessen korrekte Funktion verantwortlich.

Weil das aber bei autonomem Fahren nicht leistbar ist, müssen sich die Hersteller mit rechtlichen Krücken behelfen, also das der Fahrer immer bereit sein muss einzugreifen.

Das hätte man eigentlich gar nicht erlauben dürfen. Das ist in etwa so, als wären die Auto-Hersteller nicht in der Lage, die Funktion ihrer Bremsen sicherzustellen und die Autofahrer müssten deshalb bei jedem Bremsvorgang den Finger am Auslöser eines Brems-Fallschirmes haben, falls die Bremse tatsächlich versagt.

1 „Gefällt mir“

Finde ich schwierig, da ich als Nutzer keine aktive Einflussmöglichkeit habe. Wenn das wirklich so ist, dann ist jede Form autonomen Fahrens aus meiner Sicht tot, denn wieso sollte man sich dem Können eines Entwicklers und einer KI ausliefern und dann für deren Fehler haften müssen? Ich möchte doch nicht der Schuldige sein, wenn jemand durch einen Bug in der KI zu Tode käme, da ist mir doch der finanzielle Aspekt noch am Egalsten.

1 „Gefällt mir“

Das ist exakt so der Fall bei Waymo, Cruise, Nuro uvm. autonomen L4 Shuttles, die in einigen US-Städten fahren. Der Hersteller haftet bei jeglichen Schäden, die das Fahrzeug verursacht. Es ist also schon leistbar und auch gängige Praxis in dem Bereich.
Muss auch so sein, es sitzt ja niemand mehr am Steuer, der eingreifen könnte.

Diese beschriebene rechtliche Krücke sehen wir bei z.B. dem L3 System von Mercedes. Da sitzt jemand am Steuer, der theoretisch eingreifen könnte und haftbar wäre/gemacht werden könnte.

Bitte diese Themen nicht immer vermischen und daraus irgendwelche Argumente drehen, die autonomes Fahren zerreden sollen.
L1-L3 ist Assistenz, die durch den Nutzer zu überwachen ist. Das ist rechtlich auch geklärt. Wenn du mit CruiseControl jemandem drauffährst, bist du schuld, du hättest eingreifen müssen.
L4 ist autonom und kann selbst sichere Zustände herstellen. Wenn das Auto feststeckt (z.B. Kann Situation nicht verstehen), dann greift ein Supervisor per Remote ein und „hilft“ dem Auto.

1 „Gefällt mir“

Vielleicht gibt es hier jemanden mit juristischem Hintergrund:

  • Ich gehe davon aus, dass ein autonomes Fahrzeug regelkonform und eher vorsichtig fährt.
  • Welche Schuld trifft einen vorsichtig fahrenden Autofahrer bei bewölktem Himmel, welcher hinter einer Kurve geblendet wird, weil dort doch die Sonne durchkommt und der dann auffährt oder einen Fahrradfahrer übersieht?

Ja, bis jmd. nen Poller davor stellt:

Waymo mag ja nach irgendwelchen SAE-Definitionen autonom sein, aber nicht in der Realität.

Am Ende wird auch Waymo einknicken, auch wenn sie gerade eine erweiterte Zulassung bekommen haben:

Der heutige Autoverkehr ist halt für menschliche Fahrer gemacht, nicht für Roboter.

SOLLTE es so ein System jemals geben, dann wäre die Haftungsfrage natürlich eindeutig, da hast du schon recht. Aber so ein System gibt es nicht und angesichts der Komplexität des Autoverkehres ist es unwahrscheinlich, dass es das auf absehbare Zeit geben wird.
Und ein autonomes Fahrzeug, dass im Zweifel immer zögert bzw. abbremst, mag zwar irgendwo sicher sein, aber nicht Alltagstauglich, siehe dem Pylonen-Beispiel oben, dass ja tatsächlich so funktioniert.

Liest du überhaupt was ich schreibe? Die Fahrzeuge sind Autonom nach L4 und können sicher fahren. Sollten sie sich nicht mehr orientieren können, z.B. weil man sie angreift, beschädigt oder zustellt, dann brauchen sie Input von einem Supervisor, der die Situation klärt.

Ich habe eher das Gefühl, dass hier Argumente für ein persönliches Problem mit diesem Thema gesucht werden. Schon mal sowas in Realität gesehen und selbst gefahren/erlebt? Ich hoffe es bei der starken Meinung. Ich kann das für mich auf jeden Fall bestätigen.

Völlig korrekt. Die Fahrzeuge sind natürlich eher defensiv. Daher würde ein mit Pylonen zugestelltes Auto auch nicht einfach losfahren. Und wenn es das tun würde, dann wäre vermutlich das Geschrei groß, weil es die Regeln nicht beachtet.

2 „Gefällt mir“

Menschen fallen damit komplett weg?

sind also nur Menschen, die dann eben 10x mehr Verkehrstote verursachen.
Diese Täter kann man denn wenigstens ins Gefängnis stecken. Oder auch nur auf Bewährung verurteilen wie den SUV-Fahrer, der ein Bobby-car mit Kind totgefahren hat.

1 „Gefällt mir“

Während Autofahrer gerne mal Klimaklebern über die Hand fahren und dafür noch Verständnis ernten.

1 „Gefällt mir“

Mit System meinte ich den Teil eines Fahrzeuges, der das autonome Fahren übernimmt, nur um erst mal Missverständnisse zu vermeiden. Und ja, Menschen halten sich auch nicht immer an Verkehrsregeln, aber ein Straßenverkehr ohne Menschen ist auf absehbare Zeit eben keine Option.

Ist das so?

Was genau können diese L4-Fahrzeuge denn besser als L3-Fahrzeuge, sodass sie autonom ohne Fahrer fahren dürfen.

Oder anders gefragt:
In welchen konkreten Testsituationen (also z.B. Fußgänger springt X Meter vorm Fahrzeug auf die Straße) muss ein Hersteller (wie z.B. Waymo) bei einer Zulassungsbehörde nachweisen, dass sein Auto bestimmte Situation handeln kann, bevor er das „Prädikat L4“ bekommt?

(Ich will mit der Frage wohin, aber das kommt noch.)

Was die regulatorischen Fragen angeht bin ich nicht fit, im Zweifel bei der Kalifornischen Verkehrsbehörde anfragen. Ich bin mir aber sicher, dass es da keine isolierten Testfälle gibt, wie bei Assistenzsystemen nach NCAP.

Der Unterschied zwischen L3 und L4 ist der SAE J3016 zu entnehmen, am besten einmal durchlesen. Kurz: L3 kann selbstständig keinen sicheren Zustand herstellen, das muss ein Fahrer machen. Das bedeutet, dass das Auto z.B. auf der Autobahn irgendwann übergeben muss, wenn die Geschwindigkeit steigt. Übernimmt der Fahrer nicht, schaltet das System ab. Der sichere Zustand wäre hier z.B. das von der Autobahn abfahren und parken in einer sicheren Umgebung, bis der Fahrer übernimmt. L4 ist hierzu in der Lage (ob es jetzt genau das hier beschriebene kann weiß ich nicht, das Beispiel ist aber denke ich deutlich.)

Hier vermutlich auf Statistik geachtet. Dazu kann ich (für ein erstes Gefühl) die sog. Disengagment Reports empfehlen. Sie geben Aufschluss, wie viel Strecke die Flotte gemittelt gefahren ist, bis ein System überfordert war und „Hilfe“ brauchte/bzw. einen Fehler gemacht hat und der Sicherheitsfahrer (Waymo Personal) eingreifen musste.

Hier liegen Hersteller wie Waymo, WeRide und PonyAI mittlerweile bei über 20.000km (Grundlage sind bei Waymo ca. 5,8 Mio gefahrene Kilometer mit Sicherheitsfahrern in 2023). Bezogen auf einen durchschnittlichen Fahrer ist das alle 1-2 Jahre, in denen ein Auto einen Fehler macht. Leider ist die Definition eines Disengagements unscharf.

2023 hat Waymo 1,9 Millionen Kilometer komplett fahrerlos zurückgelegt, teile davon auch mit Kunden (so auch ich letztes Jahr). Wenn es interessiert hier das Video einer der Fahrten, vorne sitze ich (in Urlaubsoutfit). Ich bin mit einem Bekannten unterwegs gewesen, der in genau dem Bereich forscht und sehr viele Videos dazu online hat:

Entspricht nicht der Realität, und das weißt du auch. Ich glaube nicht dass Waymo 7,7 Millionen Kilometer in 2023 zurückgelegt hat, indem sie zögernd an Kreuzungen standen. Die Autos fahren im Realverkehr mit und das auch noch sehr souverän. Wie gesagt, ich kann so eine Mitfahrt empfehlen, wenn man mal in so einer Gegend ist. Ist erstaunlich unspektakulär, fährt extrem smooth und sicher, und das merkt man sofort. Kein Zögern, kein unnötig langes warten an Kreuzungen. Einfach vorausschauend und sicher. So fühlt es sich an.

1 „Gefällt mir“

Laut Wikipedia

  • Stufe 3: Hochautomatisiert, ein Sicherheitsfahrer muss am Platz sein, aber keine dauerhafte Überwachung ausführen (eng. Wikipedia: Driver must appropriately respond to a request to intervene.)
  • Stufe 4: Vollautomatisiert, System kann in speziellen Situationen alle Fahranforderungen selbständig bewältigen (eng. Wikipedia: If a driver does not respond appropriately to a request to intervene, the car can stop safely.)

Ein Fahrzeug bekommt das Prädikat L4 nicht von irgendeiner Behörde. L4 ist in der Norm SAE J3016 definiert, die in die Spezifikation, nach der das Fahrzeug entwickelt wird (ab Lastenheft), einfließt. Irgendwo steht dann da „Level 4 laut SAE J3016 muss erfüllt sein“.

Ganz genau darauf wollte ich hinaus. Du hast nämlich oben mehrmals suggeriert, dass L4-Systeme (Waymo-Robotaxi) im Gegensatz L3 (Mercedes Drive Pilot) autonom fahren können, also sicherer Systeme sind:

Das folgt aber überhaupt nicht aus der SAE J3016. Dort ist im Wesentlichen nur geregelt, was passiert, wenn das Fahrzeug mit einer Situation konfrontiert wird, mit der es nicht umgehen kann, also

  • L3 → Der Fahrer übernimmt
  • L4 → Das Fahrzeug muss einen „sicheren Zustand“ herstellen, also anhalten o.Ä.

Es ist aber eben nicht geregelt, mit welchen Situationen das Fahrzeug noch klar kommen muss. Daher ist es eben nicht so, dass ein L4-Fahrzeug zwingend sicherer ist, sondern es hat einfach nur einen anderen fall back.

Für den drive pilot von Mercedes gibt es laut KBA (Link) übrigens eine UN-Norm, die zumindest rudimentär regelt, was das System können muss:

https://unece.org/transport/documents/2021/03/standards/un-regulation-no-157-automated-lane-keeping-systems-alks

Mit nur 60 Seiten ist das für so ein komplexes System allerdings sehr oberflächlich.

Zu den Waymo-Taxis habe ich auf die Schnelle nicht direkt Anforderungen gefunden. Aber offenbar hat die kalifornische Behörde, die Waymo gerade die Erweiterung des Robotaxi-Einsatzgebietes erlaubt hat (siehe oben), den kompletten Antrag veröffentlicht, den Waymo dafür gestellt hat:

https://www.cpuc.ca.gov/-/media/cpuc-website/divisions/consumer-protection-and-enforcement-division/documents/tlab/av-programs/waymo-llc-cpuc-advice-letter-0002-tier-2--january-2024-passenger-safety-plan-update-january-192024.pdf

Da steht z.B. wo genau sie jetzt mit ihren Robotaxis fahren dürfen (z.B. auch in Los Angeles) und auf Seite 11 quasi eine Zulassung des „kalifornischen KBA“ (der CA DMV), wo vermutlich die tatsächlichen technischen Details geregelt sind.

So richtig glücklich sind sie in Kalifornien aber nicht mehr mit den selbstfahrenden Robo-Taxis. Nicht nur, dass die Stadt San Francisco Klage gegen die bisherige Waymo-Zulassung eingereicht hat, nun haben auch noch Los Angeles und San Mateo eine 4-monatige Suspendierung des neuen Waymo-Einsatzgebietes ausgesprochen:

Sieht bestimmt auch toll aus, wenn ein Auto einfach so losfährt, ohne das jmd. am Steuer sitzt. Aber von solchen Effekten darf man sich bei der Bewertung von Sicherheitsaspekten nicht blenden lassen. Wenn es zu einer gefährlichen Situation kommt und das autonome Fahrzeug nicht richtig reagiert, nützen dir all die reibungslosen Fahrstunden davor nichts mehr.

Ich verstehe nicht worauf du hinaus willst, es ist sehr konfus…

Natürlich ist das nicht definiert, denn ein Hersteller/Betreiber der Fahrzeuge sagt ja selbst, wo die Autos fahren. L4 heißt, das die Autos in einem definierten Einsatzgebiet sicher fahren können. Sicher bedeutet hier, dass sie (daher die SAE J3016) den „sicheren Zustand“ herstellen müssen. Was dieser Zustand ist, ist nicht näher definiert, das wird der Hersteller vermutlich vorlegen müssen. Da kann der Hersteller auch Autobahnen ausklammern.
Das kann aber auch die Behörde, wenn ihnen die vorgebrachten Dokumente zur Sicherheit der Fahrzeuge in bestimmten Fahrszenarien nicht ausreichen.

„einfach nur“ ist hier der wesentliche Unterschied in Fragen der Haftung, auch wenn du es hier herunterspielst. Das ist der essenzielle Hauptunterschied. Das entscheidet zwischen Fahrer- und Herstellerhaftung.

Wie auch schon mal gesagt, das ist ein Bundesstaat vs. Stadt-Thema. Kalifornien erlaubt es, die Hersteller nutzen es, mit den Städten wird nicht gesprochen und diese sind jetzt genervt und klagen. Auch irgendwo nachvollziehbar.
Fortschritt und Innovation hatte es immer schwer und es wird immer ewige Nein-Sager geben. Auch das Automobil hat man tot geredet. Jetzt halt autonomes Fahren und Elektromobilität. In 30 Jahren ist es dann was Neues, wenn alle fahrerlos in solchen Shuttles fahren.

Stimmt, ist korrekt. Wenn es kracht, dann kracht es, und das ist nicht gut. Ein Hoch auf die ganzen Menschen, die sich immer korrekt verhalten immer richtig reagieren und noch nie einen Unfall gebaut haben, nachdem sie eine Fahrschule besucht haben. Zum Glück kommt nie ein Mensch um, wenn Menschen Auto fahren. Gut, dass wir vor der bösen Technik sicher sind…

Sorry für die Polemik, ich weiß nicht wie ich auf deinen persönlichen Feldzug gegen das Thema reagieren soll, das liest man mit jeder Zeile. Ist völlig okay, jedem seine Meinung. Aber ich hab’s probiert, finds cool und halte es für die Zukunft. Mag mich auch irren, aber wenn man nichts ausprobiert, dann kommt man auch nicht weiter.

1 „Gefällt mir“

Würde man mit Menschlichen Fahrern so streng ins Gericht gehen wie mit Autonomen Fahren müsste man wahrscheinlich schon heute ein Verbot von manuellem Fahren zugunsten von Autonomen Systemen fordern.

Dass eines der Hauptargumente gegen autonomes Fahren ist, dass man diese Systeme darin überfordert sieht Fehler die menschliche Fahrer machen zu kompensieren, zeigt ja wo die Hauptfehlerquelle sitzt.

Jeder hat nen Tempomat im Auto, viele haben Spurassistenten, einige noch andere Helferlein.
Individualverkehr wird auch weiterhin ein Lenkrad haben. Weil der Kunde das so will. Das haben auch die Hersteller kapiert.
Anders sieht es beim ÖPNV aus. Der wird mit selbstfahrenden Autos individualer werden. Und der wird auch leichter zu handeln sein, weil das Einsatzgebiet begrenzt und planbar sein wird. Die Haftung übernehmen die Kommunen als Betreiber. Das wird aber noch dauern bis die soweit sind, drum ist die Goldgräberstimmung etwas eingetrübt.

Das ist genau der Punkt. Dieser „sichere Zustand“ hieß aber bei dem Cruise-Taxi, dass eine Fußgängerin überrollte, dass das Taxi, mit der Frau darunter, noch etliche Meter fuhr, bevor es am Straßenrand anhielt.
Darum ist die Bezeichnung „sicherer Zustand“ auch irreführend, denn ob es sicher ist, noch 10 Meter weiter zufahren, hängt immer von der Situation ab. Auch stehenbleiben muss kein sicherer Zustand sein, wenn dabei z.B. ein Rettungswagen blockiert wird.

Die ganze SAE-Norm ist, zynisch vormuliert, viel eher ein Feigenblatt mit dem die Hersteller eines unzuverlässigen Systems das Risiko von sich wegschieben, nämlich entweder zum Fahrer (bis SAE L3), der plötzlich wieder lenken muss oder an die Umgebung (L4), indem das Auto plötzlich stehen bleibt oder andere potentiell unpassende Aktionen durchführt.

Ein schlechter Autofahrer steuert aber immer nur 1 Fahrzeug. Ein schlecht entwickeltes System für autonomes Fahren steuert aber potentiell Millionen Fahrzeuge. Wenn also ein Tesla ein Fahrzeug mit Blaulicht rammt, tun das auch alle anderen Tesla in ähnlichen Situationen, wie wir ja inzwischen wissen.

Der Leiter des Daimler Center for Automotive IT Innovations (DCAITI) an der TU Berlin hat dazu kürzlich ein (englisches) Interview gegeben:
" We Underestimated the Complexity of the Matter" - Dr. Ilja Radusch - tu.berlin
Bei N-TV wurde es auch nochmal auf Deutsch zusammengefasst:

Weil für dieses tote Pferd Unmengen an Geld, Ressourcen und Arbeitskraft aufgewendet werden, die anderswo viel besser investiert wären. 8 Mrd. Dollar waren es allein bei der GM-Tochter Cruise.

Du möchtest also in einer Welt leben, in der du als Fußgänger nicht mehr über die Straße gehen kannst, weil die z.B. alle mit Metallzäunen abgesperrt sind, verstehe ich dich da richtig? Den das wäre in letzter Konsequenz nötig, um den Mensch wirklich komplett aus dem Straßenverkehr zu entfernen.

1 „Gefällt mir“

Wir haben doch schon einen individueller ÖPNV, nennt sich Taxi. Ist aber den meisten zu teuer. Und Taxifahrer funktionieren auch da, wo kein Handy-Empfang ist, Robotaxis nicht. Die Robotaxis von Cruise brauchen außerdem aktuell noch durchschnittlich 1,5 menschliche „Operator“ pro Fahrzeug. Und die kosten garantiert mehr Stundenlohn als ein einfacher Taxifahrer.

Der Artikel ist ja mal furchtbar uninformative und schlecht geschrieben oO
Dort steht nicht irgendwas drin außer wollen wir nicht.

Das sich autonomes Fahren irgendwann durchsetzen wird ist denke ich allen klar. Ebenso das es noch dauern wird, weil ab L4 der Hersteller Haftbar sein muss und er das erst machen wird, wenn er sich sicher ist das die Kosten den Nutzen nicht übersteigen.

Ausserdem besteht noch das Problem das, sollte ein Mensch einen groben Fehler machen wird ihm der Führerschein entzogen. Bei einer autonomen Flotte währe das eine komplette, sofortige Stilllegung bis Softwareseitig ein „neuer Fahrer“ als update eingespielt wurde. Auch das ist teuer und wird in die finanzielle Risikoanalyse mit reinspielen. In Deutschland/Eu ist halt vieles sehr viel stärker reguliert als z.b. in Amerika aber das ist/muss nicht immer negativ sein.