Haftung bei autonomen Fahrzeugen

Danke für deinen Beitrag, so hatte ich das gemeint. Es ist juristisch total klar, dass der Mensch schuld hat, man vermarktet es aber als würde man hier wirklich Verantwortung abgeben können.
Die Grauzone bezieht sich auf das „Wann und wie schnell muss ich übernehmen können?“. Und wenn man jederzeit und bei offensichtlichen Bedingungen (was auch immer das ist, wenn auch Regen oder Tunnel dazu gehören) übernehmen könne muss, frage ich mich was es von L2 Systemen unterscheidet.

Eigentlich braucht man gar nicht so viel zu ändern.

Grundsätzlich haftet der Halter, weil er mit der Bereitstellung/Nutzung des autonomen Fahrzeugs das grundsätzliche Risiko setzt. Der Halter ist dann auch verpflichtet eine Haftpflichtversicherung abzuschließen, die Schäden des möglicherweise verletzten Dritten ausgleicht. Ein Software-/KI-Versagen würde ich daher unter dem Risikoerhöhungsgesichtspunkt dem Halter zurechnen, da er für den Einsatz des Fahrzeugs verantwortlich ist. Die Versicherungen werden dann schon statistisch ermitteln was wie sicher ist und ihre Prämien entsprechend kalkulieren.

Stellt sich heraus, dass der Fehler durch ein defektes Teil oder einen Fehler in der Software/KI begründet ist, kann er bzw. seine Versicherung gerne den Hersteller in Regress nehmen.

Ich glaube ja schon lange, dass das Thema autonomes Fahren so langsam einschläft. Die Technik ist einfach noch nicht so weit, dass die Kosten/Nutzen-Rechnung aufgeht, um es mal diplomatisch zu formulieren.

Bei dem Robo-Taxi-Anbieter Cruise zeichnet sich, mMn, auch schon der Rückzug ab:

Auch Waymo macht eher schlechte Schlagzeilen:

Problematisch ist hier, dass ein Waymo-Fahrzeug nicht mit einem Radfahrer gerechnet hat, der hinter einem LKW fuhr. Das wäre in Deutschland ein Verstoß gegen §1 StVO.

Bei Tesla sieht es auch nicht so gut aus:

Auch hier sind die unschönen Details erst im Artikel zu erkennen. Z.B., dass der (leider verstorbene) Mitarbeiter von Tesla es für völlig normal hielt, das sein Tesla permanent aus der Spur brach und er immer wieder gegenlenken musste.

Aber noch bedenklicher finde ich, dass der Mitarbeiter stark alkoholisiert seinen Tesla autonom fahren ließ. Das bestätigt mir ein Stück weit die Befürchtung, das genau diese Situation mit einem alkoholisierten Fahrer ein akzeptierter, wenn nicht sogar gewollter Use-case von autonomen Fahrzeugen ist. Das wäre dann ein weiterer Grund, diese Technik nicht weiter zu entwickeln.

edit:
Waymo könnte seine Zulassung demnächst auch verlieren, da San Francisco Klage dagegen eingereicht hat:

Stimmt. Da sind natürlich die alkoholisierten Fahrer die die komplette Kontrolle über ihre Fahrzeuge haben, wie es heute noch sehr häufig vorkommt, besser. Artikel mit Unfällen unter Alkoholeinfluss könnte man hier täglich Dutzende einstellen, und zwar alleine nur aus Deutschland. Und da sind die Fälle vom Dorf wo dann einfach der Nachbar das Auto aus dem Acker zieht noch nichtmal mit eingerechnet.

Natürlich hat es Gründe, warum Autonomes Fahren noch nicht Flächendeckend verfügbar ist, aber die wenigen Fälle aus mehreren Jahren wo es ernsthafte Unfälle gab als Begründung dafür zu nehmen das Thema allgemein Abzulehnen halte ich für eine ziemlich falsche Risikoabwägung, vergleichbar mit der der Impfgegner die wenige Fälle von schweren Impffolgen dazu nutzen Impfungen im Allgemeinen die Berechtigung abzusprechen.

5 „Gefällt mir“

Warum sollte das ein Problem sein? Wir haben mittlerweile oft genug hier im Forum über das Thema Autonomes fahren diskutiert, muss es da wirklich immer wieder die gleichen Strohmänner geben?

Es ist völlig egal ob eine Person alkoholisiert mit einem L4 & L5 Fahrzeug fährt, da diese keinen Fahrerinput benötigen. Man kann sich dort nicht mal ans Steuer setzen, wenn es überhaupt noch eins hat.
Die Argumentation ist ungefähr genau so sinnvoll wie zu behaupten, dass man nicht alkoholisiert Taxi, Bus oder Bahn mitfahren darf. Wer kennt sie nicht, die Leute die nach dem Club abends alle zu Fuß gehen, weil alkoholisiert im Taxi mitfahren geächtet und verboten ist.

Noch ein Strohmann… Tesla ist nicht L4, sondern ein L2 System. Dies muss überwacht werden. Wurde hier auch schon zigfach erklärt. Mein Tesla macht auch regelmäßig Fehler bei denen ich eingreifen muss, und das mache ich auch. Wo ist das Problem?

Das ist ein Bundesstaat vs. Stadt Thema. Kalifornien erteilt die Lizenzen für Autonomes Fahren, SF hat keine Lust auf die Autos (die ja wie normale Verkehrsteilnehmer mitfahren).

Es wäre mir echt lieb, wenn Fakten auch mal anerkannt werden können und wir nicht immer und immer wieder die gleichen Sockenpuppen-Argumente diskutieren müssen.

1 „Gefällt mir“

Ich denke das Thema erledigt sich sowieso gerade, da mit Apple jetzt wohl der nächste aussteigt:

Insofern braucht man sich dann auch keine Gedanken mehr um die Haftung zu machen.

Mir fehlt dabei der Aspekt, dass die KI für den Halter eine Black Box ist und er keinerlei Einfluss darauf hat, s. meinen Beitrag oben.

1 „Gefällt mir“

Nun bin ich Jurist und kein Techniker. Allerdings finde ich den Aspekt im Verhältnis zwischen Nutzer und Geschädigtem eher zweitrangig. Dadurch dass der Nutzer mit seinem Fahrzeug ein Risiko schafft, sollte er auch dafür haften - im Zweifel auch unabhängig von eigenem Verschulden. Ich finde es nicht unbillig ihm in diesem Verhältnis auch ein Versagen der KI, die er beschafft hat und nutzt, zuzurechnen.
Auf der zweiten Ebene sollte der Nutzer sich natürlich im Wege des Regress an den Fahrzeughersteller wenden können, wenn die KI fehlerhaft war.
Perspektivisch stellt sich die Frage, ob es nicht sinnvoll ist, einen von den Herstellern/Importeuren befüllten KI-Verkehrsopferfonds nach dem Vorbild der Verkehrsopferhilfe einzurichten, um künftig KI-Unfälle verschuldensunabhängig abzudecken. Wenn ich es richtig verstanden habe, ist es ja auch für die Hersteller kaum überblickbar oder beherrschbar was sich die KI „ausdenkt“ und welche Entscheidungen sie trifft.

Dem was du oben geschrieben hast, stimme ich voll zu. Wenn „das Auto fährt“, sei es das autonome Fahren oder bei einem einfachen Tempomaten ist der Hersteller des Systemes für dessen korrekte Funktion verantwortlich.

Weil das aber bei autonomem Fahren nicht leistbar ist, müssen sich die Hersteller mit rechtlichen Krücken behelfen, also das der Fahrer immer bereit sein muss einzugreifen.

Das hätte man eigentlich gar nicht erlauben dürfen. Das ist in etwa so, als wären die Auto-Hersteller nicht in der Lage, die Funktion ihrer Bremsen sicherzustellen und die Autofahrer müssten deshalb bei jedem Bremsvorgang den Finger am Auslöser eines Brems-Fallschirmes haben, falls die Bremse tatsächlich versagt.

1 „Gefällt mir“

Finde ich schwierig, da ich als Nutzer keine aktive Einflussmöglichkeit habe. Wenn das wirklich so ist, dann ist jede Form autonomen Fahrens aus meiner Sicht tot, denn wieso sollte man sich dem Können eines Entwicklers und einer KI ausliefern und dann für deren Fehler haften müssen? Ich möchte doch nicht der Schuldige sein, wenn jemand durch einen Bug in der KI zu Tode käme, da ist mir doch der finanzielle Aspekt noch am Egalsten.

1 „Gefällt mir“

Das ist exakt so der Fall bei Waymo, Cruise, Nuro uvm. autonomen L4 Shuttles, die in einigen US-Städten fahren. Der Hersteller haftet bei jeglichen Schäden, die das Fahrzeug verursacht. Es ist also schon leistbar und auch gängige Praxis in dem Bereich.
Muss auch so sein, es sitzt ja niemand mehr am Steuer, der eingreifen könnte.

Diese beschriebene rechtliche Krücke sehen wir bei z.B. dem L3 System von Mercedes. Da sitzt jemand am Steuer, der theoretisch eingreifen könnte und haftbar wäre/gemacht werden könnte.

Bitte diese Themen nicht immer vermischen und daraus irgendwelche Argumente drehen, die autonomes Fahren zerreden sollen.
L1-L3 ist Assistenz, die durch den Nutzer zu überwachen ist. Das ist rechtlich auch geklärt. Wenn du mit CruiseControl jemandem drauffährst, bist du schuld, du hättest eingreifen müssen.
L4 ist autonom und kann selbst sichere Zustände herstellen. Wenn das Auto feststeckt (z.B. Kann Situation nicht verstehen), dann greift ein Supervisor per Remote ein und „hilft“ dem Auto.

1 „Gefällt mir“

Vielleicht gibt es hier jemanden mit juristischem Hintergrund:

  • Ich gehe davon aus, dass ein autonomes Fahrzeug regelkonform und eher vorsichtig fährt.
  • Welche Schuld trifft einen vorsichtig fahrenden Autofahrer bei bewölktem Himmel, welcher hinter einer Kurve geblendet wird, weil dort doch die Sonne durchkommt und der dann auffährt oder einen Fahrradfahrer übersieht?

Ja, bis jmd. nen Poller davor stellt:

Waymo mag ja nach irgendwelchen SAE-Definitionen autonom sein, aber nicht in der Realität.

Am Ende wird auch Waymo einknicken, auch wenn sie gerade eine erweiterte Zulassung bekommen haben:

Der heutige Autoverkehr ist halt für menschliche Fahrer gemacht, nicht für Roboter.

SOLLTE es so ein System jemals geben, dann wäre die Haftungsfrage natürlich eindeutig, da hast du schon recht. Aber so ein System gibt es nicht und angesichts der Komplexität des Autoverkehres ist es unwahrscheinlich, dass es das auf absehbare Zeit geben wird.
Und ein autonomes Fahrzeug, dass im Zweifel immer zögert bzw. abbremst, mag zwar irgendwo sicher sein, aber nicht Alltagstauglich, siehe dem Pylonen-Beispiel oben, dass ja tatsächlich so funktioniert.

Liest du überhaupt was ich schreibe? Die Fahrzeuge sind Autonom nach L4 und können sicher fahren. Sollten sie sich nicht mehr orientieren können, z.B. weil man sie angreift, beschädigt oder zustellt, dann brauchen sie Input von einem Supervisor, der die Situation klärt.

Ich habe eher das Gefühl, dass hier Argumente für ein persönliches Problem mit diesem Thema gesucht werden. Schon mal sowas in Realität gesehen und selbst gefahren/erlebt? Ich hoffe es bei der starken Meinung. Ich kann das für mich auf jeden Fall bestätigen.

Völlig korrekt. Die Fahrzeuge sind natürlich eher defensiv. Daher würde ein mit Pylonen zugestelltes Auto auch nicht einfach losfahren. Und wenn es das tun würde, dann wäre vermutlich das Geschrei groß, weil es die Regeln nicht beachtet.

2 „Gefällt mir“

Menschen fallen damit komplett weg?

sind also nur Menschen, die dann eben 10x mehr Verkehrstote verursachen.
Diese Täter kann man denn wenigstens ins Gefängnis stecken. Oder auch nur auf Bewährung verurteilen wie den SUV-Fahrer, der ein Bobby-car mit Kind totgefahren hat.

1 „Gefällt mir“

Während Autofahrer gerne mal Klimaklebern über die Hand fahren und dafür noch Verständnis ernten.

1 „Gefällt mir“

Mit System meinte ich den Teil eines Fahrzeuges, der das autonome Fahren übernimmt, nur um erst mal Missverständnisse zu vermeiden. Und ja, Menschen halten sich auch nicht immer an Verkehrsregeln, aber ein Straßenverkehr ohne Menschen ist auf absehbare Zeit eben keine Option.

Ist das so?

Was genau können diese L4-Fahrzeuge denn besser als L3-Fahrzeuge, sodass sie autonom ohne Fahrer fahren dürfen.

Oder anders gefragt:
In welchen konkreten Testsituationen (also z.B. Fußgänger springt X Meter vorm Fahrzeug auf die Straße) muss ein Hersteller (wie z.B. Waymo) bei einer Zulassungsbehörde nachweisen, dass sein Auto bestimmte Situation handeln kann, bevor er das „Prädikat L4“ bekommt?

(Ich will mit der Frage wohin, aber das kommt noch.)

Was die regulatorischen Fragen angeht bin ich nicht fit, im Zweifel bei der Kalifornischen Verkehrsbehörde anfragen. Ich bin mir aber sicher, dass es da keine isolierten Testfälle gibt, wie bei Assistenzsystemen nach NCAP.

Der Unterschied zwischen L3 und L4 ist der SAE J3016 zu entnehmen, am besten einmal durchlesen. Kurz: L3 kann selbstständig keinen sicheren Zustand herstellen, das muss ein Fahrer machen. Das bedeutet, dass das Auto z.B. auf der Autobahn irgendwann übergeben muss, wenn die Geschwindigkeit steigt. Übernimmt der Fahrer nicht, schaltet das System ab. Der sichere Zustand wäre hier z.B. das von der Autobahn abfahren und parken in einer sicheren Umgebung, bis der Fahrer übernimmt. L4 ist hierzu in der Lage (ob es jetzt genau das hier beschriebene kann weiß ich nicht, das Beispiel ist aber denke ich deutlich.)

Hier vermutlich auf Statistik geachtet. Dazu kann ich (für ein erstes Gefühl) die sog. Disengagment Reports empfehlen. Sie geben Aufschluss, wie viel Strecke die Flotte gemittelt gefahren ist, bis ein System überfordert war und „Hilfe“ brauchte/bzw. einen Fehler gemacht hat und der Sicherheitsfahrer (Waymo Personal) eingreifen musste.

Hier liegen Hersteller wie Waymo, WeRide und PonyAI mittlerweile bei über 20.000km (Grundlage sind bei Waymo ca. 5,8 Mio gefahrene Kilometer mit Sicherheitsfahrern in 2023). Bezogen auf einen durchschnittlichen Fahrer ist das alle 1-2 Jahre, in denen ein Auto einen Fehler macht. Leider ist die Definition eines Disengagements unscharf.

2023 hat Waymo 1,9 Millionen Kilometer komplett fahrerlos zurückgelegt, teile davon auch mit Kunden (so auch ich letztes Jahr). Wenn es interessiert hier das Video einer der Fahrten, vorne sitze ich (in Urlaubsoutfit). Ich bin mit einem Bekannten unterwegs gewesen, der in genau dem Bereich forscht und sehr viele Videos dazu online hat:

Entspricht nicht der Realität, und das weißt du auch. Ich glaube nicht dass Waymo 7,7 Millionen Kilometer in 2023 zurückgelegt hat, indem sie zögernd an Kreuzungen standen. Die Autos fahren im Realverkehr mit und das auch noch sehr souverän. Wie gesagt, ich kann so eine Mitfahrt empfehlen, wenn man mal in so einer Gegend ist. Ist erstaunlich unspektakulär, fährt extrem smooth und sicher, und das merkt man sofort. Kein Zögern, kein unnötig langes warten an Kreuzungen. Einfach vorausschauend und sicher. So fühlt es sich an.

1 „Gefällt mir“

Laut Wikipedia

  • Stufe 3: Hochautomatisiert, ein Sicherheitsfahrer muss am Platz sein, aber keine dauerhafte Überwachung ausführen (eng. Wikipedia: Driver must appropriately respond to a request to intervene.)
  • Stufe 4: Vollautomatisiert, System kann in speziellen Situationen alle Fahranforderungen selbständig bewältigen (eng. Wikipedia: If a driver does not respond appropriately to a request to intervene, the car can stop safely.)

Ein Fahrzeug bekommt das Prädikat L4 nicht von irgendeiner Behörde. L4 ist in der Norm SAE J3016 definiert, die in die Spezifikation, nach der das Fahrzeug entwickelt wird (ab Lastenheft), einfließt. Irgendwo steht dann da „Level 4 laut SAE J3016 muss erfüllt sein“.

Ganz genau darauf wollte ich hinaus. Du hast nämlich oben mehrmals suggeriert, dass L4-Systeme (Waymo-Robotaxi) im Gegensatz L3 (Mercedes Drive Pilot) autonom fahren können, also sicherer Systeme sind:

Das folgt aber überhaupt nicht aus der SAE J3016. Dort ist im Wesentlichen nur geregelt, was passiert, wenn das Fahrzeug mit einer Situation konfrontiert wird, mit der es nicht umgehen kann, also

  • L3 → Der Fahrer übernimmt
  • L4 → Das Fahrzeug muss einen „sicheren Zustand“ herstellen, also anhalten o.Ä.

Es ist aber eben nicht geregelt, mit welchen Situationen das Fahrzeug noch klar kommen muss. Daher ist es eben nicht so, dass ein L4-Fahrzeug zwingend sicherer ist, sondern es hat einfach nur einen anderen fall back.

Für den drive pilot von Mercedes gibt es laut KBA (Link) übrigens eine UN-Norm, die zumindest rudimentär regelt, was das System können muss:

https://unece.org/transport/documents/2021/03/standards/un-regulation-no-157-automated-lane-keeping-systems-alks

Mit nur 60 Seiten ist das für so ein komplexes System allerdings sehr oberflächlich.

Zu den Waymo-Taxis habe ich auf die Schnelle nicht direkt Anforderungen gefunden. Aber offenbar hat die kalifornische Behörde, die Waymo gerade die Erweiterung des Robotaxi-Einsatzgebietes erlaubt hat (siehe oben), den kompletten Antrag veröffentlicht, den Waymo dafür gestellt hat:

https://www.cpuc.ca.gov/-/media/cpuc-website/divisions/consumer-protection-and-enforcement-division/documents/tlab/av-programs/waymo-llc-cpuc-advice-letter-0002-tier-2--january-2024-passenger-safety-plan-update-january-192024.pdf

Da steht z.B. wo genau sie jetzt mit ihren Robotaxis fahren dürfen (z.B. auch in Los Angeles) und auf Seite 11 quasi eine Zulassung des „kalifornischen KBA“ (der CA DMV), wo vermutlich die tatsächlichen technischen Details geregelt sind.