Haftung bei autonomen Fahrzeugen

So richtig glücklich sind sie in Kalifornien aber nicht mehr mit den selbstfahrenden Robo-Taxis. Nicht nur, dass die Stadt San Francisco Klage gegen die bisherige Waymo-Zulassung eingereicht hat, nun haben auch noch Los Angeles und San Mateo eine 4-monatige Suspendierung des neuen Waymo-Einsatzgebietes ausgesprochen:

Sieht bestimmt auch toll aus, wenn ein Auto einfach so losfährt, ohne das jmd. am Steuer sitzt. Aber von solchen Effekten darf man sich bei der Bewertung von Sicherheitsaspekten nicht blenden lassen. Wenn es zu einer gefährlichen Situation kommt und das autonome Fahrzeug nicht richtig reagiert, nützen dir all die reibungslosen Fahrstunden davor nichts mehr.

Ich verstehe nicht worauf du hinaus willst, es ist sehr konfus…

Natürlich ist das nicht definiert, denn ein Hersteller/Betreiber der Fahrzeuge sagt ja selbst, wo die Autos fahren. L4 heißt, das die Autos in einem definierten Einsatzgebiet sicher fahren können. Sicher bedeutet hier, dass sie (daher die SAE J3016) den „sicheren Zustand“ herstellen müssen. Was dieser Zustand ist, ist nicht näher definiert, das wird der Hersteller vermutlich vorlegen müssen. Da kann der Hersteller auch Autobahnen ausklammern.
Das kann aber auch die Behörde, wenn ihnen die vorgebrachten Dokumente zur Sicherheit der Fahrzeuge in bestimmten Fahrszenarien nicht ausreichen.

„einfach nur“ ist hier der wesentliche Unterschied in Fragen der Haftung, auch wenn du es hier herunterspielst. Das ist der essenzielle Hauptunterschied. Das entscheidet zwischen Fahrer- und Herstellerhaftung.

Wie auch schon mal gesagt, das ist ein Bundesstaat vs. Stadt-Thema. Kalifornien erlaubt es, die Hersteller nutzen es, mit den Städten wird nicht gesprochen und diese sind jetzt genervt und klagen. Auch irgendwo nachvollziehbar.
Fortschritt und Innovation hatte es immer schwer und es wird immer ewige Nein-Sager geben. Auch das Automobil hat man tot geredet. Jetzt halt autonomes Fahren und Elektromobilität. In 30 Jahren ist es dann was Neues, wenn alle fahrerlos in solchen Shuttles fahren.

Stimmt, ist korrekt. Wenn es kracht, dann kracht es, und das ist nicht gut. Ein Hoch auf die ganzen Menschen, die sich immer korrekt verhalten immer richtig reagieren und noch nie einen Unfall gebaut haben, nachdem sie eine Fahrschule besucht haben. Zum Glück kommt nie ein Mensch um, wenn Menschen Auto fahren. Gut, dass wir vor der bösen Technik sicher sind…

Sorry für die Polemik, ich weiß nicht wie ich auf deinen persönlichen Feldzug gegen das Thema reagieren soll, das liest man mit jeder Zeile. Ist völlig okay, jedem seine Meinung. Aber ich hab’s probiert, finds cool und halte es für die Zukunft. Mag mich auch irren, aber wenn man nichts ausprobiert, dann kommt man auch nicht weiter.

1 „Gefällt mir“

Würde man mit Menschlichen Fahrern so streng ins Gericht gehen wie mit Autonomen Fahren müsste man wahrscheinlich schon heute ein Verbot von manuellem Fahren zugunsten von Autonomen Systemen fordern.

Dass eines der Hauptargumente gegen autonomes Fahren ist, dass man diese Systeme darin überfordert sieht Fehler die menschliche Fahrer machen zu kompensieren, zeigt ja wo die Hauptfehlerquelle sitzt.

Jeder hat nen Tempomat im Auto, viele haben Spurassistenten, einige noch andere Helferlein.
Individualverkehr wird auch weiterhin ein Lenkrad haben. Weil der Kunde das so will. Das haben auch die Hersteller kapiert.
Anders sieht es beim ÖPNV aus. Der wird mit selbstfahrenden Autos individualer werden. Und der wird auch leichter zu handeln sein, weil das Einsatzgebiet begrenzt und planbar sein wird. Die Haftung übernehmen die Kommunen als Betreiber. Das wird aber noch dauern bis die soweit sind, drum ist die Goldgräberstimmung etwas eingetrübt.

Das ist genau der Punkt. Dieser „sichere Zustand“ hieß aber bei dem Cruise-Taxi, dass eine Fußgängerin überrollte, dass das Taxi, mit der Frau darunter, noch etliche Meter fuhr, bevor es am Straßenrand anhielt.
Darum ist die Bezeichnung „sicherer Zustand“ auch irreführend, denn ob es sicher ist, noch 10 Meter weiter zufahren, hängt immer von der Situation ab. Auch stehenbleiben muss kein sicherer Zustand sein, wenn dabei z.B. ein Rettungswagen blockiert wird.

Die ganze SAE-Norm ist, zynisch vormuliert, viel eher ein Feigenblatt mit dem die Hersteller eines unzuverlässigen Systems das Risiko von sich wegschieben, nämlich entweder zum Fahrer (bis SAE L3), der plötzlich wieder lenken muss oder an die Umgebung (L4), indem das Auto plötzlich stehen bleibt oder andere potentiell unpassende Aktionen durchführt.

Ein schlechter Autofahrer steuert aber immer nur 1 Fahrzeug. Ein schlecht entwickeltes System für autonomes Fahren steuert aber potentiell Millionen Fahrzeuge. Wenn also ein Tesla ein Fahrzeug mit Blaulicht rammt, tun das auch alle anderen Tesla in ähnlichen Situationen, wie wir ja inzwischen wissen.

Der Leiter des Daimler Center for Automotive IT Innovations (DCAITI) an der TU Berlin hat dazu kürzlich ein (englisches) Interview gegeben:
" We Underestimated the Complexity of the Matter" - Dr. Ilja Radusch - tu.berlin
Bei N-TV wurde es auch nochmal auf Deutsch zusammengefasst:

Weil für dieses tote Pferd Unmengen an Geld, Ressourcen und Arbeitskraft aufgewendet werden, die anderswo viel besser investiert wären. 8 Mrd. Dollar waren es allein bei der GM-Tochter Cruise.

Du möchtest also in einer Welt leben, in der du als Fußgänger nicht mehr über die Straße gehen kannst, weil die z.B. alle mit Metallzäunen abgesperrt sind, verstehe ich dich da richtig? Den das wäre in letzter Konsequenz nötig, um den Mensch wirklich komplett aus dem Straßenverkehr zu entfernen.

1 „Gefällt mir“

Wir haben doch schon einen individueller ÖPNV, nennt sich Taxi. Ist aber den meisten zu teuer. Und Taxifahrer funktionieren auch da, wo kein Handy-Empfang ist, Robotaxis nicht. Die Robotaxis von Cruise brauchen außerdem aktuell noch durchschnittlich 1,5 menschliche „Operator“ pro Fahrzeug. Und die kosten garantiert mehr Stundenlohn als ein einfacher Taxifahrer.

Der Artikel ist ja mal furchtbar uninformative und schlecht geschrieben oO
Dort steht nicht irgendwas drin außer wollen wir nicht.

Das sich autonomes Fahren irgendwann durchsetzen wird ist denke ich allen klar. Ebenso das es noch dauern wird, weil ab L4 der Hersteller Haftbar sein muss und er das erst machen wird, wenn er sich sicher ist das die Kosten den Nutzen nicht übersteigen.

Ausserdem besteht noch das Problem das, sollte ein Mensch einen groben Fehler machen wird ihm der Führerschein entzogen. Bei einer autonomen Flotte währe das eine komplette, sofortige Stilllegung bis Softwareseitig ein „neuer Fahrer“ als update eingespielt wurde. Auch das ist teuer und wird in die finanzielle Risikoanalyse mit reinspielen. In Deutschland/Eu ist halt vieles sehr viel stärker reguliert als z.b. in Amerika aber das ist/muss nicht immer negativ sein.

Ist denn hier jemand mit der Entwicklung autonomer Fahrzeuge beschäftigt? Aus meiner persönlichen Erfahrung ist die Haftungsfrage nicht das vordergründige Problem.

Ich habe einen Freund, der beruflich mit Level 5 Systemen zu tun hat. Dessen Abteilung wird nun sukzessive verkleinert, nachdem sich ein anderer großer OEM schon vor wenigen Jahren von dem Thema verabschiedet hat. Das Problem ist, dass sukzessive immer weniger Menschen an einen Business case glauben. Die Fortschritte sind seit Jahren nur noch inkrementell und die Kosten gehen nicht weit genug runter, um das perspektivisch in die Fläche tragen zu können. In Europa ist man selbst auf theoretischer Ebene nicht mehr davon überzeugt, das Problem der autonomen Fahrt in Städten jemals lösen zu können. Die Systeme, die funktionieren, laufen nur in den USA und dort nur in eigens dafür auserkorenen Städten mit spezialisierter Software. In den internen Planungen der mir bekannten OEMs spielen autonome L5 Systeme keine Rolle für die nächste Fahrzeuggeneration (die bis 2030 auf der Straße sein wird).

Tendenziell scheint der Trend im Individualverkehr mittelfristig eher auf Level 3 zu gehen und autonome Systeme eher beim Überlandverkehr von LKWs einzusetzen.

2 „Gefällt mir“

Nein. Mir geht es in dem Beispiel bei um die menschlichen Fehler im motorisierten Verkehr, z.B. unangekündigte Spurwechsel, die oft für Probleme sorgen.

Ich denke wenn ein Fußgänger irrtümlich auf die Straße rennt, dann ist ein autonomes System sogar schneller bereit zu reagieren.

Ich wohne in einem verkehrsberuhigten Bereich und nicht nur, dass kaum jemand Schrittgeschwindigkeit fährt, fast alle, inklusive vieler Anwohner beschäftigen sich dabei anderweitig (Navi einstellen, Handy, Scangeräte, etc.)

Man kann mir bei allem was ich da erleben durfte einfach nicht erzählen dass der menschliche Fahrer auf ewig einem System mit vielfältigen Kameras und Sensoren welches nicht abgelenkt, müde oder was auch immer sein kann überlegen ist.

Davon abgesehen gab es bei uns alleine in einer Stadt mehrere tote Fußgänger in den letzten Jahren die auf dem Fußweg von Autofahrern erfasst wurden

Und sicher ließen sich genug Unfälle finden wo auch Autofahrer noch mehrere Meter weitergefahren sind.

1 „Gefällt mir“

Solch ein System könnte aber ziemlich schnell durch die Behörden stillgelegt werden.

Ich nehme an du kommst nicht vom Land?

Ein Taxi auf dem Land ist z.B. nachts und am Wochenende da wo ich herkomme nicht spontan zu bekommen.

Edit: in meinem Fall schließt Land sogar eine Kleinstadt mit 13k Einwohnern mit ein.

Das hängt doch sehr eng zusammen. Die Haftungsfrage ist für Firmen letztlich eine Kostenfrage: je mehr sie in der Haftung sind, umso größer müssen Risikorücklagen ausfallen, um Prozesse und Schadensersatz zahlen zu können. Das geht also schlicht in den Kostenblock ein. Und je geringer die Fortschritte bei der Qualität der Systeme sind, umso wahrscheinlicher ist es, in Haftung genommen zu werden.

Aber klar, letztlich ist die Haftungsfrage nur ein Nebenkriegsschauplatz. Das grundlegende Problem ist, dass „L5 in Serie und überall“ schlicht zu komplex ist, um es mit unseren aktuellen oder absehbar zukünftig verfügbaren technischen Mitteln in ökonomisch darstellbarer Weise umzusetzen. Das hat nur viele Jahre lang keiner wahr haben wollen, weil Geld billig war und Visionen ebenfalls.

2 „Gefällt mir“

Ich kenne auch Leute die zwar nicht an der Entwicklung für die Systeme selbst aber an der Entwicklung für Komponenten gearbeitet haben. Teils wurden die aber überflüssig weil vermehrt mit Kameras statt mit Laser- oder Radarsensoren gearbeitet wird. Dort wurde folglich auch das Team verkleinert weil der Sensor war entwickelt und Support war nur wenig nötig.

Eine Frage die ich mir aber auch stelle ist, ob der Abbau von Personal wirklich damit zu tun hat, dass man an keine Zukunft mehr glaubt oder ob man nicht einfach in einer Phase ist in der das Sammeln von Daten aus dem Betrieb wichtiger ist als das grundlegende Verändern von Hard- und Software. Hier wäre interessant wenn jemand mehr Einblick hat.

Ich sehe auch autonomes Fahren anders als es manche tun nicht als Ding für die nächsten 2-3 Jahre, sondern sehe schon auch einen längeren Entwicklungshorizont bis es in der Fläche verfügbar sein könnte und ich sehe durchaus auch die Möglichkeit, dass es unüberwindbare Hürden geben könnte, nur sehe ich die meisten Argumente die hier gebracht werden als sehr einseitig weil man mit dem gleichen Argument eigentlich das Auto komplett verbieten müsste.

Was ich an manchem Tag auf Autobahn wie auch Innenstadt erlebe (letzteres meist aus der Perspektive des Fußgängers bzw. Radfahrers) ist auf alle Fälle weit weg von sicher und viele Gefährliche Manöver sind nur deshalb ohne Folge weil eben nicht alles was gefährlich ist sofort zum Unfall führt. Auch nicht Fahren über Rad- oder Fußweg, ignorieren von roten Ampeln, Fahren obwohl schon Personen den Zebrastreifen überqueren etc.
Seit ich mit Kindern unterwegs bin fällt mir noch viel mehr auf wie schlimm die Zustände tatsächlich sind.
Und das sind Dinge die man von einem Autonomen System auf jeden Fall sehr viel seltener Erwarten kann als von Menschen die für 5 Sekunden Zeit Ersparnis potentiell über Leichen gehen.

1 „Gefällt mir“

Meinst du? Also Bosch ist da viel optimistischer als du:

Bosch und Microsoft holen KI ins Auto

Beim Branchentreff Bosch Connected World dreht sich in diesem Jahr alles um das Thema KI. Beim automatisierten Fahren können durch den Einsatz generativer Sprachmodelle komplexe Situationen schneller erfasst werden. Dafür kooperiert Bosch mit Microsoft.

Das sieht dann also so aus :smile::

Tut mir leid, wenn ich hier etwas spöttisch und polemisch werde, aber das ist wirklich eine Bankrotterklärung. Stellt euch mal vor, ein System wie ChatGPT, dass andauernd Halluzinationen und sonstige Fehler produziert, soll plötzlich euer Auto steuern.

Man könnte fast meinen, Bosch wolle das Thema mit Absicht vor die Wand fahren, damit deutsche oder europäische Regulatoren ihnen das Thema verbieten und sie ihren Aktionären besser erklären können, warum sie das autonome Fahren beerdigen.

Und zur Erklärung, für diejenigen, die nicht so im Thema sind, heutzutage übernehmen KI-Systeme in autonomen Fahrzeugen nur die Bilderkennung. Das eigentliche Fahren macht ein normales Computerprogramm.

Heise hat auch was dazu:

Zitat:

Bosch räumt ein, dass aktuelle Fahrerassistenzsysteme heute trotz ihrer Unterscheidungsfähigkeit von Personen, Tieren, Objekten und Fahrzeugen schnell an ihre Grenzen kommen, sobald es um die Einschätzung geht, ob in einer bestimmten Situation ein Unfall droht. Künftig sollen sie dabei von KI unterstützt werden. Dazu sollen diese Programme auf Grundlage großer Datenmengen trainiert werden, um später aktiv in die Steuerung eines Fahrzeugs eingreifen zu können.

ChatGPT soll autofahren, Gott stehe uns allen bei :laughing:

edit:
Mein nicht ganz ernst gemeintes Experiment mit Chatgpt ist von japanischen Forschern auch schon in ähnlicher Form durchgeführt worden:

1 „Gefällt mir“

Verstehe nicht worauf du hinaus willst? In deinem Beispiel hast du dem Sprachmodell ja noch nichtmal eine Frage gestellt was du beim Abbiegen beachten muss sondern nur ob sich ein Radfahrer dahinter befinden könnte. Die Antwort wäre einfach „ja“ aber da Chat GPT ja darauf ausgelegt ist eine ausführliche Antwort zu geben wird eben drum herum geredet. Alleine schon wenn du deine Fragestellung dahingehend ändern würdest, dass du fragst was du beim Abbiegen beachten musst, bin ich mir ziemlich sicher, dass die Antwort sehr viel besser wäre.

Aber wenn du schon von den Antworten auf schlecht gestellte Fragen auf die Eignung von KI im Straßenverkehr schließt, dann Frage ich mich wie gut Fahrer sein können, wenn lokal teils weit über 30% in ihrer Abwägung zur Erkenntnis kommen AfD wählen zu müssen. Wie gut können die in Sachen Risikoabwägung im Straßenverkehr sein? Gibt es da den gleichen Zusammenhang?

Das ganze war ja auch nicht ernst gemeint. :wink:
Ohne Kontrolle durch ein richtiges Computerprogramm, das harte Regeln umsetzt, würde, glaube ich jedenfalls, auch keiner ein KI-System wirklich ein Auto fahren lassen. Bei Bosch scheint das auch eher anders gemeint gewesen zu sein, wie die FAZ hier schreibt:

Weil die KI mit so großen Datenmengen trainiert sei, könne sie etwa erkennen, ob es sich bei einem Objekt auf der Fahrbahn um eine Plastiktüte oder beschädigte Fahrzeugteile handelt, hofft Bosch. Mit dieser Information könne die KI dann entweder den Fahrer warnen oder direkt reagieren, etwa durch eine Bremsung unter Einschalten des Warnblinkers.

Das klingt für mich so, als ob Bosch am Ende eben auch nur die Umgebungserkennung per KI machen will. Eine generative KI, die sich aus Trainingsdaten irgendwelche neuen Fahrmanöver zusammmen halluziniert, will glaube ich mal, niemand auf der Straße haben.

Wenn ich mir ansehe von wie vielen Unfällen berichtet wird weil Fahrer Kleintieren ausweichen oder einfach nur falsch reagieren weil sie ein vermeintliches Hindernis gesehen haben etc. fällt mir einfach schwer das ganze so zu bewerten, dass man dem Menschen ein spontanes Ausweichmanöver zutraut, einem programmierten System aber nicht.
Immerhin kann das System auf viel mehr Informationen zurückgreifen als der Fahrer, weil z.B. stets alle Daten auch von der Seite und hinten zur Verfügung stehen.

Fährt nun auch der Hintermann autonom, dann ist z.B. sehr viel unwahrscheinlicher, dass es zu einem Auffahrunfall bei einer Gefahrenbremsung kommt, weil der Hintermann den Abstand nicht richtig eingehalten hat oder ins Handy, Navi oder in die Gegend guckt.

Wenn zudem KI eine Warnung an einen Fahrer ausgibt, dann muss dieser die Warnung ja auch erstmal bewerten und dann passend drauf reagieren. Hier hat also ein autonomes System bereits einen Zeitvorteil, der insbesondere bei Bremsmanövern Gold wert sein kann. Selbst wenn es zur Kollision kommt ist schließlich jedes km/h welches mehr Verzögert werden konnte von Vorteil.

Warum du dauernd von Halluzinieren redest verstehe ich nicht, insbesondere wenn man sich häufige Unfallursachen ansieht. Es ist ja vielmehr der Mensch der meist ziemlich random auf eine Gefahrensituation reagiert. Und alle Reaktionen die man relativ einfach erlernen kann könnte ja auch ein Programm genauso einfach erlernen.

Das ist ja genau der Punkt. Heutzutage werden mWn alle sog. autonomen Fahrzeuge von einem ganz normal programmierten Computersystem gesteuert. Dadurch weiß der Hersteller in allen Situationen, an die der Hersteller gedacht hat, wie sich das „autonome“ Fahrzeug verhalten wird.

Wenn nun aber ein trainiertes KI-System tatsächlich die Kontrolle über ein autonomes Fahrzeug übernimmt, dann weiß der Hersteller eben nicht mehr genau, wie sich das Fahrzeug in bestimmten Situationen verhalten wird.

Das KI-System würde natürlich mit Trainigsdaten gefüttert, die korrektes Fahrverhalten vorgeben aber ob die KI sich WIRKLICH immer so verhalten wird, das kann man erst dann mit Sicherheit sagen, wenn man quasi ALLE denkbaren Fahrsituation jeweils einmal konkret getestet hat.

Aber das ist natürlich nur meine Einschätzung dazu, vielleicht sehen die Mitlesenden hier das ja anders.

Weil sich anhand von KI-Halluzinationen die Probleme dieser Systeme mMn am anschaulichsten und verständlichsten zeigen lassen.

Aber niemand sagt doch, dass eine KI alle Handlungen übernehmen muss. Eine KI kann doch dafür genommen werden Situationen zu erfassen und zu bewerten sodass dann eine vorprogrammierte Lösung durchgeführt wird.
Wenn von KI die Rede ist muss das doch nicht heißen, dass gar keine Fahrmanöver mehr vorprogrammiert sind. Sehr viel anders ist es ja bei uns Menschen auch nicht. Wir lernen mit steigender Erfahrung auch mehr und mehr Situationen besser zu bewerten, die Reaktion darauf sollte dann aber wieder eine sein, wie man sie auch in der Fahrschule gelernt hat.

Sehe ich z.B. vor mir auf der Autobahn ein Fahrzeug rechts von mir rasch auf einen LKW auflaufen, dann rechne ich damit, dass dieses evtl. auch ohne zu blinken auf die Spur links zum überholen wechselt. Ich werde also frühzeitig wenn möglich eine Spur nach Links wechseln oder vom Gas gehen und Bremsbereit sein. Als Junger Fahrer hat es mich vielmehr überrascht wenn so jemand ohne zu blinken die Spur wechselte. Heute rechne ich damit. Wie ich drauf reagiere bleibt aber im wesentlichen gleich, nur eben jetzt mit mehr Zeit.

Dito, ich würde auch sagen, dass man pauschal bei jeder Situation, bei der zwischen Ausweichen und Abbremsen abgewogen werden muss, Abbremsen die gesamtgesellschaftlich bessere Entscheidung ist.
Wir akzeptieren hunderte vermeidbare Tote, weil wir den hypothetischen Fall verhindern wollen, dass eine KI zwischen dem Leben eines auf die Straße rennenden Kindes und dem des Rentnerpaars, das beim Ausweichen erfasst wird, entscheiden muss. (Und dabei die „falsche“ Entscheidung trifft.)

Wohl wissend, dass der menschliche Fahrer dabei wahrscheinlich das Kind erwischen und den Wagen unkontrolliert in den Gegenverkehr lenken würde…

2 „Gefällt mir“