Tempolimit / E-Autos, autonomes Fahren

Wieso das denn? 100% Sicherheit wird es nie geben. Wenn das der Anspruch ist, dann wird Level 5 nie erreicht. Aber mit dem Anspruch von 100% Sicherheit dürfte es gar keine Autos geben. Sobald das Auto besser Auto fährt als der Mensch, sollte das Auto fahren dürfen.
Level 4 (aus der Ferne gefahrene Fahrzeuge - sprich Fahrer und Fahrzeug sind räumlich getrennt, so dass z.B. Taxifahren im Homeoffice möglich wird) wird in Hamburg und München aktuell schon getestet. Es fahren also auch heute schon Autos ohne Fahrer auf deutschen Straßen - nur eben noch nicht im kommerziellen Rollout.
Sobald diese Tests zeigen, dass diese Level 3 oder Level4-gefahrenen Fahrzeuge seltener in Zwischenfälle verwickelt sind als trainierte Fahrer, steht dem ganzen nichts im Wege.
Autonomes Fahren wird zur allgemeinen Sicherheit im Straßenverkehr beitragen indem es den müde werdenden, einschlafenden Menschen durch der Gerät ersetzt.

Doch, das funktioniert sehr gut.

1 „Gefällt mir“

Ganz präzise ist es so: Sie dürfen bis 130km/h, haben aktuell aber nur 60km/h freigegeben und noch keinen Zeitplan für die Erhöhung vorgestellt. Wenn Mercedes wollte, könnten sie das ganze morgen auf die 130km/h erhöhen - eine weitere Erlaubnis hierzu benötigen sie nicht.

Schon spannend, dass das mittlerweile fast alle Leute glauben, als ob eine große Klappe automatisch bedeuten würde, dass auch garantiert nichts dahinter ist. Musk hat in seiner Karriere eigentlich hinlänglich bewiesen, dass er sowohl ein ziemlich guter Software als auch klassischer Ingenieur ist. Drei paradigmenbrechende Unternehmen in seinem Leben aufzubauen (plus Zip2 quasi ohne Startkapital), das haben in der Geschichte nicht so viele Menschen geschafft.

Dumm nur, dass er zu glauben scheint, seine Expertise würde sich automatisch auch auf andere Bereiche erstrecken…

So kontextfrei und unbelegt ist das eine ziemlich irreführende bis sinnlose Behauptung. Die Entwicklung von Computerchips verlief zeitweise exponentiell, Technologien verbreiten sich wenn sie erfolgreich sind häufig zweitweise exponentiell (Smart Phones zB), aber da ist kein Automatismus und zudem verlaufen solche Prozesse eben nur zeitweise exponentiell (Naturgesetze und so…). Wenn das Problem beispielsweise so komplex ist wie Schach, dann nützt Dir Dein schönes exponentielles Wachstum nichts, weil Du die Ressourcen des Universums nicht reichen, um das Problem zu lösen zumindest --um in dem Bild zu bleiben-- solange Du einen Brute Force Ansatz wählst. An der Stelle brauchst Du einen anderen Ansatz und ob Du den findest, ist keine Frage exponentiellen Wachstums, sondern einfach, ob jemand die richtige Idee hat.

Aber mal ganz konkret, was wächst denn hier in Deinen Augen genau exponentiell und warum meinst Du, dass es hilft, das Problem zu lösen?

1 „Gefällt mir“

Einen erheblichen. Musk ist derjenige, der für den Eindruck, Tesla sei in Sachen autonomem Fahren allen anderen X Jahre voraus, zentral verantwortlich ist. Er trötet bei jeder Gelegenheit in eben diese Tröte. Die nackte Realität gibt dieses Bild nämlich bei Weitem nicht her - siehe Mercedes, siehe Waymo.

Du siehst also offenbar die Person Musk kritisch - was lobenswert ist - gehst ihm aber was seine Tesla-Prophezeiungen zum autonomen Fahren angeht weiterhin auf den Leim. Das ist schon irgendwie ein Widerspruch.

Ich glaube, du liegst einem populären Irrtum auf, wie selbstfahrende Autos funktionieren. Das ist mitnichten so, dass da einfach nur ein KI-System wie eine Blackbox in ein Auto gebaut wird, und dem bringt man dann durch unendlich viel Training bei, wie man Auto fährt - und mit jedem Kilometer mehr Trainingsdaten wird das unaufhaltsam besser. Dieser Ansatz hat sich schon vor langer Zeit als wenig erfolgreich erwiesen.

Stattdessen sind heutige Systeme in mehrere Untersysteme geteilt, und nur manche davon benutzen KI - in allererster Linie die Klassifikationssysteme, die in Bildern (oder genereller: in allen Sensordaten) bekannte Muster erkennen und in einer zeitlichen Sequenz von Daten kontinuierlich tracken sollen. Wenn es aber darum geht, aus den erkannten Dingen konkrete Strategien fürs Fahren und infolgedessen Steuerbefehle für die Aktoren zu machen, spielt KI wenn überhaupt höchstens noch eine Nebenrolle. Dieser Teil wird beherrscht von ziemlich klassischen, regelbasierten Systemen, die Softwareentwickler niederschreiben, in Simulationen validieren, debuggen, … eben relativ klassische Softwareentwicklung.

Und da ist jetzt die Crux: deine Idee, es gäbe exponentielle Verbesserung, trifft auf diese Art Arbeit nicht zu - das Gegenteil ist der Fall! Mit Anwachsen der Größe von solchen Systemen wächst die Komplexität exponentiell an, und die Entwicklungsgeschwindigkeit sinkt umgekehrt dazu exponentiell. Wir Softwareentwickler haben uns über die Jahre natürlich immer neue Tools geschaffen, um diese Entwicklung zu verlangsamen und immer größere Systeme beherrschbar zu machen, aber zu einem guten Teil geschieht das auch nur dadurch, dass man es ermöglicht hat, mit immer mehr Personen gleichzeitig an einem großen System zu arbeiten. Das Grundproblem, dass es eine Art gläserne Decke gibt in der Komplexität der von Menschen wartbaren Systeme, ist damit nicht ausgehebelt - die Decke wird nur langsam nach oben geschoben, unter immer größerem finanziellen und personellem Aufwand. Und diese Entwicklung beschleunigt sich nicht - sie verlangsamt sich. Uns gehen nämlich die Menschen aus, die man auf das Problem werfen kann.

KI ist eine Art Cheat um dieses Problem herum - „tu etwas komplexes für mich, von dem ich nicht weiß, wie ich es programmieren könnte, und ich will es auch gar nicht wissen“. Leider geht dieser Cheat mit diversen unerwünschten anderen Problemen einher, unter anderem dem Problem, dass „ich will es auch gar nicht wissen“ bedeutet, dass ich im Fall von Fehlern halt auch nicht weiß, warum sie passieren, und sie auszumerzen oft mehr mit Glück als mit Nachvollziehbarkeit zu tun hat. Und wo Glück ist, ist auch Pech nicht weit, und der Fix für ein Problem produziert vielleicht drei neue. Alles Dinge, die man bei der konkreten Umsetzung einer Steuerung eines Autos ganz und gar nicht brauchen kann - was einer der wichtigsten Gründe ist, warum der naive Ansatz, einfach eine KI auf das Gesamtproblem zu werfen, schon lange gescheitert ist. Und warum die Annahme, autonome Autos würden „von selbst“ mit jedem Kilometer besser, halt nicht stimmt. Jede Verbesserung muss hart durch menschliche Engineering-Arbeit erkämpft werden, und Menschen ersticken dabei irgendwann in exponentiell zunehmender Komplexität.

Aber wir schweifen ab…

Das könnte sogar zutreffen. Wobei du da auch unzulässig vereinfachst. Es ist ja nicht so, dass a) die Produktion der Autos CO2-neutral wäre. Und b) der Strom vollkommen CO2-neutral produziert werden könnte. Selbst Windstrom braucht Windräder, deren Aufbau wird noch sehr lange Zeit CO2 erzeugen. Und Strom, der im Straßenverkehr verbraucht wird, fehlt halt anderswo, wo er auch dringend benötigt wird, um Prozesse zu dekarbonisieren - sprich wo diese Entwicklung länger dauert, wenn der Strom sinnlos für Raserei im Straßenverkehr verballert wird.

Denn eine kritische Sache steigt auch exponentiell: der Windwiderstand und die zu seiner Überwindung nötige Energie. Und zwar mit steigender Geschwindigkeit.

4 „Gefällt mir“

Auch ein E-Auto verursacht CO2, zwar nicht unmittelbar im Betrieb aber eben mittelbar in der Herstellung und über den Stromverbrauch, der selbst bei 100% EE mehr Windräder und PV verlangt, die wiederum weder klimaneutral noch umsonst zu haben sind. Das Märchen von NULL CO2 bzw. klimaneutral ist eine um sich greifende geistige Plage, die Spin-Doktoren aller Wirtschaftsbereiche unters Volk bringen. Bei denen gibt es sogar „klimaneutrale“ Flughäfen. Das ist, als ob man Tiger als „kinderlieb“ verkaufen würde.

Das Ziel muss doch sein, so wenig Autos wie möglich, so leicht und klein wie möglich, mit einer eben noch akzeptablen Reisegeschwindigkeit als Limit. Das spart Emissionen in Produktion und Betrieb, auch im E-Betrieb. Und es spart Feinstaub durch Reifenabrieb. 112 000 to Gummi werden jedes Jahr in DE zu Staub und Feinstaub zerrieben, 28% des Kunststoffmülls in den Meeren ist Reifenabrieb. Fahrzeuggewicht, Reifengrösse (Breite), Fahrweise (Geschwindigkeit und Beschleunigung) haben Einfluss auf die Menge, und da sind die grossen, schweren E-Autos eher noch ungünstiger als Verbrenner, weil die gewaltigen Drehmomente zum rasanten und lautlosen Beschleunigen verleiten und eben des Gewichts wegen.

Der Antriebswechsel in der jetzigen Form lässt das Umweltproblem praktisch ungelöst. Ich setze allerdings auch Hoffnung auf autonomes Fahren, weil man so endlich vom Prestigeding Auto wegkommen sollte, also vom eigenen Auto zum autonomen Taxi umsteigen, wenn ÖPNV nicht reicht.

So richtig im flächendeckenden Einsatz? Hast du da Quellen zu? Als ich das letzte mal geschaut habe, war da nur ein Pilotprojekt in Japan.

Aber nur, wenn die Merz’sche Brandmauer nicht doch nur aus Pappmaché war. :wink: Hoffen wir das beste…

Meinst du so, wie Computer-Software in den letzten Jahrzehnten immer sicherer geworden ist? Denn bei Computern bzw. deren Software ist das Problem, dass ständig neue Features eingebaut werden um den Verkauf der nächsten Software-Generation zu fördern, siehe Windows 7,8,10 usw.

Durch den neuen Programmcode kommen aber auch immer wieder neue Fehlerquellen in den Code. Und auch wenn wir bei autonomen Fahrzeugen immer von KIs reden, wird ein Großteil der eigentlichen Steuerung durch den Straßen-Verkehr von klassischer Computer-Software erledigt, die KI übernimmt heutzutage vor allem die Umgebungserkennung, also wertet z.B. die Kamerabilder aus und erkennt Verkehrszeichen, Autos usw…

Um also die eigentliche, klassisch programmierte Steuerungssoftware für das autonome Fahrzeug sicher zu kriegen, müsste man diese über Jahre nicht mehr mit neuen Features versehen, sondern nur noch den vorhandenen Code reparieren, sobald man einen Fehler findet. Ob die Autohersteller das wirklich schaffen, wird sich zeigen, ich bin da skeptisch.

Ansonsten kann ich das, was @Slartie dazu geschrieben hat, nur unterschreiben.

Es geht ja nicht nur um Sicherheit. Es geht ja auch um Zuverlässigkeit.
Echte autonome Fahrzeugen sollten eben auch nahezu alle Situationen beherrschen, die ein menschlicher Fahrer lösen kann, also wenn ein Fahrzeug vor einem liegen geblieben ist, wenn es darum geht einen Stau zu umfahren und so weiter.

War er nicht hauptsächlich nur Programmierer bei Paypal und Zip2? Kennt er wirklich die technischen Details seiner Raketen, E-Autos usw., oder ist er nur gut darin ist, ihr wirtschaftliches Potenzial zu erkennen? Was natürlich auch schon eine Leistung ist.

Ich bin nämlich der Meinung, dass er das wirtschaftliche Potenzial von autonomen Fahren, wenn es denn funktionieren würde, durchaus richtig einschätzt, aber das er die technischen Probleme bei der Umsetzung massiv unterschätzt hat.

Das macht ihn zu einem guten Geschäftsmann, nicht mehr und nicht weniger.

Das habe ich übrigens nicht behauptet. Ich denke, dass Tesla GENERELL voraus ist. E-Mobilität, Akkutechnologie - und ja - auch autonomes Fahren. Und ja, es gibt da auch Ausnahmen, aber global betrachtet, haben die anderen Autohersteller (insbesondere die Deutschen) da die letzten Jahre kein gutes Bild abgegeben. Natürlich pumpen da alle jetzt ohne Ende Geld rein um aufzuholen (was sie auch früher oder später schaffen werden)

Der wesentliche Unterschied:
VW & Co verkaufen Autos!
Tesla ist ein Softwarehersteller!

Aber lassen wir das Thema autonomes Fahren. Mag sein, dass ich die Entwicklung der nächsten 10 Jahre überschätze… Aber Du unterschätzt sie.

Das hat auch nie jemand behauptet. Und sorry, diesessich ständige Argument der Klimawandel-Leugner kann ich nicht mehr hören.
Aber darum geht es ja auch hier nicht. Es geht darum, dass ein Tempolimit über kurz oder lang durch Elektromobilität kein CO2 mehr einsparen wird. Ob und wie groß dabei die Umweltsauereien durch die Produktion sind, ist dabei vollkommen irrelevant.

Exakt… Nur dass es bei Computer-Software eben Betrüger mit eigenem Geschäftsmodell gab die gegen diese Entwicklung gearbeitet haben. Was beim Auto nicht der Fall ist (wenn mal davon absieht, dass man jemanden damit um die Ecke bringen kann)

Die Systeme werden am Ende BESSER sein, als jeder Mensch. Selbst, wenn unvorhergesehene Themen erstmal Probleme verursachen. Null Reaktionszeit, keine Schrecksekunde, keine Müdigkeit, kein Alkohol, kein Vergessen in den Spiegel zu schauen, keine überhöhte Geschwindikeit… etc.

Die meisten Unfälle entstehen durch Fahrlässigkeit und menschliches Versagen.

Ich meine nicht Sicherheit, sondern das muss immer und überall funktionieren, zu 100%. Und nicht nur bei 60km/h, im Stau, auf der Autobahn, bei Mondlicht, wenn man Zuckerkügelchen geschluckt hat, …

Also bisher sagen ALLE Tests das Gegenteil. Selbst bei allen außer Tesla funktioniert das nicht zu 100%, bei Tesla halt eher gar nicht.
Denn auch hier gilt: das Lesen von Schildern muss zu 100% funktionieren, und nicht nur mit Kartenmaterial, sondern mit aktiver Schilderkennung. Sonst fahren Autos z.B. mit 120 in eine Baustelle rein.

Lieber @Slartie vieles ist zwar richtig, aber hier übertreibst du deutlich. Es gibt mittlerweile etliche Ansätze im Bereich Explainable AI (XAI), die KI Entscheidungen nachvollziehbar machen. Es ist schlicht eine Frage der Zeit wie viele Observations ich checken/analysieren kann um sicher zu gehen.

Tun sie doch ab Level 3 jetzt schon. Die autonomen Fahrzeuge sind die ersten, die bei Blaulicht eine Rettungsgasse bilden. So richtig überraschende Situationen gibt es doch gar nicht. Alles kann trainiert werden, und wenn ein Gefährt von allen anderen lernt, dann ist es deutlich erfahrener als es ein menschlicher Fahrer je sein könnte.

Ich weiß nicht wie es bei Tesla war, genaugenommen weiß ich natürlich nirgends wie es war, aber angeblich hat er SpaceX zumindest anfänglich in einem kaum vorstellbaren Maße gemicromanaged und wollte über alle Details exakt Bescheid wissen.

Wenn Du schreibst er habe bei Paypal und Zip2 doch nur programmiert und anscheinend ja auch das wirtschaftliche Potential erkannt, dann frage ich mich allerdings, was er denn noch hätte tun sollen, um Credit dafür zu bekommen, dass er eine der entscheidenden Personen für den Erfolg dieser Unternehmen/Ideen war?

Schön, dass du das deiner Ansicht nach irrelevante Argument a) herausgepickt hast, und b) - bei dem mich wirklich interessieren würde, wie du auch das für „vollkommen irrelevant“ erklärst - unter den Tisch fallen lässt.

Ich mache sehr ungern Full-Quotes, aber offenbar ist es nötig, um zu illustrieren, dass sich diese Aussage der 10 Jahre offensichtlich auf die autonomen Fahrfunktionen bezog. Denn sie steht am Ende eines Textes, der sich zu 100% komplett nur und ausschließlich mit autonomem Fahren beschäftigt. Nicht mit Batterietechnik. Nicht mit E-Mobilität allgemein. Mit autonomem Fahren.

Klar kann es auch sein, dass Tesla den anderen in der Qualität des Kantinenkaffees 10 Jahre voraus ist. Oder im Design des Deckblatts der Bedienungsanleitungen. Oder in der Batterietechnik. Aber das sind halt alles Aussagen, die du so nicht tätigst, und die man allesamt mit gleicher Wahrscheinlichkeit aus der fehlenden expliziten Einschränkung des „10 Jahre voraus“-Kommentars herauslesen könnte, wenn man sehr viel Fantasie aufbringt.

Stimmt, die gibt es. Die spielen in der Praxis meines Wissens ungefähr die Rolle der „formalen Verifikation“ von klassisch entwickelter Software, nur halt im KI-Bereich. Ein interessantes und wichtiges Forschungsfeld, in gewissen Bereichen sind Methoden daraus auch praktisch anwendbar, aber skalierbar auf die aktuellen Modellgrößen (bzw. Größe der klassischen Softwaresysteme im Fall der formalen Verifikation) ist das leider alles nicht. Genausowenig wie man mit der formalen Verifikation, welche die Fehlerfreiheit von Software beweisen kann, eine Methode hat, um z.B. ein garantiert bugfreies Windows 11 zu erhalten (was der absolute Wahnsinn wäre, wenn das ginge), hat man mit XAI eine Technik, mit der man die ganz großen KI-Modelle, mit denen die beeindruckenderen KI-„Wunderdinge“ umgesetzt werden, auf ein Nachvollziehbarkeitslevel wie klassische Software heben kann (was auch der absolute Wahnsinn wäre, wenn das ginge).

Okay das mit Nürnberg wusste ich tatsächlich noch nicht. U-Bahnen sind aber in der Hinsicht auch die niedrigst hängenden Früchte und so wie ich das sehe, kommt in beiden Fällen nicht wirklich maschine learning zum Einsatz. Und beim Nürnberger System brauchen sie wohl trotzdem noch Zugbegleiter in den selbstfahrenden Ubahnen und auch einiges an Personal drum herum. Ich weiß nicht, ob sie da wirklich sparen.

Sorry wenn ich da nitpicking mache, aber so richtig überzeugt das nicht. Was ich mit meiner ursprünglichen Frage eigentlich meinte, ist das wir im großen Still noch nicht mal den Bahnverkehr automatisieren können, aber wollen das jetzt mit dem Autoverkehr machen, was viel komplizierter ist. Und das offenkundig nur, weil da viel Geld mit zu verdienen ist.
Das mag aus wirtschaftlicher Sicht einleuchten, aber technologisch sinnvoll ist das nicht.

Unterstützung für Slartie!
Tempolimit reduziert Verschleiß, egal bei welcher Antriebs-Technik. Egal was verschleißt, muss nachproduziert werden. Jede Produktion hat als Nebenprodukt CO2. Und deshalb ist es eben nicht egal, wie die Lebenszyklus-Emissionen sind.
Tempolimit reduziert nicht nur die Lebenszyklus-Emissionen, sondern auch die Anzahl der Lebenszyklen.

1 „Gefällt mir“

Leider nicht flächendeckend, gar nicht.
Aber in Nürnberg fährt die U Bahn seit vielen Jahren ohne Fahrer, das gibt es also. Wenn auch nur auf einer Strecke

Weil die durch die Produktion entstehenden CO2-Emissionen durch ein Tempolimit nicht tangiert werden. Sie sind konstant - egal ob ich mit dem Auto nun 180 oder 120 fahre.

Einspruch: können doch, ginge theoretisch sogar mit Klappertechnik.

Das ist der Punkt. Bei der Bahn ließe sich damit nicht so viel Geld verdienen.

Man stelle sich mal vor man hätte die Magnetschwebebahn gebaut und unterhalb vollautomatisch Containertransport…

Ich meine damit den Bahnverkehr der über Land fährt. Die U-Bahnen konnten nur deswegen automatisiert werden, weil man recht sicher ausschließen kann, das da wer in die Tunnel läuft. Somit ist da nur die Bahn, ansonsten nichts und niemand auf der Strecke.

In dem Wikipedia-Artikel, denn du zur automatischen Nürnberger U-Bahn verlinkt hast, steht sogar, das Nürnberg auf der besagten Strecke extra bauliche Maßnahmen treffen musste, damit niemand einfach in die Tunnel läuft.

Würde man so etwas auf offener Strecke mit einem Regionalzug machen, dann müsste der auch in der Lage sein, mit Menschen, Tieren oder anderen Dingen auf den Schienen umzugehen, ob die da hingehören, oder nicht.
Und da hätte man die Grundlagen „lernen“ können, die man z.B. für Umgebungserkennung mit maschinellem Lernen braucht, weil auf Bahnstrecken ja doch noch deutlich weniger „los ist“ als im Straßenverkehr.

Und erst dann hätte man mit autonomen Systemen in den Straßenverkehr gehen sollen. Jetzt macht man aber mMn den 2. Schritt bevor man den ersten gemacht hat.

Das müsste man eben erstmal ermitteln. Denn wenn ein Auto nur noch 120 fahren darf, muss man es ja nicht mehr für höhere Geschwindigkeiten konzipieren. Man müsste also prüfen, ob dies in der Produktion CO2 einspart. Außerdem nimmt der grundlegende Verschleiß ab, was den Einsatz von Ersatzteilen massiv verringern wird und auch die Neuanschaffung von Fahrzeugen. Also ist dieses angebliche Nicht Tangieren viel zu kurz gedacht.

2 „Gefällt mir“

Punkt b) befasste sich gar nicht mit der Produktion der Autos, sondern mit der Produktion der Energiequellen für die Autos - und deren alternativer Verwendungsmöglichkeit.

Möchtest du auch behaupten, dass es für den Energiebedarf einer E-Auto-Flotte mit gegebener Größe irrelevant ist, wie schnell man damit fährt?

1 „Gefällt mir“