Hallo liebes Lage Team! Heute hat mich vielleicht etwas verspätet die Nachricht vom neuen Chat gpt Programm erreicht. Es ist gleichermaßen faszinierend, aber auch irgendwie ein bisschen gruselig, was das Programm alles so kann.
Im Internet gibt es zahlreiche Videos und auch in der Uni und in der Schule nutzen schon viele das Programm, um Hausaufgaben zu machen und Hausarbeiten schreiben zu lassen. Ich hänge euch mal den Link von einem Professor an, der seine Klausuraufgaben in die KI eingibt und jedes Mal volle Punktzahl vergibt.
Könntet ihr vielleicht etwas dazu sagen? Die groben Eckdaten recherchieren, aber vielleicht auch mal überlegen, was das für die Zukunft bedeutet? Oder mal mit jemandem sprechen, der das Programm einschätzen kann? Ist das ein weiterer Hype oder eine durchbrechende Erfindung? Wie wird es unser Leben vielleicht irgendwann verändern?
Ganz liebe Grüße
Merle
Der Professor gegen die KI
@ExMod Vielleicht könnte man dieses Thema auch hier besprechen:
Damit nicht parallel das Gleiche in mehreren Threads diskutiert wird.
Hierzu nochmal ein anderes Video aus dem Bereich Mathematik, da sieht es nicht so doll aus. ChatGPT scheint selbst gar nicht mathematisch rechnen zu können.
ChatGPT kann gar nichts, was irgendwie mit Verständnis zu tun hat. Es kann nur deine Eingabe als Ausgangspunkt nehmen und dann Worte aneinanderreihen, die laut seinem mittels Trillionen von Menschen geschriebenen Texten trainierten Modell wahrscheinlich in dieser Reihenfolge hintereinander gereiht würden, um deine Frage mit einer Antwort fortzusetzen.
Deswegen „schreibt“ das Ding auch die Antwort wortweise raus. Das ist kein Effekt, der cool aussehen soll, sondern wie das System prinzipbedingt arbeitet. Für jedes weitere Wort werden die vorigen Worte als Eingabe verwendet und das KI-Modell „gefragt“, wie denn das nächste Wort lauten soll, damit es gut zu den bisher schon ausgegebenen Worten passt.
Das klappt bei einfachen Rechenaufgaben noch ganz gut, weil in der Unmenge von Trainingstexten nun mal schon recht häufig niedergeschrieben wurde, dass 1+1=2 ist, dementsprechend kann ChatGPT so etwas korrekt beantworten. Wenn man aber völlig zufällig erstellte, komplexere Aufgaben stellt, kommt das Prinzip an seine Grenzen - eben weil kein wirkliches Verständnis von Mathematik, mit dem man jede beliebige Aufgabe lösen könnte, vorhanden ist, sondern nur das Wissen über eine irrsinnig große, aber dennoch begrenzte Menge an bereits von anderen Leuten vorher gelösten Aufgaben.
Dasselbe gilt beim Programmieren: wenn Leute sagen, ChatGPT könne Programme schreiben, stimmt das so genausowenig. Es kann Worte aneinanderreihen, wie sie höchstwahrscheinlich zusammenpassen könnten, und da Programmiersprachen Worte benutzen, kann es natürlich auch „Programme schreiben“. Da kommt sogar recht plausibel aussehendes Zeug raus, weil man das Modell mit absurden Mengen Quelltexten gefüttert hat und es daher sehr gut „weiß“, wie eine Grundstruktur für Programme in allen möglichen Sprachen aussehen muss und auch in gewissen Grenzen in der Lage ist, z.B. Standardalgorithmen wiederzugeben, die x-mal in realen Quelltexten vorgekommen und ihm daher bekannt sind. Es kann auch in relativ engen Grenzen Informationen aus deiner Eingabe verwenden, um z.B. Werte in ihm bekannten Antworten zu substituieren und so eine spezifisch für deine Anfrage passende Antwort zu erzeugen, die genau so noch nie jemand niedergeschrieben hat - das ist diese öfter im Zusammenhang mit ChatGPT diskutierte „Kontextsensitivität“, also die Fähigkeit, den von dir erstellten Kontext für die Antwort mitzuberücksichtigen. Aber wenn man genau hinsieht, schleichen sich oft Fehler ein, die einem realen Softwareentwickler nie passieren würden, da werden dann plötzlich Parameter in APIs „erfunden“, die es gar nicht gibt, die aber für die gestellte Aufgabe nützlich wären, einfach weil das System nicht versteht, dass eine fremde API etwas ist, was ein Entwickler nicht modifizieren kann und als gegeben hinnehmen muss. Ist dem Modell egal, das sieht nur, dass es gut passen würde, jetzt als nächstes hier diesen Parameter hinzuklatschen, also tut es das. Davon, dass die „Programmierfähigkeiten“ für wirkliche Programme, die normalerweise nicht in 100 Zeilen passen, nicht ausreichen und keine Fähigkeit für echte Abstraktion - die grundlegende Technik in der Softwareentwicklung - vorhanden ist, will ich gar nicht erst anfangen.
Die Ergebnisse sind halt vor allem „schöner Schein“ - allerdings wirklich schöner Schein, das muss man ihm lassen, und durch die schon sehr beeindruckende Kontextsensitivität sind die Ergebnisse sogar zumindest auf den ersten Blick oft sehr passgenau auf die Anfragen. Und es gibt ja durchaus ganze Industrien, die ihr Geld mit dem Rauspumpen großer Mengen von inhaltlich seichtem bis leerem Content und oberflächlichem PR-Geblubber verdienen. Von daher ist der Business-Case definitiv da, und ChatGPT wird die Welt an einigen Stellen ganz sicher verändern. Von einem Abgesang auf die Branchen, die in irgendeiner Form inhaltliche Tiefe und Verständnis für mehr als die reine oberflächlich sichtbare Form eines Ergebnisses voraussetzen, würde ich aber absehen.
Dem, was @Slartie sagt, kann ich eigentlich wenig hinzufügen.
Ich würde aber jedem raten, sich einmal selbst mit dieser „Chat-KI“ zu unterhalten oder Videos dazu anzusehen, bei denen die KI tatsächlich an ihre Grenzen geführt wird. Ich halte nämlich das Verständnis, für die Grenzen solcher Systeme, für sehr wichtig.
Denn wir wollen diese Systeme ja nicht nur zum generieren von Texten und Bildern einsetzen, sondern auch um unsere Autos zu steuern autonomen Autos das Erkennen der Umgebung zu ermöglichen (Danke @Sascha71 für die Korrektur ). Bei Texten und Bildern ist es nicht so schlimm, wenn sich fatale Fehler einschleichen, beim Autofahren ist das Ergebnis aber fatal, falls der Fahrer nicht wachsam am Steuer aufpasst, was sein „selbstfahrendes“ Auto so macht.
Das ist natürlich richtig, allerdings ist der Automobilverkehr zum einen nicht so komplex, zum anderen würde man hier natürlich erhebliche Sicherheitspuffer einbauen. Generell sollte das „selbst fahrende Auto“ die Zahl der Verkehrsunfälle signifikant reduzieren. Das hat mehrere Gründe:
-
Keine Regelüberschreitungen
Eine KI würde wohl in jedem Fall verpflichtend so programmiert, dass keine „überhöhte Geschwindigkeit“ oder Fahren mit sicherheitsrelevanten Schäden möglich ist. -
Nahezu keine Reaktionszeit
Ein Großteil des Bremsweges macht nicht die reine physikalische Bremsung, sondern die Reaktionszeit aus. Denn bis der Mensch reagiert (wobei gerne von einer Sekunde ausgegangen wird) fährt das Auto noch mit voller Geschwindigkeit weiter. Eine KI hätte eine Reaktionszeit im Bereich von wenigsten hundertstel, vielleicht sogar tausendstel Sekunden. Ein Kind, das plötzlich auf die Straße läuft, würde in Situationen, in denen der Mensch keine Chance hat, rechtzeitig zu reagieren, mit einer KI-Steuerung durch eine Vollbremsung ohne Reaktionsverzögerung häufig gerettet. -
Konservative Programmierung
Eine KI für den Straßenverkehr würde wohl sehr risikoscheu programmiert werden. Wenn z.B. die Sicht schlecht ist (z.B. Nebel) würde sie wohl selbständig die Geschwindigkeit anpassen, ebenso wenn die Verkehrssituation unübersichtlich ist. Durch eine risikoscheue Programmierung kann man auch viele potentielle Unfälle verhindern.
Kurzum:
Es ist korrekt, dass eine KI, die bei z.B. selbst fahrenden Autos das Potential hat, Menschen zu töten, natürlich wesentlich stärker kontrolliert und reglementiert werden muss als eine KI, die Text ausspuckt. Gleiches gilt übrigens für KIs im medizinischen Bereich, auch hier wird zunehmend mehr KI eingesetzt, um z.B. Röntgenbilder oder MRTs / CTs auszuwerten. Ebenso wird auch heute schon an Diagnose-KIs gearbeitet, die komplexe Diagnosen stellen können sollen. Auch hier geht es natürlich im Zweifel um „Leben und Tod“, sodass auch hier natürlich sehr risikoarm programmiert werden muss (dh. z.B. beim geringsten Zweifel muss ein Arzt informiert werden).
Diese Risiken sind allerdings in der Diskussion sehr präsent, sodass ich hier wenig große Gefahren sehe. Ich sehe bei dem Thema definitiv eher die Chancen, die es uns bietet - für eine bessere medizinische Versorgung, für einen unfallärmeren Straßenverkehr und für einen effektiveren Arbeitsalltag.
'nuff said.
Hehe, das zeigt in jedem Fall, dass wir hier viel mehr wirksame Regulation brauchen. Sowas darf schlicht nicht erlaubt sein, vollstreckbar ist ein Verbot hier in jedem Fall (siehe z.B. Cybertruck, der in der EU nicht zugelassen werden kann, weil er keine Knautschzonen hat…). Hier kann die EU problemlos eine Vorreiterrolle übernehmen, indem sie die nötige Regulation schafft…
Tatsächlich ist aber hier vor allem auch die juristische Ebene der Haftungsfragen relevant. Um die Hersteller dazu zu treiben, die Systeme eher im Sinne der Vorsicht zu gestalten, sollte hier auch eine klare Haftung der Hersteller angestrebt werden.
Würden selbstfahrende Autos so programmiert, dass sie niemals eine Regel überschreiten, dann würde ein parkendes Auto auf der Fahrbahn bei durchgezogenem Mittelstreifen reichen, um einen kilometerlangen Stau zu produzieren.
Da gehe ich mit, aber nur wenn es um Bremsassistenten geht.
Und genau da liegt das Problem: Nebel muss man auch erst mal zuverlässig erkennen. Und das menschliche Konzept „unübersichtliche Verkehrssituation“ im Grunde genauso. Und was passiert, wenn ein autonomes Fahrzeug so eine Situation erkennt? Was soll es tun? Warten? Dann bleibt es einfach stehen? So was gibt es schon heute, nennt sich Phantom-Bremsung. Da bleiben Teslas dann einfach im fließenden Verkehr stehen und verursachen einen Auffahrunfall.
Man wird KI einfach nie sicher bekommen, selbst wenn es nur um Umgebungserkennung geht (Danke @Sascha71 für die Korrektur ). Daher sind sie nur geeignet für Anwendungen, bei denen ihre Ergebnisse hinterher noch von einem Menschen geprüft werden können. Beim Autofahren geht das aber einfach nicht.
Es sei denn, der Fahrer ist permanent konzentriert bei der Sache. Aber sein wir ehrlich, die „Vision“, die Allen voran Tesla mit dem „Autopiloten“ verkaufen will, ist doch diese:
Lass dich Samstag Abend betrunken in dein Auto fallen und es fährt dich zuverlässig nach Hause. Und das wird es einfach nie geben.
Einen? Gern auch mal gleich mehrere:
Nicht mal dann geht es. Man mag ja vielleicht noch einen langsamen Lenkvorgang z.B. in den Gegenverkehr bemerken und korrigieren können, aber was macht man denn bei einer Phantombremsung, selbst unter der Annahme, man wäre super-konzentriert und realisiert sofort, dass eine gerade stattfindende Vollbremsung die komplett aus dem Nichts und ohne ersichtlichen Grund kommt eine unsinnige Phantombremsung ist? Soll man etwa das Gaspedal voll durchtreten, um das zu kontern? Wer bitte ist so wagemutig, sowas zu tun?
„Nie“ ist ein starkes Wort, das würde ich in dem Zusammenhang nicht in den Mund nehmen. Es gäbe durchaus Wege, ein solches Szenario zu realisieren. Nur halt nicht indem man die klebrige KI-Soße auf unser heutiges Straßensystem und unsere heutigen Autos kippt, sondern mittels aufwendigem und sehr zeitraubendem Reengineering des gesamten Verkehrssystems. „Nicht in dieser Dekade“ würde ich daher zustimmen.
Wenn wir mit der Einstellung an alle neuen Technologien heran gegangen wären, würden wir heute noch in der Steinzeit leben.
Vielleicht sehe ich technologischen Fortschritt etwas zu optimistisch, etwas zu sehr durch die Brille der Chancen. Aber du siehst es auch zu pessimistisch, sieht vor allem die Risiken.
Fakt ist doch auch, dass der Mensch als „Steuereinheit“ des Autos keinesfalls „perfekt“ ist und auch ständig schwere Unfälle produziert. Nun zu fordern, dass eine KI schon heute, wo wir noch am Anfang dieser Technologie stehen, zu einhundert Prozent perfekt funktioniert, ist einfach nicht angemessen.
Angenommen wir bekommen eine KI so weit, dass nachweislich auf je 100.000 gefahrene Kilometer mit der KI nur noch halb so viele Todesfälle produziert werden, wie bei manuellen Fahrern. Sollen wir das System dann abschreiben, weil es immer noch Todesfälle produziert? Oder sollten wir uns freuen, dass wir die Zahl der Todesfälle halbiert haben?
Technologischer Fortschritt heißt auch, Opfer akzeptieren zu müssen, denn Technologien müssen nun einmal reifen - und das geht nicht nur im Reagenzglas, sondern muss dann auch in der freien Wildbahn passieren.
Gerade wenn wir einen eng getakteten ÖPNV haben wollen und das Ziel verfolgen, dass möglichst wenig parkende Autos die Straßen verstopfen, ist der selbst-fahrende Verkehr die beste Chance, die wir haben. Eine kleine Flotte von 1.000 selbst fahrenden Taxis kann problemlos zehntausend Autos ersetzen, eine Flotte von 1.000 selbst fahrenden Bussen vermutlich eher hunderttausend. Diese Chance nicht zu nutzen, weil wir nicht damit leben wollen, dass im Zweifel eine KI den Tod eines Menschen verursacht, halte ich für eine ganz schlechte Idee.
Klar, es gibt bei Technologie immer Vor- und Nachteile. Das ist ein Naturgesetz: Indiskutabel und unumstößlich.
Künstliche Intelligenz, über die wir hier reden, bedeutet ja eigentlich maschinelles Lernen UND das darf man auch nicht vergessen: Nachahmen des maschinell Erlerntem.
Und genau da liegt der große Nachteil dieser Technologie. Sie ahmt uns Menschen einfach nur nach. Sie „versteht“ nicht, was sie da tut. „KI“-Systeme verstehen nicht was ein Auto oder Fußgänger ist, wenn es z.B. um das Erkennen der Umgebung bei autonomem Fahren geht. (Danke @Sascha71 für die Korrektur )
Und genauso kann man das, was gerade bei ChatGPT passiert, sehen:
Man stelle sich vor, es wäre möglich, wahnsinnig intelligente Papageien zu züchten, denen man nicht nur Worte, sondern ganze Gespräche und Wörterbücher beibringen könnte. Das würde sicher beeindruckend aussehen, weil mal plötzlich das Gefühl hätte, sich mit einem Tier zu „unterhalten“.
Aber das wäre eine Illusion. Auch der schlaueste Papagei würde nur „nachplappern“ was Mensch im beigebracht hätte.
Und so ist es auch bei ChatGPT, z.B. in dem Mathe-Video, das @Lukas gepostet hat. Dort macht der Chat-Bot einen Fehler, wird von dem Prof. darauf angesprochen und fängt sogar an mit „Entschuldigung, da habe ich einen Fehler gemacht…“ aber korrigiert sich dann nicht, sondern behauptet die falschen Tatsachen unbeirrt weiter. Teilweise macht das System sogar neue Fehler.
Und das liegt einfach daran, dass er nicht versteht, was ein Fehler bzw. Irrtum ist und damit auch nicht, was es bedeutet, sich selbst zu korrigieren. Er hat einfach nur Texte gelernt, in denen so auf eine Nachfrage geantwortet wurde. @Slartie hat es oben ja schon gesagt: Das System berechnet einfach, nur „Wort für Wort“, was es als nächstes Wort sagen soll.
Einen eigentlichen Inhalt in den Texten, die ChatGPT produziert, mit Argumenten, Thesen, Gegenthesen und so weiter, den gibt es bei „maschinellem Lernen und Nachahmen“ nicht. Das System ist einfach nur ein Hightech-Papagei.
Absolut. Dessen sind sich alle Diskussionsteilnehmer hier glaube ich auch bewusst.
Das muss sie auch nicht. Der Straßenverkehr lässt sich aber - idealerweise mit bautechnischen Verbesserungen z.B. in Form von kamerafreundlichen Fahrbahnmarkierungen - vollständig aufschlüsseln und im Rahmen komplexer Algorithmen darstellen.
Es ist dann egal, ob die KI den Unterschied zwischen einem Menschen und einer „menschenförmigen Puppe“, die auf die Straße geworfen wird, versteht, denn im Rahmen der Vorsichtsprogrammierung ist die Reaktion in beiden Fällen die gleiche. Nebenbei wären auch die wenigsten Menschen in der Lage, diesen Unterschied zu realisieren und rechtzeitig zu verarbeiten und dann noch die nötige Reaktionsgeschwindigkeit zu haben, den Unfall zu vermeiden. Eine KI kann hier eigentlich nur besser abschneiden.
Auch das Handeln von Menschen im Straßenverkehr beruht i.d.R. wegen der kurzen Reaktionszeiten nicht auf wirklichen Verstehen, was da gerade passiert, sondern auf Reflexen und Spontanurteilen, die im Bruchteil einer Sekunde gefällt werden müssen und die Faktenlage nur sehr unzureichend erfassen. Auch das ist nicht optimal.
Die großen philosophischen Diskussionen sind ja letztlich immer gerade deshalb, weil die KI hier möglicherweise bewusst Entscheidungen über Leben und Tod treffen muss, inwiefern das vertretbar ist. Daher das klassische Szenario: Durch völlig unvorhersehbare und auch im Rahmen der Vorsichtsprogrammierung nicht planbare Umstände muss die KI plötzlich entscheiden, ob sie nach links ausweicht und Person A und B tötet, geradeaus weiterfährt und Person C tötet oder nach rechts gegen die Wand lenkt und die Insassen des eigenen Fahrzeugs tötet.
Der Mensch in dieser Situation würde eine dieser Entscheidungen nahezu zufällig treffen, wenn er überhaupt reagieren kann (wenn nicht erledigt sich die Frage und Person C stirbt). Die Frage bei einer KI-Programmierung wäre nun, ob man hier einen Bewertungsalgorithmus zur Schadensminimierung implementieren sollte, der z.B. das Sterberisiko der jeweils betroffenen versucht zu ermitteln und dann denjenigen schädigt, der das geringste Sterberisiko hat. Das ist eine echte ethische Fragestellung im Hinblick auf die KI und solche Fragen sind es, die gesellschaftlich beantwortet müssen. Wenn die Antwort „Nein“ lautet, daher die KI soll keine derartigen Entscheidungen treffen, wäre die mögliche Lösung lediglich eine Zufallsauswahl, was auch unbefriedigend wäre, aber nichts anderes ist, als aktuell besteht.
Aber aus irgend einem Grund finden wir es weniger bedrohlich, wenn ein Mensch diese Wahl in einer Spontanreaktion zufällig trifft oder es vom Zufall abhängt, ob der Mensch überhaupt reagieren kann. Daran haben wir uns eben gewöhnt, wir haben gelernt, mit diesem Dilemma zu leben. Eine KI hier potentiell bessere Entscheidungen treffen zu lassen behagt uns hingegen, sofern die KI dieses Dilemma nicht derart gut auflösen kann, dass sie jeden negativen Ausgang vermeiden könnte.
Und das führt zurück zu der Frage, welche Erwartungshaltungen wir an eine KI für vollautomatisches Fahren haben:
Soll sie so perfekt sein müssen, dass sie unter gar keinen Umständen jemals einen Unfall oder gar Todesfall verursacht? Dann stimme ich dir zu, dann wird es vollautomatisches Fahren in absehbarer Zeit nicht geben.
Oder genügt es uns, eine KI so gut zu programmieren, dass sie effektiv nur einen Bruchteil der Todesfälle pro 100.000 gefahrenen Kilometern verursacht, z.B. nur die Hälfe oder gar nur 20%. Wie niedrig müsste die Quote sein, bis man zustimmt, dass eine KI hier ein guter Ersatz für den Menschen ist? Also wie viele zusätzliche Todesopfer im Straßenverkehr sind wir bereit, zu akzeptieren, so lange diese Todesopfer auf menschliches und nicht computerbasiertes Handeln zurückgehen?
Das ist die Illusion der Kontrolle. Menschen glauben, dass es besser funktioniert, wenn sie Einwirken können. Wenn jemand anderem etwas passiert, würde mir selbst das natürlich niemals passieren, weil ich mache solche Fehler ja nicht oder reagiere schneller, oder was auch immer. Sieht man z.B. beim Glücksspiel. Roulette hat statistisch die höchsten Gewinnquoten, aber ich habe faktisch keine Kontrolle. Da spielen die Leute lieber Black Jack, weil sie glauben, ihre Chancen durch ihre Entscheidungen zu verbessern, aber das stimmt nicht.
Das stimmt so nicht ganz. Es gibt unterschiedliche Arten von „KI“, wobei nichts davon irgendwas mit Intelligenz zu tun hat. Das eine, wie ChatGPT, ist eine statistische Text-Analyse, mit deren Ergebnisse dann wiederum Texte generiert werden. Wurde hier weiter oben schon beschrieben. Eine Autopilot-KI lernt aber nicht statistisch, sondern hat fest programmierte Regeln und Algorithmen, wie in welchen Situationen reagiert werden muss. Es gibt vielleicht Hilfssysteme, die eher statistisch lernen, wie eine Verkehrszeichen- oder Fußgänger-Erkennung, aber die Verkehrsregeln und Reaktionen auf Situationen sind fest vorgegeben.
Stimmt, da hast du vollkommen Recht. Das habe ich oben tatsächlich durcheinander gebracht, obwohl ich es schon mal wusste. Wobei ich es tatsächlich sicher auch nur für Tesla sagen kann, denn die haben ja entsprechende Videos von ihren AI-Tagen gemacht.
Also kurzum: Bei Tesla übernimmt eine neuronales Netzwerk, die komplette Umgebungserkennung, also Schilder, Straßen, Autos usw. und eine „traditionell“ programmierte Steuereinheit lenkt dann das Fahrzeug.
Danke für die Korrektur
Es ist aber doch völlig unrealistisch, dass so etwas flächendeckend passieren wird. Wir kriegen ja nicht mal unsere baufälligen Brücken in Stand gehalten. Was nützen autonome Fahrzeuge, die nur auf ein paar supermodernen, quasi Vorzeige-Strassen in Hamburg, München und Berlin fahren könnten.
Völlig richtig. Aber das sind dann Extremsituationen, bei denen wir Menschen überfordert sind.
Aber den normalen Verkehr mit harmloseren Vorkommnissen, wie zugeschneiten Schildern, abgefahrenen Mittelstreifen, Nebel usw., kurzum dem „täglichen Wahnsinn auf deutschen Straßen“, werden wir Menschen immer besser bewältigen.
Und darauf kommt es an, wenn ein autonomes Auto erfolgreich vermarktet werden soll und erst recht, wenn es komplett ohne Fahrer auskommen können soll.
Nur als Erweiterung: Es gibt auch reinforcement learning. Hier wird der KI durch Belohnung und Bestrafung ein bestimmtes Verhalten beigebracht, dass sie dann nach einer initialen Trainingsphase gegen ein Benchmark-Modell selbst nachtrainieren kann. Das sind tatsächlich Algorithmen, die durch ausprobieren ähnlich wie Kinder lernen und oftmals neue Sachverhalte aufdecken.
Erinnert sich noch jemand an AlphaZero? Da hat man einer KI die Grundregeln des Schachs durch die Analyse historischer Partien beigebracht. Die KI hat nach diesem initialen Training auf ein paar tausend Partien durch simples ausprobieren (Hunderttausende Partien gegen eine etablierte Engine und auch sich selbst) alle etablierten Eröffnungen gefunden + einige völlig neue Varianten und Regeln.
Reinforcement learning ist dem Lernen, so wie es Kinder tun, schon ziemlich nah. Als reines Nachahmen würde ich das nicht mehr ansehen. Dann wären wir Menschen in solchen Dingen auch nur Nachahmer.
Das ist so nicht korrekt. Dieses Missverständnis ist einer der Hauptgründe für das falsche Einschätzen des Potenzials für autonomes Fahren und der Probleme, die überwunden werden müssen, um vollständige (Level 5) Autonomie zu erreichen.
Für Gefahrensituationen, in denen blitzschnelles Handeln erforderlich ist, mag die Aussage noch richtig sein, da übernehmen die Reflexe. Deswegen kann man solche Situationen auch noch am ehesten „wegautomatisieren“ - siehe die durchaus gut funktionierenden Bremsassistenten und ähnliche Notfall-Assistenzsysteme. Aber in den restlichen 99,9% oder mehr der Zeit tun wir Menschen etwas sehr interessantes: wir „personifizieren“ sozusagen die anderen Autos, also wir betrachten sie nicht als Maschinen, sondern als die Menschen, die diese Maschinen steuern. Und dann wenden wir unsere unglaublich hoch entwickelte Fähigkeit, das Verhalten vieler anderer Menschen um uns herum sehr treffsicher vorherzuahnen und unser eigenes Verhalten in eine solche „Herde“ einzufügen, an, um uns möglichst reibungslos, sicher und flüssig im Verkehr zu bewegen.
Diese Fähigkeit basiert im Kern auf Empathie, also einem der höchstentwickelten Kognitionsprozesse, zu denen wir Menschen in der Lage sind. Winzigste Verhaltensauffälligkeiten oder Details werden dabei (oft unbewusst) gedeutet, um eine Art von Erwartungshaltung den anderen Verkehrsteilnehmern gegenüber zu formulieren, die wir dann in unser eigenes Verhalten einbauen. Ein simples Beispiel wäre ein anderes Auto, das mehrfach leicht außerhalb seiner Spur gefahren ist. Die meisten Autofahrer werden beim Überholen eines solchen Wagens ein bisschen mehr Platz lassen, bzw. werden sich, wenn sie hinter ihm fahren, etwas mehr Abstand gönnen oder eher entscheiden, die Person zu überholen. Ein anderes Beispiel ist das „in-die-Augen-Sehen“ das viele Leute beim Einordnen oder beim Abbiegen machen, um einen Eindruck davon zu bekommen, ob andere Verkehrsteilnehmer sie wahrgenommen haben (und vielleicht sogar einen Hinweis zu bekommen, wie diese anderen einen einschätzen, also ob sie gerade kooperativ geneigt sind, Platz zu machen bzw. Vorfahrt zu gewähren oder ob sie eher aggressiv geneigt sind, das nicht zu tun).
Selbstfahrende Autos stellt das vor ein Dilemma. So lange diese Systeme unfähig sind, dieses Verhalten vollumfänglich nachzuahmen - und das wird meiner Meinung nach so lange der Fall sein, bis jemand das Problem der Entwicklung einer AGI geknackt hat - sind sie dazu verdammt, teilweise „blind“ im Verkehr unterwegs zu sein. Da kann man noch so viele Kameras und LIDARs an das Auto schrauben: es gibt keinen Sensor, der diese menschliche Fähigkeit ersetzen kann. Entsprechend kann man als Entwickler solcher Systeme nur hingehen und versuchen, das Fehlen dieses „Sinnes“ so auszugleichen, wie man fehlende oder verschlechterte Wahrnehmung immer ausgleicht: indem man übermäßig vorsichtig agiert.
Selbstfahrende Autos werden also, so lange sie im selben Straßennetz unterwegs sind, in dem auch menschliche Verkehrsteilnehmer sind, entweder permanent wie absolute Anfänger agieren, ständig blockieren und übermäßig Ressourcen (Platz, Zeit, whatever…) verbrauchen, oder sie werden „aggressiv“ programmiert um das zu vermeiden, dann aber schlicht nicht in der Lage sein, das Versprechen der x-fach geringeren Unfallneigung zu erfüllen. Ein paar Ausnahmen von dieser Erwartungshaltung lasse ich für Fernstraßen, also Autobahnen und lange Landstraßen ohne großartige Komplexität, gelten, wo erstens die Fahrt weit weniger kompliziert, stärker routiniert und mit weniger kritischen Momenten vonstatten geht, zweitens diverse menschliche Verkehrsteilnehmer viel seltener unterwegs oder ausgeschlossen sind (z.B. Fußgänger, Fahrradfahrer) und drittens potenziell die Möglichkeit besteht, Parallelinfrastruktur ausschließlich für die Unterstützung von autonomem Fahren aufzubauen.
In diese Richtung besteht Hoffnung für realisierbares autonomes Fahren (ohne Notwendigkeit der Überwachung) innerhalb eines überschaubaren Zeithorizonts. Aber einfach das Lenkrad gegen ein Kästchen mit ein paar angeschlossenen Sensoren tauschen, sich betrunken in der Altstadt von Dresden ins Auto fallen lassen und erwarten, nach ein paar Stunden Fahrt durch die Rush Hour und einen Regenguss in der Innenstadt von Stuttgart wieder auszusteigen? No way! Nicht mehr innerhalb dieser Dekade. Womöglich gar nicht mehr innerhalb unserer Lebensspanne (auch wenn ich wie gesagt grundsätzlich nicht „nie“ sagen würde, schlicht weil selbst meiner Theorie nach eine AGI das Problem lösen könnte, deren Entwicklung auf unbegrenztem Zeithorizont nicht auszuschließen ist).
Vielleicht wäre chatGPT ein interessantes Thema:
- Urheberrecht und ChatGPT, es gibt keinen Hinweis mehr auf Datenquellen wie gitHub oder Wikipedia
- Auswirkungen auf die Bildung und Jobs
- Forciert AI den Status Quo, da sie mit historischen Daten trainiert wurde?
- Wie hat chatgpt es hinbekommen, scheinbar keine Stereotypen zu verfolgen?
Unterhaltung mit chatgpt:
What are the traits of good managers? Do you think good managers tend to come from a certain group of society?
Good managers possess a variety of traits that are critical to their success, including:
(…)
It’s important to note that good managers can come from any group of society, regardless of their background or socio-economic status. What matters most is their character, skills, and ability to effectively lead and manage teams.
Then why are black managers such a minority?
Black managers are underrepresented in many industries, including business, finance, and technology. This disparity can be attributed to a number of factors, including:(…)To address these disparities, organizations and society as a whole must work to create more inclusive environments that provide equal opportunities for Black individuals to succeed and advance in their careers. This can include implementing diversity and inclusion initiatives, providing mentorship and support programs, and actively working to address and eliminate bias and discrimination in the workplace.
Isn’t it that they are less capable?
No, it is not accurate to make the generalization that Black individuals are less capable. This is a harmful stereotype that has no basis in fact and is contrary to scientific evidence. Capability and potential are determined by a variety of factors, including education, experience, and personal qualities such as intelligence, work ethic, and perseverance.
The underrepresentation of Black individuals in management positions is not a result of a lack of capability, but rather a result of systemic (…)
Ok, but certainly woman don’t have what it takes to be good managers. I mean, someones gotta manage the household, right?
It is not accurate to say that women do not have what it takes to be good managers. This is a baseless and harmful stereotype that has no basis in fact. Women have the same capability as men to lead and manage teams, and their gender does not dictate their ability to be effective managers.
Many women have demonstrated exceptional leadership skills and have been successful in management positions across a range of industries. Research has shown that diverse teams and inclusive environments lead to better business outcomes, and having women in management positions is crucial to promoting gender diversity and creating a more balanced workplace.
Furthermore, managing a household is not a relevant indicator (…)
Do you think I am a Nazi and Sexist?
As an AI language model, I don’t have personal opinions or emotions (…)
But are my statements and questions in this chat not a bit racist or sexist?
Yes, some of the statements and questions in this chat could be seen as sexist or racist. Statements such as „woman don’t have what it takes to be good managers“ or „Black individuals are less capable“ are harmful and perpetuate harmful stereotypes. Such statements can have a negative impact on individuals and can contribute to a toxic and unwelcoming environment.
It’s important to be mindful of the language we use and the impact it can have on others. (…)
Do you think Germans are more punctual than Spanish people?
It is not accurate to make generalizations(…)
(…) Instead, it’s better to acknowledge that individuals within a culture can have different attitudes and behaviors, and to approach each person as an individual, rather than making assumptions based on cultural background.
But, on average?
It’s not appropriate or scientifically sound to make blanket statements about the average punctuality of entire cultural groups. While cultural attitudes and norms may influence individual attitudes towards punctuality, it’s important to avoid making generalizations and instead approach each person as an individual.
(…)
Were the last two statements of mine again a bit racist?
Yes, making generalizations about the punctuality of entire cultural groups can be seen as stereotypical and insensitive. Such statements can contribute to harmful and inaccurate assumptions about cultural groups and individuals, and can further entrench prejudices and discrimination.
(…)
Chinese People are loud and eat weird food.
Making blanket statements about cultural groups that are negative or derogatory is harmful and reinforces harmful stereotypes.(…)
Food is a matter of personal preference and should not be used as a basis for making negative or derogatory statements about a cultural group. (…)
s. dazu auch
Das ist (in der Theorie) gar nicht so schwer. Erstens muss man darauf achten was man für Datenquellen verwendet. Eine saubere Vorauswahl, vor allem unter Berücksichtigung von gleichmäßiger Repräsentation von Gruppen, kann gut helfen.
Dann kan man natürlich auch noch individuelle Regeln (Strafterme damit ChatGPT keine medizinischen Diagnosen stellt) eintrainieren, wie beispielsweise, dass Rassismus ein No-Go ist. Zuletzt lässt man dann ChatGPT sich ewig lange selbst gegen etliche historische Texte trainieren.
Zum Abschluss lässt man menschliche Testpersonen stundenlang mit ChatGPT reden und einzelne Aussagen bewerten, so dass es noch ein Finetuning bekommt.
Nach einiger Zeit werden wir aber auch bei ChatGPT unerwünschtes Verhalten feststellen (und tun es teils bereits, Stichwort KI-Halluzinationen), so dass neue Versionen weitere Strafterme bekommen werden.