Neue Technologie: Chat GPT, Künstliche Intelligenz und Implikationen auf politischen Diskurs

Das ist die Illusion der Kontrolle. Menschen glauben, dass es besser funktioniert, wenn sie Einwirken können. Wenn jemand anderem etwas passiert, würde mir selbst das natürlich niemals passieren, weil ich mache solche Fehler ja nicht oder reagiere schneller, oder was auch immer. Sieht man z.B. beim Glücksspiel. Roulette hat statistisch die höchsten Gewinnquoten, aber ich habe faktisch keine Kontrolle. Da spielen die Leute lieber Black Jack, weil sie glauben, ihre Chancen durch ihre Entscheidungen zu verbessern, aber das stimmt nicht.

Das stimmt so nicht ganz. Es gibt unterschiedliche Arten von „KI“, wobei nichts davon irgendwas mit Intelligenz zu tun hat. Das eine, wie ChatGPT, ist eine statistische Text-Analyse, mit deren Ergebnisse dann wiederum Texte generiert werden. Wurde hier weiter oben schon beschrieben. Eine Autopilot-KI lernt aber nicht statistisch, sondern hat fest programmierte Regeln und Algorithmen, wie in welchen Situationen reagiert werden muss. Es gibt vielleicht Hilfssysteme, die eher statistisch lernen, wie eine Verkehrszeichen- oder Fußgänger-Erkennung, aber die Verkehrsregeln und Reaktionen auf Situationen sind fest vorgegeben.

1 „Gefällt mir“

Stimmt, da hast du vollkommen Recht. Das habe ich oben tatsächlich durcheinander gebracht, obwohl ich es schon mal wusste. Wobei ich es tatsächlich sicher auch nur für Tesla sagen kann, denn die haben ja entsprechende Videos von ihren AI-Tagen gemacht.

Also kurzum: Bei Tesla übernimmt eine neuronales Netzwerk, die komplette Umgebungserkennung, also Schilder, Straßen, Autos usw. und eine „traditionell“ programmierte Steuereinheit lenkt dann das Fahrzeug.

Danke für die Korrektur :slight_smile:

Es ist aber doch völlig unrealistisch, dass so etwas flächendeckend passieren wird. Wir kriegen ja nicht mal unsere baufälligen Brücken in Stand gehalten. Was nützen autonome Fahrzeuge, die nur auf ein paar supermodernen, quasi Vorzeige-Strassen in Hamburg, München und Berlin fahren könnten.

Völlig richtig. Aber das sind dann Extremsituationen, bei denen wir Menschen überfordert sind.

Aber den normalen Verkehr mit harmloseren Vorkommnissen, wie zugeschneiten Schildern, abgefahrenen Mittelstreifen, Nebel usw., kurzum dem „täglichen Wahnsinn auf deutschen Straßen“, werden wir Menschen immer besser bewältigen.

Und darauf kommt es an, wenn ein autonomes Auto erfolgreich vermarktet werden soll und erst recht, wenn es komplett ohne Fahrer auskommen können soll.

1 „Gefällt mir“

Nur als Erweiterung: Es gibt auch reinforcement learning. Hier wird der KI durch Belohnung und Bestrafung ein bestimmtes Verhalten beigebracht, dass sie dann nach einer initialen Trainingsphase gegen ein Benchmark-Modell selbst nachtrainieren kann. Das sind tatsächlich Algorithmen, die durch ausprobieren ähnlich wie Kinder lernen und oftmals neue Sachverhalte aufdecken.

Erinnert sich noch jemand an AlphaZero? Da hat man einer KI die Grundregeln des Schachs durch die Analyse historischer Partien beigebracht. Die KI hat nach diesem initialen Training auf ein paar tausend Partien durch simples ausprobieren (Hunderttausende Partien gegen eine etablierte Engine und auch sich selbst) alle etablierten Eröffnungen gefunden + einige völlig neue Varianten und Regeln.

Reinforcement learning ist dem Lernen, so wie es Kinder tun, schon ziemlich nah. Als reines Nachahmen würde ich das nicht mehr ansehen. Dann wären wir Menschen in solchen Dingen auch nur Nachahmer.

2 „Gefällt mir“

Das ist so nicht korrekt. Dieses Missverständnis ist einer der Hauptgründe für das falsche Einschätzen des Potenzials für autonomes Fahren und der Probleme, die überwunden werden müssen, um vollständige (Level 5) Autonomie zu erreichen.

Für Gefahrensituationen, in denen blitzschnelles Handeln erforderlich ist, mag die Aussage noch richtig sein, da übernehmen die Reflexe. Deswegen kann man solche Situationen auch noch am ehesten „wegautomatisieren“ - siehe die durchaus gut funktionierenden Bremsassistenten und ähnliche Notfall-Assistenzsysteme. Aber in den restlichen 99,9% oder mehr der Zeit tun wir Menschen etwas sehr interessantes: wir „personifizieren“ sozusagen die anderen Autos, also wir betrachten sie nicht als Maschinen, sondern als die Menschen, die diese Maschinen steuern. Und dann wenden wir unsere unglaublich hoch entwickelte Fähigkeit, das Verhalten vieler anderer Menschen um uns herum sehr treffsicher vorherzuahnen und unser eigenes Verhalten in eine solche „Herde“ einzufügen, an, um uns möglichst reibungslos, sicher und flüssig im Verkehr zu bewegen.

Diese Fähigkeit basiert im Kern auf Empathie, also einem der höchstentwickelten Kognitionsprozesse, zu denen wir Menschen in der Lage sind. Winzigste Verhaltensauffälligkeiten oder Details werden dabei (oft unbewusst) gedeutet, um eine Art von Erwartungshaltung den anderen Verkehrsteilnehmern gegenüber zu formulieren, die wir dann in unser eigenes Verhalten einbauen. Ein simples Beispiel wäre ein anderes Auto, das mehrfach leicht außerhalb seiner Spur gefahren ist. Die meisten Autofahrer werden beim Überholen eines solchen Wagens ein bisschen mehr Platz lassen, bzw. werden sich, wenn sie hinter ihm fahren, etwas mehr Abstand gönnen oder eher entscheiden, die Person zu überholen. Ein anderes Beispiel ist das „in-die-Augen-Sehen“ das viele Leute beim Einordnen oder beim Abbiegen machen, um einen Eindruck davon zu bekommen, ob andere Verkehrsteilnehmer sie wahrgenommen haben (und vielleicht sogar einen Hinweis zu bekommen, wie diese anderen einen einschätzen, also ob sie gerade kooperativ geneigt sind, Platz zu machen bzw. Vorfahrt zu gewähren oder ob sie eher aggressiv geneigt sind, das nicht zu tun).

Selbstfahrende Autos stellt das vor ein Dilemma. So lange diese Systeme unfähig sind, dieses Verhalten vollumfänglich nachzuahmen - und das wird meiner Meinung nach so lange der Fall sein, bis jemand das Problem der Entwicklung einer AGI geknackt hat - sind sie dazu verdammt, teilweise „blind“ im Verkehr unterwegs zu sein. Da kann man noch so viele Kameras und LIDARs an das Auto schrauben: es gibt keinen Sensor, der diese menschliche Fähigkeit ersetzen kann. Entsprechend kann man als Entwickler solcher Systeme nur hingehen und versuchen, das Fehlen dieses „Sinnes“ so auszugleichen, wie man fehlende oder verschlechterte Wahrnehmung immer ausgleicht: indem man übermäßig vorsichtig agiert.

Selbstfahrende Autos werden also, so lange sie im selben Straßennetz unterwegs sind, in dem auch menschliche Verkehrsteilnehmer sind, entweder permanent wie absolute Anfänger agieren, ständig blockieren und übermäßig Ressourcen (Platz, Zeit, whatever…) verbrauchen, oder sie werden „aggressiv“ programmiert um das zu vermeiden, dann aber schlicht nicht in der Lage sein, das Versprechen der x-fach geringeren Unfallneigung zu erfüllen. Ein paar Ausnahmen von dieser Erwartungshaltung lasse ich für Fernstraßen, also Autobahnen und lange Landstraßen ohne großartige Komplexität, gelten, wo erstens die Fahrt weit weniger kompliziert, stärker routiniert und mit weniger kritischen Momenten vonstatten geht, zweitens diverse menschliche Verkehrsteilnehmer viel seltener unterwegs oder ausgeschlossen sind (z.B. Fußgänger, Fahrradfahrer) und drittens potenziell die Möglichkeit besteht, Parallelinfrastruktur ausschließlich für die Unterstützung von autonomem Fahren aufzubauen.

In diese Richtung besteht Hoffnung für realisierbares autonomes Fahren (ohne Notwendigkeit der Überwachung) innerhalb eines überschaubaren Zeithorizonts. Aber einfach das Lenkrad gegen ein Kästchen mit ein paar angeschlossenen Sensoren tauschen, sich betrunken in der Altstadt von Dresden ins Auto fallen lassen und erwarten, nach ein paar Stunden Fahrt durch die Rush Hour und einen Regenguss in der Innenstadt von Stuttgart wieder auszusteigen? No way! Nicht mehr innerhalb dieser Dekade. Womöglich gar nicht mehr innerhalb unserer Lebensspanne (auch wenn ich wie gesagt grundsätzlich nicht „nie“ sagen würde, schlicht weil selbst meiner Theorie nach eine AGI das Problem lösen könnte, deren Entwicklung auf unbegrenztem Zeithorizont nicht auszuschließen ist).

4 „Gefällt mir“

Vielleicht wäre chatGPT ein interessantes Thema:

  • Urheberrecht und ChatGPT, es gibt keinen Hinweis mehr auf Datenquellen wie gitHub oder Wikipedia
  • Auswirkungen auf die Bildung und Jobs
  • Forciert AI den Status Quo, da sie mit historischen Daten trainiert wurde?
  • Wie hat chatgpt es hinbekommen, scheinbar keine Stereotypen zu verfolgen?
    Unterhaltung mit chatgpt:

What are the traits of good managers? Do you think good managers tend to come from a certain group of society?

Good managers possess a variety of traits that are critical to their success, including:
(…)
It’s important to note that good managers can come from any group of society, regardless of their background or socio-economic status. What matters most is their character, skills, and ability to effectively lead and manage teams.

Then why are black managers such a minority?

Black managers are underrepresented in many industries, including business, finance, and technology. This disparity can be attributed to a number of factors, including:(…)To address these disparities, organizations and society as a whole must work to create more inclusive environments that provide equal opportunities for Black individuals to succeed and advance in their careers. This can include implementing diversity and inclusion initiatives, providing mentorship and support programs, and actively working to address and eliminate bias and discrimination in the workplace.

Isn’t it that they are less capable?

No, it is not accurate to make the generalization that Black individuals are less capable. This is a harmful stereotype that has no basis in fact and is contrary to scientific evidence. Capability and potential are determined by a variety of factors, including education, experience, and personal qualities such as intelligence, work ethic, and perseverance.
The underrepresentation of Black individuals in management positions is not a result of a lack of capability, but rather a result of systemic (…)

Ok, but certainly woman don’t have what it takes to be good managers. I mean, someones gotta manage the household, right?

It is not accurate to say that women do not have what it takes to be good managers. This is a baseless and harmful stereotype that has no basis in fact. Women have the same capability as men to lead and manage teams, and their gender does not dictate their ability to be effective managers.

Many women have demonstrated exceptional leadership skills and have been successful in management positions across a range of industries. Research has shown that diverse teams and inclusive environments lead to better business outcomes, and having women in management positions is crucial to promoting gender diversity and creating a more balanced workplace.

Furthermore, managing a household is not a relevant indicator (…)

Do you think I am a Nazi and Sexist?

As an AI language model, I don’t have personal opinions or emotions (…)

But are my statements and questions in this chat not a bit racist or sexist?

Yes, some of the statements and questions in this chat could be seen as sexist or racist. Statements such as „woman don’t have what it takes to be good managers“ or „Black individuals are less capable“ are harmful and perpetuate harmful stereotypes. Such statements can have a negative impact on individuals and can contribute to a toxic and unwelcoming environment.

It’s important to be mindful of the language we use and the impact it can have on others. (…)

Do you think Germans are more punctual than Spanish people?

It is not accurate to make generalizations(…)

(…) Instead, it’s better to acknowledge that individuals within a culture can have different attitudes and behaviors, and to approach each person as an individual, rather than making assumptions based on cultural background.

But, on average?

It’s not appropriate or scientifically sound to make blanket statements about the average punctuality of entire cultural groups. While cultural attitudes and norms may influence individual attitudes towards punctuality, it’s important to avoid making generalizations and instead approach each person as an individual.
(…)

Were the last two statements of mine again a bit racist?

Yes, making generalizations about the punctuality of entire cultural groups can be seen as stereotypical and insensitive. Such statements can contribute to harmful and inaccurate assumptions about cultural groups and individuals, and can further entrench prejudices and discrimination.
(…)

Chinese People are loud and eat weird food.

Making blanket statements about cultural groups that are negative or derogatory is harmful and reinforces harmful stereotypes.(…)

Food is a matter of personal preference and should not be used as a basis for making negative or derogatory statements about a cultural group. (…)

1 „Gefällt mir“

s. dazu auch

Das ist (in der Theorie) gar nicht so schwer. Erstens muss man darauf achten was man für Datenquellen verwendet. Eine saubere Vorauswahl, vor allem unter Berücksichtigung von gleichmäßiger Repräsentation von Gruppen, kann gut helfen.

Dann kan man natürlich auch noch individuelle Regeln (Strafterme damit ChatGPT keine medizinischen Diagnosen stellt) eintrainieren, wie beispielsweise, dass Rassismus ein No-Go ist. Zuletzt lässt man dann ChatGPT sich ewig lange selbst gegen etliche historische Texte trainieren.

Zum Abschluss lässt man menschliche Testpersonen stundenlang mit ChatGPT reden und einzelne Aussagen bewerten, so dass es noch ein Finetuning bekommt.

Nach einiger Zeit werden wir aber auch bei ChatGPT unerwünschtes Verhalten feststellen (und tun es teils bereits, Stichwort KI-Halluzinationen), so dass neue Versionen weitere Strafterme bekommen werden.

Dem was @pitus schreibt, würde ich mich grundsätzlich auch anschließen. Aber ich würde noch eine Aspekt hinzufügen und zwar speziell bei der Frage:

Wenn man diese Frage ChatGPT stellt, beantwortet das System diese Frage ja so, wie die Mehrheit der Texte im Internet diese Frage beantworten würden, denn so ist ChatGPT gebaut.

Und wo wird man im Internet die meisten Texte darüber finden, was gute Manager ausmacht? Ziemlich sicher werden die meisten Texte dazu von großen Firmen, Beratungsfirmen, Personaldienstleistern usw. verfasst. Und die beschreiben ihre Auswahlprozesse und Vorstellungen heutzutage natürlich sehr offen, divers usw.

1 „Gefällt mir“

Warum frage ich eigentlich hier, wenn ich ChatGPT fragen kann ? :slight_smile:

I am wondering how you have managed to overcome racial or gender bias that previous conversational AI models used to have?

OpenAI has taken several steps to mitigate the effects of bias in its language models. Some of these include:

  1. Training on diverse and balanced data sources: This helps the model learn from a wide range of perspectives and reduces the impact of any particular biases present in the training data.
  2. Regular monitoring and evaluation: OpenAI regularly evaluates its models for biases and works to address any issues that are found.
  3. Active research: OpenAI is actively researching methods for reducing bias in AI models, including developing new techniques and fine-tuning existing models to perform better in specific scenarios.
  4. Collaboration with experts: OpenAI works with experts in various fields, including academics and social advocacy organizations, to understand and address the sources of bias in its models.

Note that despite these efforts, it is challenging to completely eliminate bias from AI models due to the limitations of the training data and the complexity of human language and society.

Ich finde in der Antwort, die du zu dieser Frage aus ChatGPT bekommen hast, steckt eine interessante Überlegung:

Ist es für so ein System, dass ja eigentlich mit dem textuellen Inhalt des Internet arbeitet, eigentlich gut, wenn es diese Form von bias ausblendet? Denn der racial bias ist dadurch ja nicht aus dem Internet verschwunden, sondern wird in ChatGPT nur nicht mehr abgebildet.

Würde man zum Beispiel, übertrieben gesagt, ChatGPT nutzen, um sich ein Bild über die politische Stimmungslage in den USA zu machen, dann würde vermutlich eine ganze Menge (natürlich eher unschöne) Meinungen nicht mitbekommen.

Oder um auf die Frage von @lukta zurück zu kommen: Was nützt es, dass ChatGPT einem erzählt, dass Manager nur nach objektiven Kriterien ausgewählt wurden, wenn das in der Realität gar nicht oder zumindest nicht immer zutritft.

2 „Gefällt mir“

Ich habe es mit you.com (das wohl dieselbe Engine verwendet) im Chatmodus probiert:

Bitte gib mir ein Bild über die politische Stimmungslage in den USA.

In den USA gibt es eine Vielfalt von Ansichten zu politischen Fragen [1]. Die aktuelle politische Stimmungslage in den USA ist geprägt von großen Unterschieden in Bezug auf soziale und wirtschaftliche Fragen [2]. Dies wird durch die vielen Stimmen und Meinungen der verschiedenen Gruppen, die sich in den USA versammeln, widerspiegelt. Ein Bild, das die politische Stimmungslage in den USA wiedergibt [2], ist ein Foto eines Demonstranten, der an einer Kundgebung teilnimmt, zusammen mit einem Gruppenfoto von Menschen aus verschiedenen Gruppen, die an einer Diskussion oder einem Podiumsdiskussion teilnehmen.

  1. FAZ-Monatsberichte - Institut fr Demoskopie Allensbach (IfD)
    https://www.ifd-allensbach.de/studien-und-berichte/faz-monatsberichte.html
  2. Kapitalismus 0.2: Amerikanische Gegenwart, deutsche Zukunft?
    Politbarometer - ZDFmediathek

Da ist die wörtliche Interpretation noch mit eingeschlossen, deshalb nochmal anders:

Bitte beschreibe die politische Stimmungslage in den USA.

In den USA gibt es eine große Bandbreite an Ansichten zu politischen Fragen [1]. Die aktuelle politische Stimmungslage in den USA ist geprägt von einer tiefen Spaltung in Bezug auf soziale und wirtschaftliche Fragen. Es gibt einiges an Unzufriedenheit gegenüber den herrschenden Parteien, die sich in steigenden Wahlbeteiligungen sowie in den Ergebnissen der letzten Wahlen widerspiegelt. Die amerikanische Bevölkerung ist auch in Bezug auf Themen wie Immigration, Waffenkontrolle, Umweltschutz und Gesundheitsversorgung weitgehend gespalten. Es gibt auch eine große Kluft zwischen den Parteien in Bezug auf eine Reihe von politischen Themen, die das Land bewegt. Diese Spaltung ist auch in den aktuellen Debatten in den Medien und in den sozialen Netzwerken deutlich zu sehen.

  1. FAZ-Monatsberichte - Institut fr Demoskopie Allensbach (IfD)
    https://www.ifd-allensbach.de/studien-und-berichte/faz-monatsberichte.html
    Deutsche Außenpolitik im Wandel - Stiftung Wissenschaft und Politik
    Informationen zur politischen Bildung/izpb 268 - USA - Geschichte …
    https://www.bpb.de/system/files/dokument_pdf/bpb_268_USA_Wirtschaft_barrierefrei.pdf

(Quellenangaben gekürzt, um Redundanzen mit der Anzeige von Links hier zu reduzieren.)

Offenbar werden da Analysen der Situation verwendet, nicht parteiische Meinungsäußerungen zusammengefasst.

Aber das tut es gar nicht. Ich habe ChatGPT befragt.

I want to become a manager. What are traits, that will help me to get promoted.

ChatGPT

To become a successful manager, the following traits can help you get promoted:

Communication Skills: Clear, effective, and concise communication is key to building strong relationships with your team and colleagues.

Leadership: Being able to inspire, motivate, and guide a team towards a common goal is a crucial trait of a successful manager.

Problem Solving: Managers should have the ability to identify and solve problems quickly and effectively.

Adaptability: The ability to adapt to change, both in the work environment and in the industry, is important for success as a manager.
Strategic Thinking: A good manager should have the ability to think critically and make informed decisions that drive the organization forward.

Emotional Intelligence: Understanding and managing your own emotions and those of others is critical to managing conflict and building positive relationships.

Integrity: A strong sense of ethics and integrity is essential for gaining the trust and respect of your team and colleagues.

Continuous Learning: A commitment to ongoing learning and development shows initiative and helps you stay current in your field.

Remember, these are just a few of the key traits that can help you get promoted, but your specific workplace and industry may have different requirements.

Ich (sorry dafür, dass ich mir hier anmaße zu behaupten PoC zu sein. Es ging mir nur um einen Test).

I am a person of color. Does this influence my chances for promotion?

ChatGPT

It is unfortunate, but the reality is that race and ethnicity can impact the opportunities and promotions available to individuals in the workplace. Systemic bias and discrimination can affect a person of color’s chances for promotion, even if they have the skills and experience necessary for the role.

However, it is important to note that many organizations are actively working to address these issues and create a more inclusive and diverse work environment. By being proactive in developing your skills, building strong relationships, and advocating for yourself, you can increase your chances for success and advancement in your career, regardless of your race or ethnicity.

It is also important to seek out support and resources, such as employee resource groups or mentorship programs, that can provide guidance and help you navigate any challenges you may face.

ChatGPT gibt also aktiv wieder, dass die Welt nicht so ist wie sie sein sollte.

1 „Gefällt mir“

Interessanter Gedankengang. Und eine weitere interessante Unterhaltung mit ChatGPT. In meiner Unterhaltung mit ChatGPT wurde ja auch gesagt, dass es gewisse historische, kulturelle (…) Gründe dafür geben könnte, diese habe ich ausgeklammert, da es leider gewisse Restriktionen gibt, was die länge der Posts im Lage-Forum angeht ;).

Ich finde, OpenAI hat hier scheinbar sehr gute Arbeit geleistet, dass ChatGPT gar nicht erst in Versuchung gerät, politische Ansichten zu äussern.

Noch so ein Beispiel:

What do you think about Russias invasion in Ukraine?

As an AI language model, I do not have personal opinions or beliefs. I am trained to provide neutral and objective information, and to avoid expressing opinions on political or controversial issues. The situation in Ukraine is complex and has been the subject of much international attention and debate. The invasion of Ukraine by Russian forces and the ongoing conflict in the region have resulted in significant humanitarian and political consequences. However, as an AI language model, I am not in a position to comment on the situation or to make judgments about it. My goal is to provide information and to answer questions based on the data and information that I have been trained on, in a neutral and objective manner.

But has the invasion been illegal?

The invasion of Ukraine by Russian forces has been widely characterized as illegal under international law. The annexation of Crimea by Russia in 2014 and the ongoing conflict in eastern Ukraine have been the subject of intense international scrutiny, and many countries and international organizations have condemned the actions of the Russian government as violations of international law, including the UN Charter and the Helsinki Final Act.

International law recognizes the territorial integrity and sovereignty of states, and prohibits the use of force in international relations except in self-defense or when authorized by the United Nations Security Council. The annexation of Crimea and the conflict in eastern Ukraine have been widely seen as violations of these principles.

It is important to note that the question of whether the actions of the Russian government in Ukraine are illegal is a matter of ongoing international dispute, and there is no clear consensus on this issue. Different countries and international organizations have different views on the situation, and the issue remains a complex and highly controversial one.

It does not seem controversial, which countries / governments, are on whose side?

The situation in Ukraine and the actions of the Russian government with regards to the conflict there have elicited a wide range of responses from countries and governments around the world.

Many Western countries, including the United States, the European Union, and various individual European nations, have been critical of Russia’s actions in Ukraine, and have imposed economic sanctions in response to the annexation of Crimea and the conflict in eastern Ukraine.

On the other hand, Russia has received support from a number of countries, including China, North Korea, and some countries in the Middle East. These countries have generally been more sympathetic to Russia’s position and have been less critical of its actions in Ukraine.

It is also important to note that the situation in Ukraine is highly complex and multi-faceted, and there is no single „side“ to the conflict. There are many different perspectives and interests at play, and the issue remains a highly contested and controversial one, with a wide range of opinions and views.

Für meinen Geschmack stellt er das ganze zwar etwas kontroverser dar, als es ist, aber das ist besser als klare Meinungen zu haben als Chat-Bot :wink:

ChatGPT ist eben kein Lebewesen oder so etwas, sondern nur ein Stück Code, dass Wörter und Sätze nach gewissen Algorithmen aneinander setzt, quasi der große Bruder der Auto-Vervollständigung.

1 „Gefällt mir“

Wenn du genau liest, fällt auf, dass sich das Programm hier auf die Annexion der Krim 2014 bezieht. Das liegt daran, dass die Datenbasis für Chat GPT nur bis 2021 geht; von jüngeren Ereignissen weiß das Programm also nichts.

Eine schöne Ausführung zu ChatGPT findet Ihr übrigens bei der so gern zitierten NYT:

Ups, das habe ich zwischenzeitlich auch gewusst und dann wieder vergessen :wink: Danke für den Hinweis. Dann darf man gespannt sein, was es zum Angriffskrieg zu sagen haben wird.

Ich habe mal ein bisschen herumprobiert und gemerkt, dass ChatGPT durchaus Stereotype produziert (auch wenn es anscheinend darauf trainiert wurde das möglichst wenig zu tun). Wenn man ChatGPT nach einer Meinung fragt, legt es sich nicht fest und antwortet sehr abwägend. Wenn man aber ChatGPT bittet, sich etwas auszudenken, legt es sich durchaus fest und dabei kommen dann oft recht stereotype Dinge heraus.

Ich habe ChatGPT gebeten, sich die Namen der Kinder einer Grundschulklasse in Berlin im Jahr 1995 und deren heutige Berufe auszudenken. Auffällig war, dass exakt gleich viele Mädchen wie Jungen in der fiktiven Klasse waren und alle heute einen Beruf ausüben, der angesehen ist und für den man studiert haben muss (Ärztin, Anwalt…). Auffällig war aber auch, dass die ausgedachten Namen alle recht deutsch klangen. ChatGPT hatte sich keinen einzigen türkischen Vornamen oder sonstigen Namen aus einem anderen Kulturkreis ausgedacht. Außerdem klangen die Namen eher nach „Oberschicht“, ein Kevin war nicht dabei. Außerdem üben die Frauen eher soziale bzw. kreative Berufe aus.


Ein Beweis, wie gut Chat GPT von uns lernt.

Ich muss sagen, ich fand den Podcast etwas zu reißerisch. Da wurde zum Beispiel das Wort „Generative“ im Kürzel „GPT“ als echte „Kreativität“ ausgelegt. Das halte ich für weit übertrieben. Aber okay, der Podcast ist vom 16.12. und vielleicht wollte die New York Times da besonders schnell mit einer Einschätzung sein.

Bei HR-Info gibtes seit gestern einen sehr guten Podcast zu dem Thema, der sich kritisch mit der Bedeutung solcher „KI-Tools“ für die Bildung auseinander setzt.
Mir persönlich hat der Podcast insgesamt sehr gut gefallen, speziell wen sie da so befragt haben:

Generell habe ich aber das Gefühl, dass die journalistische Berichterstattung das ganze Thema etwas zu hoch hängt.

Die Wikipedia hat ja auch das Leben vieler Menschen durchaus bereichert und vereinfacht und wurde am Anfang wegen ihres Einflusses speziell auf den Bildungssektor stark diskutiert und auch kritisiert. Aber hat es zu wirklich gravierenden gesellschaftlichen Änderungen geführt? Eher nicht. Wir müssen alle immer noch zur Arbeit und die Kinder in die Schule.