FAS: 20% der dt. Wikipedia-Artikel sind fehlerhaft, weitere 20 % veraltet

Die Frankfurter Sonntagszeitung (FAZ Verlag) hat über 1.000 zufällig ausgewählte deutsche Artikel untersucht:

Was also tut man in Deutschland jetzt, wenn man ein Lexikon mit zuverlässigen Informationen sucht? Da bleibt der Satz, den Lehrer ihren Schülern seit der Gründung von Wikipedia immer wieder einbläuen: Wikipedia ist ein guter Ausgangspunkt für eine Recherche, aber kein gutes Ende.

Wie das wohl mit englischen Seiten aussieht?

Wikipedia ist sowohl in der Google-Suche als auch unter den Trainingsdaten sehr hoch gerankt.

2 „Gefällt mir“

Von wie schwerwiegenden Fehlern reden wir hier? Geht es um sowas, dass bei einem Geburtsdatum um 1 Jahr falsch ist oder geht es hier darum, dass die Hauptausagen des Artikels komplett falsch sind?

Hat die FAS sich wenigstens auch die mühe gemacht, diese Artikel an Wikipedia zu melden?

Wow, die FAS diskreditiert Wikipedia.

Siehe Grafik: > 12 % der Fehler oder veralteten Angaben ist offensichtlich.

Ja, die Wikimedia-Stiftung wurde informiert und um Stellungnahme gebeten. Sie erkennt kein Problem:

Beispiele:

„Im Artikel zum Film „2001 - Odyssee im Weltraum" nennt Wikipedia eine falsche Produktionsgesellschaft des Filmemachers Stanley Kubrick - der mehrere besaß - und behauptet fälschlicherweise, im Erscheinungsjahr habe kein Film in Nordamerika mehr Geld eingespielt. Dabei wurde der Film erst nach einigen Jahren zum großen Hit, 1968 lagen noch andere Filme vorne. Indonesisch werde von 160 Millionen Menschen gesprochen, heißt es in einem Artikel, dabei wird Indonesisch immer wichtiger, schon längst gibt es über 200 Millionen Sprecher. Und wer sich über die Eifelstadt Mechernich informieren möchte, der erfährt, dass der Bahnbetrieb wegen der Eifelflut unterbrochen war - „in Fahrtrichtung Kall voraussichtlich bis Ende Juni 2022".“

„Andererseits entfallen nach einer F.A.S.-Analyse fast 90 Prozent aller Seitenzugriffe eben auf die 99 Prozent Artikel, die gerade nicht im öffentlichen Fokus stehen - eben weil sich jeder Nutzer gerade für etwas anderes interessiert.

Da sind viele Themengebiete verwaist. Wer sich durch die Weiten der Wikipedia-Artikel aufmacht, findet Informationen zu belgischen Autobahnen, estnischen Fußballern und taiwanischen Dörfern - offenbar oft angelegt von einzelnen Enthusiasten, die jetzt aber nicht mehr dabei sind.“

Diskreditiert? = in Verruf bringen = Verbreitung negativer Informationen, Gerüchte, unbegründete Vorwürfe oder gezielte öffentliche Kritik

Sorry, aber das trifft es leider gar nicht

8 „Gefällt mir“

Ja, überspitzt ausgedrückt. Wer in einen Artikel eine solche Grafik so betont groß abdruckt, dem unterstelle ich eine Absicht.

Es ist keine sinnvolle Aussage.
Welche Informationen genau wurden geprüft?
Von KIs markierte.
Mit was soll der Qualitätsstandard verglichen werden? Diese Frage bleibt offen. Der Vergleich mit den Buchversionen „von früher“ ist ein unpassender. Und nein, liebe FAS, nicht Wikipedia hat diese verdrängt, sondern das Internet.
Wenn in jedem 5. Artikel ein Fehler ist (Frage: Wie viele? Schwerwiegende Fehler oder vernachlässigbare? Etc. Es werden Beispiele genannt) kann ich persönlich damit leben. Ich suche mir eh auch zweite Quellen .

Meine Erfahrung ist, dass jeder weiß, dass Wikipedia nicht 100 % immer richtiges Wissen beinhaltet. Lehrer sagen das ihren Schülern und sehen ungern ausschließlich Wikipedia-Quellen in Arbeiten, wie in etwa auch im Artikel erwähnt.
Warum ist das plötzlich ein Problem?

1 „Gefällt mir“

Da habe ich andere Erfahrung. Und auch ich selbst war schockiert über die hohe Fehlerquote.

Alles, was die FAS sagt, ist letztlich: Auch Wikipedia ist mit Vorsicht zu genießen.

Es ist in den Artikeln sehr genau erklärt, wie man vorgegangen ist (systematisch und sehr solide, fast schon wissenschaftlich) und welche Art von Fehlern die Journalisten gefunden hat.

Die KI hat keine Fehler identifiziert , sondern geholfen, solche Artikel zu identifizieren, die die Jounalisten dann althergebracht nachrechiert hat.

Die Unterstellung einer gezielten Diskreditierung ist m.E. sehr weit hergeholt. Aus welchem Grund sollten Journalisten oder die FAS oder das FAZ Verlag das tun?

5 „Gefällt mir“

Offensichtlich heißt für mich noch nicht automatisch schwerwiegend.

Definitiv unschön, würde ich aber als nicht so schwerwiegend einordnen, als wenn dort stehen würde, dass es bei 2001 - Odyssee im Weltraum darum geht, dass ein Vater versucht seinen Sohn wiederzufinden.

1 „Gefällt mir“

1 „Gefällt mir“

Hm. Wikipedia hat ja m.W. nach Mechanismen zur Qualitätssicherung. Schade, dass in dem Artikel nicht darauf eingegangen wird bzw. Verbesserungsvorschläge gemacht werden. Denn der Anspruch enzyklopädischen Wissens im 21. Jhdt. ist natürlich nicht trivial umzusetzen. Die Finanzierung über Spenden dafür i.H.v. 18 Mio. Euro erscheint mir auch nicht besonders üppig.
Immerhin gelangen die Autoren des Artikels ja zum Ende zur Erkenntnis, wie Wikipedia besser werden kann: durch konstruktive Mitarbeit von noch mehr Menschen.

1 „Gefällt mir“

Ok. Ich dachte, das ist allgemeine Herangehensweise. Habe schon oft gehört, dass einzelne Details z.B. in Artikeln zu Personen nicht ganz richtig waren, oder Widersprüche entdeckt. Mitdenken und gegenchecken schadet nicht. Sollte für alle Quellen gelten. Zwei-Quellen-Prinzip und so.
Die Frage, die mir unklar ist: Ab wann gilt ein Artikel als fehlerhaft? Ab einem kleinen Detailfehler oder bei 50% grobem Unfug…

Ich würde mir wünschen, wenn deutsche Medien auch andere Personen, Staaten, Politiker und Quellen so kritisch hinterfragen.

Aus meiner Sicht ist Wikipedia durch seine öffentliche Plattform ohne Kommerz und hoffentlich ohne politischen Einfluss ein enorm wichtiger Pfeiler der Gesellschaft- trotz Fehlerquote.

KI hat das Potenzial, sie zu ersetzen. Aber was passieren wird, ist: Alle beginnen, KI z.T. kostenlos zu nutzen oder es sogar nutzen zu müssen. Wir werden abhängig wie von anderer Software. Und sobald wir abhängig sind, wird es extrem teuer oder werbegetränkt. Dahinter stehen gewinnorientierte Unternehmen. Und den Gewinn machen sie letztendlich mit der Arbeit von Millionen von Menschen, die sie vorher gestohlen haben (Texte, Nutzerdaten, sogar Kunst etc.). Und ich halte es für plausibel, dass die Unternehmen sehr wohl Einfluss auf den Output von KI haben- je nachdem, mit welchen Texten und Daten sie diese füttern. Musk hat mit X bereits gezeigt, wohin solche Einflussnahme führt.

Ehrlich gesagt: Ich wünsche mir mehr Wikipedia-ähnliche Plattformen, nicht weniger. Auch mit Fehlern.

Jetzt mal ernsthaft, die (deutschsprachige) Wikipedia ist ein riesengroßes ehrenamtliches Projekt.

Erwartet die FAS wirklich, dass da ca. 3.000.000 Artikel fehlerfrei und aktuell gehalten werden können?

Dass Informationen aus der Wikipedia cross-gecheckt werden müssen, weiß doch heutzutage jeder Grundschüler.

9 „Gefällt mir“

Kluge Köpfe dringend vom Wiki-Lesen abhalten? Übrigends bekommt man nach nicht allzulanger Zeit und 10 Edits pro Monat Zugriff auf eine riesige Bibliothek, zB Springer, Oxford & Cambridge University Press usw. Ihr könnt also ziemlich tief recherchieren, ob etwas richtig oder falsch ist.

Die Artikel sind jetzt häufig über 1 Seite lang, 3 Seiten+ keine Seltenheit. Da leb ich mit dem einen Fehler pro Artikel im Wissen, dass das keine Peer-reviewte Publikation ist…

Ich glaube nicht, dass man das erwartet.
Der Hinweis darauf, wie unzuverlässig manche Information ist, ist aber deshalb nicht verkehrt. Ich denke, es geht gerade darum, Bewusstsein dafür zu schärfen, dass Wikipedia eben „nur“ für die erste Recherche ein guter Startpunkt ist, aber im Zweifel qualifiziertere Quellen nicht ersetzen kann.

Dabei denke ich, dass das in der Tat ein Problem kleinerer Sprachen ist. Je weniger Sprecher eine Sprache hat, desto eher werden Artikel in der Wikipedia entweder gar nicht existieren oder eben nicht regelmäßig aktualisiert. In der englischen Wikipedia dürfte der Anteil veralterter Artikel entsprechend sehr viel geringer ausfallen, als in der deutschen.

Die Seite gibt einen guten Eindruck über die Problematik. Die deutsche Wikipedia hat 3 Millionen Seiten, aber nur 16k aktive Nutzer. Es fallen also rund 187 Artikel auf jeden Nutzer. Die englische Wikipedia hat 7 Millionen Artikel, aber 109k aktive Nutzer. Hier fallen nur rund 64 Artikel auf jeden Nutzer. Im Durchschnitt steht in der englischen Wikipedia somit 3 Mal so viel „Manpower pro Artikel“ zur Verfügung, was dazu führt, dass wesentlich seltener Artikel längere Zeit unbearbeitet bleiben, dass es wesentlich seltener zu Fällen kommt, in denen eine Neuerung nicht binnen kurzer Zeit aktualisiert wird.

In diesem Sinne ist die englische Wikipedia ohnehin der deutschen vorzuziehen, wenn man Wert auf aktuelle Information legt.

Eine Lösung für das Problem wird vermutlich in Zukunft auch KI sein, daher: Es könnte eine KI genutzt werden, die über ein Nachrichten-Monitoring oder Monitoring üblicher Statistik-Seiten entweder Artikel automatisch anpasst (bei Statistik-Seiten z.B. stets die neusten Daten von als vertrauenswürdig eingestuften Seiten bezieht) oder Bearbeitungsaufträge für die Community erstellt, wenn sich etwas geändert hat (also quasi Warnbausteine einfügt).

1 „Gefällt mir“

Nein, stimme nicht zu. LLM sind nicht so zuverlässig, vor allem in detaillierten Aussagen und Zahlen geht.

Aber zu Wikipedia:
Aus geht’s, es liegt ja dann uns und unseren Themen Wikipedia auf dem aktuellen Stand zu halten. :+1:

5 „Gefällt mir“

Kann insgesamt nur zustimmen.

Langfristig benötigt es schlichtweg keine andersprachigen Wikipedias für die meisten Artikel. Warum sollte es überhaupt unterschiedliche Artikel für die gleichen enzyklopädischen Einträge geben? Mir würde kein Grund einfallen, wieso das Leben und Wirken von Muhammad Ali oder die Realitivitätstheorie unterschiedlich beschrieben werden sollten. Maschinelle Übersetzung muss langfristig diesen unnötigen Aufwand ablösen.
In der Arbeitswelt heute schon üblich (z.B. SAP Notes früher oft in mehreren Spracheb geschrieben und aktualisiert, inzwischen stattdessen maschinell übersetzt).
Der manuelle Aufwand wäre dann besser investiert in einer Verbesserung der Übersetzungsmodelle.

Interessant ist auch:

Einst hatte die deutschsprachige Wikipedia fast 11.000 Freiwillige, die regelmäßig mitarbeiteten - inzwischen stagniert ihre Zahl bei 6.000.

Und das bei 3 Mio. Seiten. Das sind 500 Seiten pro aktivem Autor (aktiv = Mind. 5 monate. Bearbeitungen).

Die englischsprachige Wikipedia hat etwa 7 Mio. Artikel und 11.000 aktive Autoren. Das sind knapp 640 Seiten pro aktivem User.

Quelle: Wikipedia.

Welche Quelle genau?

Ich habe oben die offizielle Wikipedia-Seite (hier deutsch; hier englisch) zitiert, die von dir genannten Nummern weichen massiv von denen dieser offiziellen Seiten ab.

Die englische Seite hat noch mehr relevante Statistiken, z.B. dass die Zahl der Admins mit 838 in der englischen Wikipedia wesentlich höher ist als 172 in der Deutschen, daher in der englischen Wikipedia gibt es einen Admin pro 8.375 Artikel, während es in der deutschen Wikipedia einen Admin pro 17.610 Artikel gibt. Das ist neben der Zahl der aktiven Nutzer ein weiterer Grund, warum die deutschen Artikel oft kürzer und weniger aktuell sind.

Im Prinzip ist das ja auch ein No-Brainer - je weniger Menschen aktiv mitarbeiten, desto schlechter ist die Qualität eines Crowd Sourcing-Projektes.

KI ist definitiv (noch?) zu unzuverlässig, um eine ganze Wiki selbst zu generieren, aber definitiv zuverlässig genug, offizielle Daten aktualisiert zu halten und menschliche Editoren durch Hinweise zu unterstützen, wo Fehler liegen könnten. Eben als Qualitätssicherungstool.

Ja, das stimmt wohl, maschinelle Übersetzung hat langsam das notwendige Niveau, um vieles zu übersetzen, aber leider noch nicht alles. Gerade kleinere Nuancen im Subtext gehen schnell verloren, was bei technischen Prozessen wie SAP Notes (oder Patchnotes bei Computerspielen) wenig problematisch ist, bei Beschreibungen sozialer oder philosophischer Phänomene aber große Schwierigkeiten bereitet.

Wir sind daher auch noch nicht an dem Punkt, an dem maschinelle Übersetzung anderssprachige Wikipedias völlig obsolet machen könnte. Aber wir nähern uns sicherlich. Dagegen kann man natürlich argumentieren, dass eine maschinell übersetzte englische Wikipedia wegen der größeren Tiefe der englischsprachigen Artikel im Vergleich zu den Deutschen immer die bessere Option wäre, daher: Der Verlust bestimmter Nuancen weniger „schlimm“ ist als die mangelnde Tiefe und Aktualität. Aber es wäre eben noch kein „strictly better“, kein „Upgrade“, sondern eher ein „Sidegrade“. Und das existiert ja bereits (jeder kann sich ja englische Wikipedia-Seiten maschinell übersetzen lassen).

1 „Gefällt mir“

Ich finde die Methodik spannend: eine der Stärken der KI ist, dass sie den aktuellen Stand der Literatur rezipiert. Informations-Alterung ist ja wirklich ein großes Problem der Wikipedia (und war es beim Brockhaus früher ja genauso), also kann das vielleicht zu besserer Qualitätssicherung genutzt werden.

Wenn ich ein Sachbuch oder einen Reiseführer lese, suche ich sie erstes nach dem Erscheinungsjahr. Gleiches empfehle ich für die Wikipedia. Der letzte edit steht immer am Ende der Seite.

3 „Gefällt mir“