Pro & Contra
03 | März 2011 Artikel versenden Artikel drucken

Der Trend zum Wikipedia-Beleg

Warum Wikipedia wissenschaftlich nicht zitierfähig ist | Maren Lorenz

Die Autorin ist der Auffassung, dass Zitate aus Wikipedia in wissenschaftlichen Arbeiten nichts zu suchen haben. Auch die Zusammenarbeit von Bibliotheken, Schulen und Hochschulen mit Wikipedia beurteilt sie kritisch.

Die Diskussion um die wissenschaftliche Zitierfähigkeit von Wikipedia flammt immer wieder auf. Erst Ende 2008 ergab eine Studie der Hochschul-Informations-Service GmbH, dass mehr als die Hälfte der deutschen Studierenden Wikipedia für erheblich verlässlicher hält als die Online-Ausgaben renommierter Lexika. Sie gaben zu, beinahe ausschließlich die selbsternannte „Universalenzyklopädie“ zu nutzen (nach Druckwerken wurde erst gar nicht mehr gefragt). Längst scheinen alle Argumente für und wider Zitierbarkeit der Wikipedia-Enzyklopädie erschöpfend ausgetauscht, doch bis heute gibt es von den Universitäten keine offiziellen Stellungnahmen, geschweige denn eine einheitliche Empfehlung seitens der Hochschulorganisationen. Der Trend zum Wikipedia-Beleg scheint dem Bildungssystem nicht einmal eine Marginalie wert. Mir erscheint dieses Nicht-Verhältnis zu einem gesellschaftlichen aber auch studentischen Massenphänomen symptomatisch für die aktuelle Entwicklung vieler Hochschulen hin zu Lehrfabriken. Dazu gehören die Forcierung von Lehrprofessuren, die Erhöhung des Lehrdeputats, die Massenprüfungen der modularen Studiengänge, das weiter sinkende Betreuungsverhältnis, die sinkenden Gehälter der Lehrenden, die Ausbeutung der Lehrbeauftragten und andere Faktoren mehr. Quantität statt Qualität ist die logische Folge der Verwaltung des ökonomischen Mangels, vor allem in den Geisteswissenschaften. Eine zu große Keule für ein winziges Problem? Eine unzulässige Verknüpfung völlig unterschiedlicher Parameter? Ich denke nicht.

»Ich verbiete meinen Studierenden, Wikipedia als Referenz
zu nutzen, und erkläre auch warum.«

Wirkungsmacht

2011 wird Wikipedia zehn Jahre alt und allenthalben gefeiert. Die Enzyklopädie hat die Wege der Informationsbeschaffung in den industrialisierten Gesellschaften längst genauso revolutioniert wie die Erfindung uns steuernder Suchmaschinen, allen voran Google. Wie ist das zu erklären? Ich persönlich nutze – wie wohl alle Menschen mit ,Büro-Berufen’ – Wikipedia beinahe täglich: zur ersten Orientierung, vor allem über mir unbekannte Themen, oder um am Ende eines Artikels vielleicht auf vertrauensvollere Links hingewiesen zu werden. Alltagstauglich ist Wikipedia für die Suche nach technischen Anleitungen, deren Papierfassungen ich längst verlegt habe oder für Halbwissen über A- bis D-Promis, Themen der Alltags(jugend)kultur der Gegenwart, damit ich gegenüber meinen juvenilen Neffen und Nichten nicht zu alt aussehe. Manchmal bin ich auch einfach nur zu faul, aufzustehen und das Fremdwörterlexikon aus dem Regal zu ziehen, Google rankt ja Wikipedia aufgrund seiner massiven Verlinkungen immer ganz nach oben. Es geht einfach schnell. Interessant ist es auch, historisch und tagespolitisch populäre Lemmata in verschiedenen Sprachversionen zu vergleichen (das empfehle ich in meinen Lehrveranstaltungen zur Schärfung der sprachlichen und analytischen Kompetenzen). Jedoch verbiete ich meinen Studierenden, Wikipedia als Referenz zu nutzen, und erkläre auch warum. Das kostet leider viel Zeit und fruchtet nicht immer.

Quick and dirty?

Wenn ich mich hier für eine eindeutige Empfehlung gegen das Zitieren von Wikipedia in der Hochschule, ja sogar in allen Schulformen ausspreche, dann nicht aus Traditionalismus, sondern in Sorge um das Bildungssystem Universität. Ich denke mittel- und langfristig und fürchte um die Informationskompetenz aller in Schulen und Hochschulen Lernenden, vor allem darunter die künftigen sogenannten öffentlichen Eliten in Politik, Ökonomie, Medien und Justiz. Sogar Gerichte begründen inzwischen ihre Urteile mit Wikipedia. Dies geschieht derartig häufig, dass stolze „Wikipedianer“ schon seit einigen Jahren in den Sprachversionen Deutsch, Englisch, Spanisch, Französisch und Niederländisch (unvollständige) Listen mit Gerichtsurteilen pflegen, die sich offenbar besonders häufig auf naturwissenschaftliche und technische Lemmata beziehen. Auch renommierte Medien zitieren immer wieder aus Lemmata ohne Gegenrecherche, weil es schnell gehen muss. Sie merken oft nicht einmal – sofern sie nicht ohnehin einer Manipulation aufgesessen sind – wenn die dort angegebenen Belege teilweise aus eigenen Artikeln stammen. Die oft banalen Skandälchen um Wikipedia-Hoaxes und abgeschriebene Fehler sind Legion, repräsentieren aber das Kernproblem: die Manipulierbarkeit, das fehlende, heute gern Qualitätsmanagement genannte Setzen und Umsetzen wissenschaftlicher und international lange bewährter Standards.

Dahinter verbirgt sich neben der menschlichen Bequemlichkeit auch das Problem des Umgangs mit unseren „meritorischen Gütern“, Produkten also, für die der Markt nicht zu zahlen bereit ist. Langfristig geht es also auch um die Zukunft des Marktwertes nicht der Informationen selbst, sondern des Arbeitsaufwandes für Informationserwerb, -aufbereitung und -transfer. Zunehmend schmerzhaft spüren dies auch die großen Informationsprovider, die Presseagenturen und Verlage.

Wer den Wert der Bildung bzw. des Wissens in einer Welt der globalisierten Märkte und des zunehmenden Zeitdrucks hochhalten will, sollte sich darüber im Klaren sein, dass in Schulen und Hochschulen zunächst einmal die Herausforderungen und Techniken der Wissensgenese und der Wissensrezeption vermittelt werden müssen. Die Schüler und Studierenden von heute sind die Berufstätigen und oft sogar die ,Eliten’ von morgen. Sie können und werden ihre Entscheidungen und ihr Handeln genau so ,quick and dirty’ ermitteln bzw. legitimieren, wie sie es an ihren Ausbildungsstätten gelernt haben – oder eben nicht. In den sogenannten Schlüsselqualifikations- oder Berufsbildungskursen vieler Universitäten werden meist nicht die Schlüsselkompetenzen Recherche, Selektion und Evaluation von Quellen und Belegen zur Informationsgewinnung erklärt und eingeübt, sondern neben Atem- und Vortragstechniken eher Powerpoint und Wordfunktionen (besonders absurd, weil ureigene Zuständigkeitsbereiche der Rechenzentren). Warum das Belegen von Aussagen mit Wikipedia ein unterschätztes Problem darstellt, will ich knapp anhand der gängigsten Pro-Argumente erläutern:

1. Qualität

Die hochgelobte Qualität einzelner Artikel ist irrelevant. So sie (von wem eigentlich im Einzelfall?) zu einem Zeitpunkt X bescheinigt wurde, bietet sie nur eine Momentaufnahme. Die ständige Veränderbarkeit (dynamische Webseiten) durch jeden Vorübersurfenden ist ein Gemeinplatz, dem formal durch den Verweis auf sogenannte ,Permalinks’ (ein Identifikator jeder einzelnen Änderung in Form einer URL) die Spitze genommen werden soll.

»Der populäre Einwand, auch in renommierten Lexika ständen Fehler,
verkehrt Ursache und Wirkung.«

Durch diese permanenten Links wird sichergestellt, dass auf die im Zitat verwendete Version eines Lemmas verlinkt wird. Diese Links sind – und das wissen und nutzen nur die Wenigsten – am linken Rand der jeweiligen Lemmaseite unter „Werkzeuge“ aufzurufen. Aktuellere Versionen sind so nicht erkennbar. Gleiches gilt für die sogenannten gesichteten Seiten, die von selbsternannten Verantwortlichen betreut werden.

Wissenschaftlichen Standards ist damit nicht gedient, denn die Wiederauffindbarkeit eines Zitates sagt ja nichts über dessen Qualität aus. Was, wenn gerade diese Stelle von späteren Nutzern als falsch beurteilt, geändert oder gar gestrichen wurde? Was, wenn Seiten von den zuständigen „Admins“ zeitweise oder dauerhaft für die Bearbeitung gesperrt wurden, weil Änderungen heiß umkämpft sind? Der Einwand, Wikipedia wolle eh nur knappes Orientierungswissen bieten, ist falsch. Auch renommierte Nachschlagewerke im Stile von Meyers Taschenlexikon werden in der Wissenschaft nicht zitiert, auch sie dienen nur als Einstieg in tiefere Recherchen. Viele Artikel der Wikipedia gehen in Umfang und Struktur auch weit über ein lexikalisches Nachschlagewerk hinaus und erheben den Anspruch detaillierter und differenzierter Information. Tausende Artikel umfassen Dutzende von Druckseiten. Darum liegt der Teufel auch meist im Detail.

Der populäre Einwand, auch in renommierten Lexika ständen Fehler, Scherzbolde hätten es sogar mit der Loriotschen „Steinlaus“ in den Pschyrembel geschafft, verkehrt Ursache und Wirkung. Hier schleichen sich Fehler trotz eines professionellen wissenschaftlichen Standards verpflichteten Sicherheitssystems ein, dort werden diese ständig, meist aus Inkompetenz, oft sogar absichtlich produziert, eben wegen gänzlichen Fehlens eines klar definierten Kontrollsystems. Dazu ein Beispiel aus den angeblich leichter zu verifizierenden Naturwissenschaften: Eine Freiburger Dissertation (2009) untersuchte die Qualität zahnmedizinischer Beiträge im Vergleich zur Fachliteratur: Alle 285 zahnmedizinischen Einträge in der deutschsprachigen Wikipedia von November 2006 bis Januar 2008 wurden auf ihre medizinisch-wissenschaftliche Qualität untersucht. Diverse Einträge lagen doppelt und dreifach vor oder wurden mangels personenbezogener Behauptungen erst gar nicht einbezogen. Es blieben 261 Schlagwörter. Von diesen waren 28 Prozent qualitativ mit einem Lehrbuch vergleichbar. 56 Prozent waren inhaltlich korrekt, fielen aber stark gegen das Niveau eines Lehrbuchs ab. 16 Prozent wurden aufgrund massiver inhaltlicher Fehler disqualifiziert. Die Autorin empfiehlt abschließend die Einrichtung einer „Fachjury“ aus Zahnmedizin und Zahntechnik, um sämtliche Artikel vor einer Veröffentlichung zu überprüfen. – Genau so funktioniert ein (zumal gigantisches) Wiki eben nicht, denn dann müsste jeder perfektionierte Artikel sofort eingefroren werden. Und wer wollte die vielen dafür notwendigen Fachakademiker bezahlen?

2. Transparenz

Hier setzt das eigentliche Problem der Wikipedia an, dem alle Reformen der letzten Jahre nichts anhaben konnten: Es gibt schlicht kein Qualitätsmanagement durch Fachlektoren, wie dies bei Lexika und Handbüchern der Fall ist. Die Betreuung einzelner Lemmata ist selbsternannt und technische Eingriffsrechte fußen auf einem fragwürdigen Abstimmungssystem. Das hierarchische Prinzip der verschiedenen technischen Zugriffs-, Lösch- und Sperrrechte für Artikel oder Nutzerkennungen ist hochkomplex. Das gesamte Backend und seine Funktionsweisen sind den meisten Nutzern unbekannt und auch gleichgültig. Nicht einmal die Identitäten der Minderheit von Aktiven, die, wie Umfragen immer wieder bestätigen, eben so gar nicht das „Weltwissen“, sondern eher den typischen jungen männlichen Single repräsentieren, sind innerhalb der Community transparent.

»Die alten Bildungsinstitutionen helfen
noch bei der Unterminierung ihrer eigenen Standards.«

Nicht zuletzt darum ist auch die strittige Objektivitäts- und Neutralitätsfrage der Inhalte müßig. Befürworter wenden ein, das Generieren wissenschaftlicher Daten und Fakten sei immer auch das Ergebnis von Auswahl und Aushandlungsprozessen. Dem widerspreche ich nicht, sondern ergänze: dabei geht es letztlich um Entscheidungsmacht und Deutungshoheit. Genau das ist bei populären Lemmata der Wikipedia-Enzyklopädie, noch mehr als bei selten besuchten, ein permanenter intransparenter Prozess. Das Problem besteht darin, dass ein Artikel immer „im Werden“ ist. Der Hartnäckigste mit der meisten Zeit setzt sich langfristig durch. Die echten Lexika hingegen haben sich ihre Reputation gerade wegen des nachhaltigen Einlösens dieses Anspruchs wissenschaftlicher Objektivierung verdient (Zeiten von Diktaturen ausgenommen). Die ,volksdemokratische’ Wikipedia versagt in puncto Objektivität flächendeckend durch Edit-Wars, gezielte oft politisch, ideologisch und ökonomisch motivierte Manipulationen, vor allem bei technischen und soziokulturellen Themen, und durch nationale Bauchnabelperspektiven, wie sie in den verschiedenen Sprachen sinnfällig werden. Geschickte Manipulationen sind inhaltlich nur zeitlich aufwendig und technisch im strafbaren Einzelfall nur durch richterliche Genehmigung teuer nachzuweisen. (Die Rückverfolgung der meist dynamischen IP-Adressen der User genügt nicht.)

»Wikipedia ›hypt‹ sich mächtig selbst.«

Deshalb ,hypt’ sich Wikipedia mächtig selbst. Sie betreibt über den US-Verein Wikimedia Foundation und diverse geschäftlich eigenständige nationale Chapter längst professionelle Lobby-Arbeit, vernetzt sich mit Bibliotheken und Schulen, schreibt gemeinsam mit wissenschaftlichen Akademien sogar Preise aus. So helfen die alten Bildungsinstitutionen noch bei der Unterminierung ihrer eigenen Standards, in dem Glauben, sie motivierten die Webhysterischen Massen zur akademischen Weiterbildung durch ,Mitmach-Spiele’. Der Schaden, der bildungspolitisch durch diese ,Ritterschläge’ angerichtet wird, ist m.E. größer als der Nutzen, denn genau so wird Wikipedia als Referenz an den Universitäten salonfähig gemacht.

3. Die Frage der Autorschaft

Die unklare Autorschaft bei Wikipedia ist ein weiteres genetisches Problem. Bestenfalls basieren oberflächlich gute Texte auf Artikeln aus Fachbüchern oder anderen Lexika. Wir leben aber nicht mehr in Mittelalter oder Früher Neuzeit, wo das Kompilieren oder gar Kopieren von Fremdarbeit legitim war und woran schon immer gute Autoren auch finanziell verzweifelten. Insbesondere bei historischen Personen zum Beispiel stammen die Daten vielfach aus der Allgemeinen Deutschen Biographie (ADB), der Neuen Deutschen Biographie (NDB) oder anderen Werken, die sogar oft selbst kostenlos online stehen. Teile von Daten zu Personen werden inzwischen transparenter, weil die Deutsche Nationalbibliothek (DNB) und Wikipedia seit 2005 durch Verlinkung auf die Datensätze der Personennamendatei der DNB kooperieren. Das klingt erst einmal sehr anspruchsvoll, doch suggeriert gerade dieses Etikett falsche Verlässlichkeit. Denn nur der winzige Link zur DNB, der gern übersehen wird, gewährleistet ,gesichertes Wissen’. Dieses beinhaltet aber meist nur einen Bruchteil der im Wikipedia-Lemma genannten Angaben, nämlich Geburts- und Todesjahr sowie das Werkverzeichnis.

Zwei entscheidende Fragen

Die schier unermessliche Menge an Speicherplatz auch für Seltenes und in den Augen einer angeblichen Mehrheit ,Schräges’ ist gerade der charmante Vorteil gegenüber den klassischen Buchwerken und macht das ,Schmökern’ oft unterhaltsam. Entscheidend für die Beurteilung der Wikipedia-Enzyklopädie als wissenschaftliches Referenzwerk bleiben jedoch allein die Fragen nach der sachlichen Richtigkeit jeder einzelnen Aussage und nach der dauerhaften Verlässlichkeit der zu jedem Moment angezeigten Information. Beide Fragen müssen nachhaltig verneint werden und sollten – begleitet von echten Schulungen in „Medien- und Recherchekompetenz“ – endlich offensiver an den Bildungsstätten des Landes verbreitet werden.

 

A U T O R I N

Dr. Maren Lorenz ist Privatdozentin für Neuere Geschichte am Historischen Seminar sowie Leiterin des eLearning-Büros der Fakultät für Rechtswissenschaften an der Universität Hamburg. Ihre Arbeitsschwerpunkte sind u.a. Neuere Kulturgeschichte, Wissenschafts- und Ideengeschichte sowie Geschichtswissenschaft und die neuen Medien.


Zurück | Artikel versenden Artikel versenden | Artikel drucken Artikel drucken