Pro & Contra
08 | August 2012 Artikel versenden Artikel drucken

Ausstieg aus dem CHE-Ranking?

Empirisch lückenhaft und methodisch fragwürdig: So beurteilt die Deutsche Gesellschaft für Soziologie (DGS) das Ranking des Centrums für Hochschulentwicklung (CHE) und empfiehlt den soziologischen Instituten, sich nicht mehr daran zu beteiligen. Das CHE widerspricht, die Vorwürfe seien nicht haltbar.

Pro:

Was ist ein Ranking? Da stellen wir uns mal ganz dumm – und schlagen nach bei Wikipedia. „Ranking“, heißt es dort, „ist ein Anglizismus für Rangordnung“. Und eine Rangordnung, wir bleiben der Einfachheit halber kurz dem beliebtesten Informationsmedium Studierender (noch vor dem CHE-Ranking) treu, ist „eine Reihenfolge mehrerer vergleichbarer Objekte, deren Sortierung eine Bewertung festlegt“. Et voilà: Fertig ist die Begründung, warum die Deutsche Gesellschaft für Soziologie (DGS) den soziologischen Instituten an deutschen Universitäten empfiehlt, sich an der Datenerhebung zum CHE-Ranking nicht länger zu beteiligen. Denn dieses genügt erkennbar nicht den hohen Anforderungen, die sozialwissenschaftlich an einen substanziellen Vergleich universitärer Institute und Studiengänge zu stellen sind – und lässt es sich gleichwohl nicht nehmen, auf methodisch unzulänglicher Grundlage eine bewertende Sortierung derselben in eine „Spitzengruppe“, „Mittelgruppe“ und „Schlussgruppe“ vorzunehmen. „Chuzpe“, laut (ein letztes Mal!) Wikipedia ein Jiddizismus für „eine Mischung aus zielgerichteter, intelligenter Unverschämtheit, charmanter Penetranz und unwiderstehlicher Dreistigkeit“, dürfte noch eine eher freundliche Umschreibung dieses Vorgehens sein.

Um hier von Anfang an keine falschen Vorstellungen zu bedienen: Die Soziologie wehrt sich keineswegs grundsätzlich gegen Evaluationen, sie betreibt diese vielmehr in ihren Studiengängen vor Ort alltäglich selbst und hat sich zudem schon vor Jahren als Pilotfach für das vom Wissenschaftsrat durchgeführte Wissenschaftsrating zur Verfügung gestellt. Sehr wohl wehrt sie sich aber gegen die empirisch lückenhafte und methodisch fragwürdige Erhebung durch das Centrum für Hochschulentwicklung (CHE). Und sie wehrt sich konsequenterweise gegen die Übersetzung der Ergebnisse dieser Erhebung in die realitätsverzerrende, Scheineindeutigkeiten herstellende Ranggruppenordnung und Ampelsymbolik („Grün“? Immatrikulieren! „Blau“? Ignorieren!) des Rankings.

Worauf bezieht sich diese Kritik konkret? Einige wenige Hinweise müssen an dieser Stelle genügen. Einerseits gehen viele, für die Qualität des Studiums wesentliche Faktoren nicht in die Erhebung ein – von den jeweiligen Betreuungsrelationen über die inhaltlichen Schwerpunktbildungen und die faktischen Bemühungen um die Verknüpfung von Forschung und Lehre bis hin zur Funktionsfähigkeit von Prüfungsämtern. Gleichzeitig frönt das CHE der – auch im Kontext indikatorengestützter Leistungszuweisungen beliebten, gleichwohl aber unsinnigen – akademischen Tonnenideologie, wonach etwa eine möglichst hohe Zahl an Promotionen und Habilitationen ein Qualitätsausweis sein soll. Andererseits wirft die Studierendenbefragung, vom CHE gerne als Zeichen der „Demokratisierung des Rankings“ geadelt, massive Probleme auf. Und dies nicht nur, weil hier die berüchtigten Äpfel mit Birnen verglichen werden: Studierende – allerdings noch weniger, als etwa bei Studierendenparlamentswahlen teilnehmen – bewerten „ihren“ Studiengang, ohne in aller Regel einen irgendwie gearteten Vergleichsmaßstab für ihr Votum zu haben, und dennoch wird suggeriert, sie seien neutrale Prüfer von der „Stiftung Studientest“. Aber davon einmal abgesehen werden – unglaublich, aber wahr – die Ampelpunkte etwa für die Methodenausbildung auf der Grundlage eines einzigen Items und einer schlichten, sechsstufigen Skala (1 = „sehr gut“, 6 = „sehr schlecht“) vergeben. Das ist nicht nur, mit Verlaub, „Demokratie“ für Doofe bzw. für-dumm-Verkaufte: Hier wird vielmehr die Methodenlehre empirischer Sozialforschung in einer Weise „evaluiert“, die deren eigenen Gütestandards in keiner Weise genügt.

Was damit vom CHE-Ranking im Kern bleibt, ist eine Gelegenheitsstruktur für Fehlurteile – von Studieninteressierten ebenso wie von Hochschulleitungen oder Ministerialbürokratien. Um solchen Fehlwahrnehmungen nicht weiter Vorschub zu leisten, hat die DGS intern angeboten, als Fach weiterhin an der Datenerhebung mitzuwirken, dabei aber auf den Pseudovergleich und die irreführende Ranggruppierung zu verzichten. Daran allerdings hat das CHE – öffentlich stets der Information und Transparenz verpflichtet – erklärtermaßen kein Interesse; es wird wissen, warum. Die DGS hat daraus ihrerseits den einzig logischen Schluss gezogen und zum Boykott des Rankings aufgerufen. Entscheidend für den Erfolg dieser Initiative sind nun – als vom CHE Befragte – die Studierenden der Soziologie selbst. Das aber müsste dem CHE, das sich stets als deren Anwalt geriert, doch eigentlich gefallen.

Contra:

Eine Abiturientin möchte Soziologie studieren. Von Eltern und Freunden hat sie Tipps für drei Unis bekommen. Jetzt schaut sie in den ZEIT Studienführer: die Beschreibung im Fächerportrait bestärkt ihr Interesse am Fach. Die sechs ausgewählten Indikatoren machen sie nachdenklich: offenbar gibt es Unis, die besonderen Wert auf Forschung legen, in anderen fühlen sich die Studierenden sehr gut betreut. Sie fängt an darüber nachzudenken, was ihr eigentlich für die Zukunft wichtig ist. Neugierig geworden geht sie ins interaktive CHE Ranking im Internet; sie entdeckt, dass es noch ganz andere bedenkenswerte Aspekte gibt. Sie gleicht ihre Bedürfnisse mit den Profilen der Unis ab. Neben den bisher ins Auge gefassten Studienorten entdeckt sie weitere, die sie interessant findet, einer davon sogar in den Niederlanden. Über die Links zu den Unis schaut sie sich die Lehrinhalte an; dabei sieht sie einen weiteren Standort, der im Ranking nicht gut war, aber einzigartige fachliche Vertiefungsmöglichkeiten aufweist.

Eine Dekanin analysiert sorgfältig die Ranking-Detailergebnisse, sie stellt gute Bewertungen bei Studierendenurteilen fest, allerdings sieht es bei ausstattungsbezogenen Indikatoren schlecht aus. Offensichtlich engagieren sich die Lehrenden, aber unter – relativ zu anderen Unis – schwierigen Ausstattungsbedingungen. Sie diskutiert dies mit den Kollegen und verwendet Rankingergebnisse in der internen Debatte mit dem Präsidenten.

Zwei Beispiele, wie sie mit dem CHE Ranking tausendfach passieren. Dies ist genau unser Anliegen: mit differenzierter Information Entscheidungen unterstützen, Reflexionen und Analysen anstoßen. Als eine Informationsquelle unter mehreren, die aber als einzige die Standorte in den bundesweiten und sogar internationalen Vergleich innerhalb des Faches stellt. Ohne diese Quelle besteht die Gefahr, dass Hochschulleitungen die Drittmittel der Soziologie mit den Naturwissenschaften statt mit anderen Soziologiestandorten vergleichen.

Herkömmliche Rankings zeigen eine Ligatabelle mit exakten Plätzen, und sie weisen einen Gesamtwert pro Hochschule aus. Im weltweiten Soziologie-Ranking von QS ist die „beste“ deutsche Uni die FU Berlin auf Platz 43, die Universität Jena (mit hervorragenden Bewertungen in Methodenausbildung und Studierbarkeit im CHE Ranking) ist in den Top 200 jedoch gar nicht zu finden. Das QS Ranking wird bleiben, wenn die Soziologie aus dem CHE Ranking herausfällt. Und solche Rankings werden genau das verursachen, was die DGS befürchtet: die Spaltung in „exzellente“ und „nicht-exzellente“ Unis, die self-fulfilling prophecy der Rangliste, die simplifizierende Entscheidung. Gegen all das ist das CHE Ranking mit einem völlig anderen Konzept angetreten, mit den Methoden der Multi-Dimensionalität, der Ranggruppenbildung und der flexiblen Auswahlmöglichkeit für die Nutzer. Mit einem Internet-Angebot, das neben dem Ranking noch zahlreiche deskriptive Informationen über Profile liefert. Warum die DGS genau gegen dieses Instrument politisch antritt, das gerade verkürzten Exzellenzlogiken und simpler Interpretation entgegenwirkt – ich verstehe es nicht.

Ein Problem wäre in der Tat, wenn dieses Informationssystem auf unzureichender Datenbasis stünde. Das ist nicht der Fall. Gerade die Soziologie ist ein Beispiel dafür, dass die zugrunde gelegten Daten und ihre Quellen zusammen mit Fachvertretern immer wieder überprüft werden, z.B. war das Vorgehen bei der Publikationsanalyse mit der DGS abgestimmt. Auch der Vorwurf, bei den Studierendenurteilen im Ranking handele es sich um Zufallsaussagen, ist nicht haltbar. Die Methode aus Rücklaufquote, absoluter Mindestfallzahl und Analyse der Konfidenzintervalle stellt sicher, dass nur hinreichende Stichprobengrößen und verlässliche Daten ins Ranking kommen. Der kritisierte Reputationsindikator liefert für die Soziologie im Übrigen fast dieselben Ergebnisse wie das Rating des Wissenschaftsrats im Gesamtergebnis.

Die Methodik einer so komplexen empirischen Studie ist nie perfekt und muss sich stets weiterentwickeln. Das CHE freut sich über jeden Vorschlag, der das Ranking methodisch weiterbringt. Die DGS-Vorschläge tun das nicht. Ich kann verstehen, dass die DGS ein Ventil für den Frust über hochschulpolitische Entwicklungen und eine abstrakte Auseinandersetzung über die Rolle von Wettbewerb im Hochschulsystem sucht; leider ist das CHE Ranking dafür der falsche Hebel, denn die proklamierten Ziele der DGS werden so nicht erreicht, und den Studierenden schadet es.

 

A U T O R E N

Stephan Lessenich (Bild links, Pro) ist Professor für Vergleichende Gesellschafts- und Kulturanalyse am Institut für Soziologie der Friedrich-Schiller-Universität Jena und stellvertretender Vorsitzender der Deutschen Gesellschaft für Soziologie.
Dr. Frank Ziegele (Contra) ist Professor für Hochschul- und Wissenschaftsmanagement an der Hochschule Osnabrück und Geschäftsführer des Centrums für Hochschulentwicklung (CHE).


Zurück | Artikel versenden Artikel versenden | Artikel drucken Artikel drucken