Illustration einer Daten-Cloud über einem Smartphone, umrahmt von den Händen eines Geschäftsmannes im Anzug
mauritius images / Sarayut Thaneerat / Alamy

Standpunkt
"Am Ende könnte das Aus der Forschung stehen"

Wie abhängig darf die Wissenschaft von kommerziellen IT-Diensten sein? Externe Anbieter sind oft teuer und unethisch, manchmal auch harte Konkurrenz.

Von Gabriele Gramelsberger 18.09.2020

Hochaufgelöste Computersimulationen und Datenabbildungen ("digital twin"), frei zugängliche Forschungsdaten und Big-Data- Analysen, maschinelles Lernen, daten­intensive Reallabor­forschung und mehr lassen die Nachfrage nach digitalen Diensten, Rechen- und Speicherkapazitäten explodieren. Nicht immer können die universitären IT-Zentren oder die nationalen Höchstleistungsrechenzentren, das Deutsche Forschungsnetz, die Bibliotheken und Datenarchive oder bald die Nationale Forschungsdateninfrastruktur der wachsenden Nachfrage an Rechen- und Analyseaufgaben sowie Speicherkapazitäten nachkommen.

Die Alternative sind kommerzielle IT-Dienste wie Cloud-Server und Cloud-Dienste und – gerade in Zeiten von Covid-19 – kommerzielle Telefon- und Videokonferenzdienste sowie digitale Lehrplattformen. Ohne Zoom, Cisco Webex und MS Teams wäre das Sommersemester 2020 vermutlich verloren gewesen und das bevorstehende Wintersemester schwierig.

Die Frage, die sich jedoch stellt, ist folgende: Wie viel Abhängigkeit von kommerziellen IT-Diensten und Anbietern kann und will sich das Wissenschaftssystem leisten – insbesondere vor dem Hintergrund der unglaublichen Monopolisierung des Digitalen durch eine Handvoll global agierender IT-Konzerne? Jede Online-Suche beispielsweise, auch die mit der europäischen Suchmaschine Qwant, greift auf den Index von Google oder Microsoft zurück. Noch ist die Nutzung von kommerziellen IT-Diensten wie Microsoft Azure oder Amazon Web Services relativ gering und das hat sicherlich mit der guten IT-Infrastruktur des deutschen Wissenschaftssystems zu tun.

Doch vor allem die Entwicklung im Bereich des maschinellen Lernens (ML) lässt aufhorchen. Kommerzielle IT-Dienste bieten hier die komplette Serviceleistung an – von der Datenannotation bis zur Bild- und Videoanalyse durch ML. Dabei muss nicht alles automatisiert sein. Insbesondere die Daten­annotation erfolgt oft manuell durch die Ausbeutung billiger "Click Worker". Der springende Punkt für die Wissenschaft ist, dass die Delegation der ML-Kompetenz an kommerzielle IT-Server nicht nur teuer und gegebenenfalls unethisch ist, sondern dass deren Algorithmen durch jede neue Aufgabenstellung verbessert werden. Am Ende dieser Entwicklung könnte das Aus der Forschung stehen, wie wir sie kennen.

Bereits heute wirbt Google für AlphaFold mit dem Slogan: "Using AI for scientific discovery." In diesem Fall geht es um die Entschlüsselung der Proteinfaltung. Zwar wurde AlphaFold nicht durch Click Worker oder Wissenschaftler trainiert, sondern im Kampf gegen Strategiespiele wie StarCraft II. Überhaupt sind Computerspiele hervorragende Trainingscenter für ML und so ist es kein Zufall, dass AlphaFold die "Olympiade" der Proteinstrukturvorhersage (CASP13) 2018 mit weitem Vorsprung gewonnen hat. Wie solche Entwicklungen die Wissenschaft transformieren werden, lässt sich bislang nur erahnen.