Der Chatbot von "DeepSeek" ist auf einem Handydisplay vor der chinesischen Flagge zu sehen.
picture alliance / CFOTO | CFOTO
Beliebt

KI-Technologie
Chatbot "DeepSeek-V3" aus China wirbelt globale KI-Szene auf

Das leistungsstarke KI-Sprachmodell des Start-ups "DeepSeek" sorgt für Aufsehen. Die effiziente Modell-Entwicklung gilt als bahnbrechend.

28.01.2025

Das chinesische Start-up-Unternehmen "DeepSeek" überrascht die Technologie-Branche im Bereich Künstliche Intelligenz (KI) mit ihren neuen großen Sprachmodellen (LLM) "DeepSeek-V3" und "R1". Sie sind seit Montag die meist geladenen Apps im Apple Store, heißt es in internationalen Medienberichten. Das V3-Modell ist nach DeepSeek-Angaben mindestens ebenso leistungsstark wie die neuesten Chatbots von OpenAI ("GPT-40"), Anthropics ("Claude 3.5") oder Meta ("Llama 3.1"), jedoch erheblich günstiger und schneller in der Entwicklung sowie effizienter im Betrieb. 

Ein besonderes Merkmal der DeepSeek-LLM ist ihr Opensource-Ansatz. Nutzende können den Quellcode anzeigen und ändern. Der technische Report zu "DeepSeek-V3", der seit dem 27. Januar auf der Plattform der New Yorker Cornell University zu finden ist, gibt an: "Umfassende Auswertungen zeigen, dass DeepSeek-V3 andere Open-Source-Modelle übertrifft und eine Leistung erreicht, die mit führenden Closed-Source-Modellen vergleichbar ist". Gemeint ist die internationale, aber vor allem die US-amerikanische Konkurrenz. 

Die Biden-Regierung hatte die Ausfuhrbeschränkungen für hochmoderne Computerchips, Chipherstellungsgeräten und AI-Technologie nach China zuletzt Mitte Januar verschärft. Expertinnen und Experten rätseln in der internationalen Berichterstattung darüber, wie das erst 2023 gegründete Start-up "DeepSeek" unter diesen Restriktionen ihre neuen Modelle so außerordentlich kosteneffizient und leistungsstark hat entwickeln können. 

Reaktionen aus Forschung und Wissenschaft 

Das Training von KI-Modellen benötigt viel Energie, ebenso ihr Gebrauch. Ralf Herbrich, Leiter des Fachgebiets "Künstliche Intelligenz und Nachhaltigkeit" am Hasso-Plattner-Institut (HPI) in Potsdam, äußerte Ende letzten Jahres gegenüber "tagesschau.de" die Befürchtung, der Strombedarf von KI könnte weiter erheblich steigen. Ansätze, um den Energieverbrauch zu senken, seien es Herbrich zufolge, die Anzahl der Berechnungsschritte zu verkleinern oder die Energie pro Berechnungsschritt deutlich zu reduzieren. 

"Das DeepSeek-R1-Modell ist im Vergleich zu anderen Modellen aufgrund seiner effektiven Optimierung und des neuartigen Lern-Prozesses (Reinforcement Learning) hocheffizient", urteilt Iryna Gurevych, Professorin am Fachbereich Informatik der Technischen Universität (TU) Darmstadt, auf Anfrage von "Forschung & Lehre". Während die Erstellung dieser Modelle immer noch die Entwicklung des vollwertigen Sprachmodells erfordere, könne die von Endnutzerinnen und Endnutzern verwendete Version des Modells deutlich effizienter sein. 

"Durch die Open-Source-Veröffentlichung von DeepSeek-R1 ist der hochmoderne Post-Training-Prozess für die gesamte Community zugänglicher geworden. Und dies wird sich höchstwahrscheinlich wirklich positiv auswirken", beurteilt Gurevych die Folgen der "DeepSeek"-Innovationen für die internationale KI-Forschung. Die allgemeine Zugänglichkeit könne einen neuen Forschungsstrang inspirieren, der auf weitere Verbesserungen abziele, und Erkenntnisse darüber liefere, warum und wie diese Sprachmodelle so beeindruckende Aufgabenlösungsfähigkeiten erreichten. 

Wenn "DeepSeek-V3" weitere unabhängige Prüfungen bestehe, "stellt es eine höchst beeindruckende Demonstration von Forschung und Technik unter Ressourcenbeschränkungen dar", kommentierte der aus Bratislava stammende Informatiker Dr. Andrej Karpathy, der OpenAI mitbegründet und an GPT4 gearbeitet hat, auf der Social-Media-Plattform "X" den Release. 

Yann LeCun von Meta hat vor wenigen Tagen bei "LinkedIn" offene Forschung als Innovationstreiber beschrieben: "DeepSeek hat von offener Forschung und Open Source profitiert (zum Beispiel PyTorch und Llama von Meta). Sie haben neue Ideen entwickelt und auf der Arbeit anderer aufgebaut. Das ist die Stärke von offener Forschung und Open Source". 

Dr. Evelyn Hartman, Forscherin für KI-Politik an der Universität Cambridge, kommentierte die Innovation laut Online-Magazin "ITP.Net" mit der Einschätzung, die Ausrichtung des chinesischen Start-ups auf Effizienz könnte die Dominanz größerer, teurerer Modelle herausfordern. Die Frage ist, "ob dies zu einem gesunden Wettbewerb führen oder ein KI-Wettrüsten auslösen wird", so Hartman.

Online-Umfrage 

Wie kann Ihnen "Forschung & Lehre" begleitend noch passender zur Seite stehen? 

Das Redaktions-Team freut sich über
Ihre Teilnahme an unserer Umfrage!

cva/cpy