print logo

DeepSeek: Chinas KI-Herausforderung

DeepSeek R1 bietet Unternehmen eine günstige KI-Alternative. Vor dem Wechsel sollten aber Datenschutz, Zensur und mögliche Verzerrungen geprüft werden
Jonas Rashedi | 30.01.2025
Jonas Rashedi © freepik / muqddas65
 

Mit seinem neuen Modell, das kostengünstiger arbeiten soll als das Konkurrenz-Tool ChatGPT, hat das Unternehmen historische Kursverluste bei Nvidia und Meta ausgelöst. Doch der Erfolg von DeepSeek R1 wirft auch kritische Fragen auf: Wie steht es um den Datenschutz? Inwieweit treffen die Vorwürfe zu, dass das Modell China-kritische Inhalte zensiert? Und basiert es möglicherweise auf bereits existierenden Large Language Models?

DeepSeek bietet mit DeepSeek R1 ein sogenanntes Reasoning-Modell an. Es wird als Open-Source-Modell unter einer MIT-Lizenz angeboten und darf damit frei für private und kommerzielle Zwecke verwendet, weiterentwickelt und in die eigene Software integriert werden. Das Modell wird in unterschiedlichen Größen angeboten, die kleineren Versionen des Modells funktionieren auf handelsüblichen Desktop-PCs oder Notebooks. 

Aber wie schneidet DeepSeek im Vergleich zu anderen Large Language Models (LLMs) ab? Laut der unabhängigen Plattform Chatbot-Arena erreicht DeepSeek in Rankings Ergebnisse, die leicht hinter den neuesten Versionen von Gemini und ChatGPT liegen. Interne Tests des Unternehmens DeepSeek zeigen, dass das Modell bei Mathematikaufgaben etwas besser abschneidet als ChatGPT, jedoch geringfügig schlechter bei Tests zum Allgemeinwissen. Diese Ergebnisse sind allerdings nicht unabhängig überprüft. Insgesamt positioniert sich DeepSeek als konkurrenzfähige, jedoch nicht überlegene Alternative.

 

Was kann DeepSeek – und wie können Unternehmen davon profitieren?

DeepSeek R1 ist ein sogenanntes Reasoning-Modell, das auf logischem Denken, Problemlösung und Argumentation spezialisiert ist. Es löst Aufgaben, indem es diese in kleinere Teilprobleme zerlegt und nacheinander bearbeitet. Diese Herangehensweise ermöglicht es, komplexe Fragestellungen wie Datenanalysen, Codeentwicklung, Marktanalysen, Optimierungsprobleme und intelligente Chatbots effizient zu bewältigen.

Unternehmen können DeepSeek entweder über eine Cloud-Schnittstelle nutzen oder das Modell lokal auf eigenen Servern betreiben. Dabei fällt die Cloud-Variante durch ihren günstigen Preis im Vergleich mit anderen Lösungen auf: Während 1 Million Output-Tokens bei OpenAI-Modellen etwa 60 US-Dollar kosten, verlangt DeepSeek nur 2,19 US-Dollar. Dieser enorme Preisvorteil macht das Modell trotz kleinerer Schwächen bei der Leistung zu einer attraktiven Option für Unternehmen, die ihre Kosten im Bereich KI deutlich reduzieren möchten. Die lokale Variante ist grundsätzlich kostenfrei, hier fallen lediglich die Kosten für die eigene Serverstruktur an.

Bevor Unternehmen jedoch voreilig von einem proprietären Modell auf DeepSeek wechseln, sollten sie das Modell gründlich durch die eigenen KI-Experten testen und die Anbieter sorgfältig auswählen. Der Wechsel von einem LLM zu einem anderen ist mit erheblichem Aufwand verbunden. Um diese Herausforderung zu minimieren, können Unternehmen ihre Modelle und deren Ansprache so modular aufbauen, dass das zugrunde liegende Modell mit geringem Aufwandausgetauscht werden kann, so dass eine kurzfristige Reaktion auf veränderte gesetzliche Regulierungen möglich ist.

 

Welche Risiken birgt DeepSeek?

Ein wesentlicher Kritikpunkt des neuen LLMs ist mögliche Zensur. Tests zeigen, dass bei der Nutzung der Cloud-Version von DeepSeek China-kritische Inhalte teilweise zensiert werden. In einigen Fällen werden entsprechende Antworten zunächst angezeigt, jedoch nach wenigen Sekunden wieder gelöscht. Diese Einschränkungen treten bei der lokalen Nutzung des Modells nicht auf.

Wie bei allen LLMs besteht allerdings auch bei DeepSeek das Risiko, dass generell Verzerrungen oder Vorurteile in den Antworten auftreten. Dass Modell beruht verstärkt auf chinesischen Daten und wird dementsprechend andere Verzerrungen aufweisen als Modelle aus dem US-amerikanischen oder europäischen Raum. Mithilfe von Tools wie „StereoSet“ oder „CrowS-Pairs“ können solche Verzerrungen aufgedeckt werden, beispielsweise rassistische oder geschlechtsspezifische Stereotype. In der lokalen Variante von DeepSeek R1 sind diese Risiken jedoch nicht größer als bei westlichen Modellen. Nutzer:innen sollten dennoch insbesondere bei geopolitischen Fragen weitere unabhängige Tests abwarten und selbst eigene Use Cases überprüfen.

Bei der Nutzung der Cloud-Variante von DeepSeek müssen sich User:innen wie bei allen anderen LLMS darüber im Klaren sein, dass sie unter Umständen sensible Daten teilen, deren Verwendung sie nicht vollkommen nachvollziehen können. Unternehmen sollten daher klare Richtlinien aufstellen, welche Informationen mit der KI geteilt werden dürfen und welche nicht. 

 

Fazit: Eine vielversprechende, aber nicht revolutionäre Entwicklung

DeepSeek R1 ist aktuell die vielversprechendste Open-Source-Option für Reasoning-Modelle auf dem Markt. Es stellt eine starke Alternative zu bisherigen Lösungen wie den LLama-Modellen von Meta dar, die bei Vergleichstests schlechter abschneiden und nicht speziell auf Reasoning ausgelegt sind.Eine persönliche Einschätzung: Der „Hype“ um Deepseek ist für mich nicht ganz nachvollziehbar. Deepseek-R1 beweist zwar, dass leistungsfähige Reasoning-Modelle auch mit deutlich geringeren Ressourcen entwickelt werden können, ist aber nicht das einzige Modell in diese Richtung. Kleine Modelle, die mit wenig Grafikkartenspeicher auskommen und trotzdem leistungsfähig sind, gibt es auch von anderen Anbietern, z. B. die Phi-Reihe von Microsoft oder die kleinen Modelle der LLama-Familie. Die mediale Aufmerksamkeit verdankt das Modell vor allem seiner Kombination aus hoher Performance und Ressourcenschonung.

Dennoch bleibt spannend, wie das Modell angenommen wird – sowohl in der Cloud-Variante über API als auch als lokal installierbare Version. Besonders entscheidend wird sein, wie stark die Open-Source-Community das Modell adaptiert und weiterentwickelt. Denn genau darin liegt der zentrale Vorteil quelloffener KI-Modelle: ihre kontinuierliche Verbesserung durch eine engagierte Entwicklergemeinschaft.