DeepSeek Math ist ein hochspezialisiertes, quelloffenes Sprachmodell, das für komplexe mathematische Aufgaben, Beweisführung und quantitative Argumentation entwickelt wurde. Es basiert auf DeepSeek Coder v1.5 7B und wurde mit über 120 Milliarden mathematischen Tokens feinjustiert – unter anderem aus Common Crawl und hochwertigen wissenschaftlichen Quellen.
Unterstützt DeepSeek Math Forscher, Lehrkräfte und Entwickler bei der Lösung fortgeschrittener mathematischer Probleme in natürlicher Sprache – sowohl in Englisch als auch in Chinesisch.
Highlights von DeepSeek Math
- Architektur: 7B-Parameter-Modell (basierend auf DeepSeek Coder)
- Training: 500 Milliarden Token, darunter 120B mathematische Daten
- Sprachen: Englisch & Chinesisch
- Modelle: Base, Instruct, Reinforcement Learning (RL)
- Ziel: Mathematische Beweise, formale Logik, quantitatives Denken
- Kommerzielle Nutzung erlaubt (Lizenzdetails)
Modellübersicht & Downloads
Modellvariante | Parameteranzahl | Kontextlänge | Typ | Downloadlink |
---|---|---|---|---|
DeepSeekMath-Base 7B | 7B | 4096 Tokens | Basis | Hugging Face |
DeepSeekMath-Instruct 7B | 7B | 4096 Tokens | Instruct | Hugging Face |
DeepSeekMath-RL 7B | 7B | 4096 Tokens | RL-finetuned | Hugging Face |
Benchmark-Leistung im Vergleich
Mathematische Problemlösung
Modell | MATH Benchmark (%) | GSM8K (%) | Math Odyssey (%) |
---|---|---|---|
DeepSeekMath-Base 7B | 51.7 | 89.2 | 44.6 |
DeepSeekMath-Instruct 7B | 56.2 | 93.1 | 50.4 |
DeepSeekMath-RL 7B | 59.7 | 94.2 | 53.3 |
GPT-4 (zum Vergleich) | 60.1 | 95.0 | 54.2 |
Minerva 540B | 50.3 | 80.8 | — |
DeepSeekMath-RL 7B erreicht nahezu GPT-4-Niveau in Beweisführung und mathematischen Aufgaben – als Open-Source-Modell und ohne Tool-Voting oder Ensembles.
Datenaufbereitung & Training
DeepSeek Math verwendet ein mehrstufiges Verfahren zur Datensammlung:
- Start mit dem OpenWebMath-Korpus
- FastText-Modell zur Erkennung mathematischer Webseiten
- Analyse von Domains und manuelle Annotation
- Iterative Erweiterung auf 35,5 Millionen Webseiten mit 120B Tokens
Dieses Verfahren gewährleistet hohe Qualität und Diversität mathematischer Inhalte, vom Schulniveau bis zu Wettbewerbsaufgaben.
Anwendungsbereiche
- Theorembeweise mit symbolischer Argumentation
- Mathematik-Nachhilfe per Chatbot (z. B. mit LangChain)
- Quantitative KI-Assistenz für Forschung und Technik
- Schritt-für-Schritt-Rechnungen mit Chain-of-Thought-Prompts
- Multilinguale Mathematikverarbeitung (Englisch & Chinesisch)
Mehr zur Chatbot-Integration findest du im Artikel „Wie du mit DeepSeek eigene Chatbots entwickelst“.
Verwendung & Inferenz
Mit Huggingface Transformers kannst du DeepSeek Math direkt einsetzen. Beispielcode und Templates stehen in der GitHub-Dokumentation zur Verfügung.
Für bestmögliche Ergebnisse nutze Chain-of-Thought-Prompts wie:
„Please reason step by step, and put your final answer within \boxed{}.“
Fazit
DeepSeek Math ist ein hochspezialisiertes, Open-Source-KI-Modell für mathematische Intelligenz, formale Logik und quantitative Beweisführung. Es bietet eine freie, leistungsstarke Alternative zu geschlossenen Modellen wie GPT-4 und Gemini – mit besonderem Fokus auf Transparenz, Leistung und wissenschaftliche Genauigkeit.