DeepSeek Coder V2 es un modelo de IA de código abierto de última generación que compite con los principales modelos de código cerrado, como GPT-4o y Claude 3, en puntos de referencia de codificación, depuración y razonamiento matemático. Disponible a través de DeepSeekDeutsch.io, permite a los desarrolladores e investigadores renunciar a la inteligencia del código comercial sin comprometer el rendimiento.
Qué es DeepSeek Coder V2?
DeepSeek Coder V2 es un modelo de lenguaje de mezcla de expertos (MoE) con versiones avanzadas de Instruct y Base. Se fijó en un nivel intermedio de DeepSeek V2 se entrenó con otros 6 billones de tokens, lo que mejoró significativamente sus habilidades de codificación y matemáticas.
- Admite 338 lenguajes de programación
- Longitud del contexto: 128.000 tokens
- Dos versiones principales: Lite (16B) y Full (236B)
- Los modelos se basan en el DeepSeekMarco del Ministerio de Educación
- Uso comercial permitido (Información de licencia)
Puedes DeepSeek Coder V2 Úselo gratis o descárguelo a través de Hugging Face o ejecútelo localmente utilizando una infraestructura de código abierto como SGLang o vLLM.
Modelos de un vistazo
Nombre del modelo | Parámetros (Total) | Parámetros activos | Longitud del contexto | Tipo | Disponibilidad |
---|---|---|---|---|---|
DeepSeek-Coder-V2-Lite-Base | 16B | 2.4B | 128K | El pareo de bases | AbrazandoCara |
DeepSeek-Coder-V2-Lite-Instruct | 16B | 2.4B | 128K | Instruir | AbrazandoCara |
DeepSeek-Coder-V2-Base | 236B | 21B | 128K | El pareo de bases | AbrazandoCara |
DeepSeek-Coder-V2-Instruir | 236B | 21B | 128K | Instruir | AbrazandoCara |
Comparación de referencia: generación de código y matemáticas
Codigo de GENERACION
modelo | Evaluación humana (%) | MBPP+ (%) | Banco de código en vivo | USACO |
---|---|---|---|---|
DeepSeek-Coder-V2-Instruir | 90.2 | 76.2 | 43.4 | 12.1 |
GPT-4o-0513 | 91.0 | 73.5 | 43.4 | 18.8 |
Claude-3-Opus | 84.2 | 72.0 | 34.6 | 7.8 |
DeepSeek-Coder-V2-Lite | 81.1 | 68.8 | 24.3 | 6.5 |
CodeStral | 78.1 | 68.2 | 31.0 | 4.6 |
Fehlerbehebung
modelo | Defectos4J | Banco SWE | Aider |
---|---|---|---|
DeepSeek-Coder-V2-Instruir | 21.0 | 12.7 | 73.7 |
GPT-4o-0513 | 26.1 | 26.7 | 72.9 |
Claude-3-Opus | 25.5 | 11.7 | 68.4 |
DeepSeek-Coder-V2-Lite | 9.2 | 0.0 | 44.4 |
Habilidades matemáticas
modelo | GSM8K | MATEMÁTICAS | AIME 2024 | Odisea de las matemáticas |
---|---|---|---|---|
DeepSeek-Coder-V2-Instruir | 94.9 | 75.7 | 4/30 | 53.7 |
GPT-4o-0513 | 95.8 | 76.6 | 2/30 | 53.2 |
Claude-3-Opus | 95.0 | 60.1 | 2/30 | 40.6 |
DeepSeek-Coder-V2-Lite | 86.4 | 61.8 | 0/30 | 44.4 |
Puede encontrar más puntos de referencia en el oficial DeepSeekDocumentación de Coder-V2 en GitHub.
Uso local e inferencia
DeepSeek Coder V2 se puede encontrar a través de Hugging Face Transformers, SGLango vllm ser ejecutado. La versión grande (236B) requiere 8 GPU de 80 GB.
En DeepSeekLa plataforma API de también puede utilizarla con una interfaz compatible con OpenAI.
Casos de uso para desarrolladores
- Integración de IDE para autocompletado y revisión de código
- Diagnóstico de errores en tiempo real para proyectos complejos
- Resolución de problemas matemáticos para investigación o educación
- Compatibilidad con código multilingüe en 338 lenguajes de programación
- Agentes de codificación asistida con LangChain, Agentes abiertos, o canalización personalizada
Conclusión
DeepSeek Coder V2 es una poderosa herramienta de código abierto que democratiza el acceso a IA de primer nivel para codificación, matemáticas y razonamiento. Con puntos de referencia cercanos a GPT-4o, inferencia flexible y uso gratuito DeepSeekDeutsch.io Es una de las mejores alternativas a los modelos comerciales.
Pruébelo ahora y experimente el futuro de la inteligencia de código.