DeepSeek Coder V2

DeepSeek Coder V2 es un modelo de IA de código abierto de última generación que compite con los principales modelos de código cerrado, como GPT-4o y Claude 3, en puntos de referencia de codificación, depuración y razonamiento matemático. Disponible a través de DeepSeekDeutsch.io, permite a los desarrolladores e investigadores renunciar a la inteligencia del código comercial sin comprometer el rendimiento.

Qué es DeepSeek Coder V2?

DeepSeek Coder V2 es un modelo de lenguaje de mezcla de expertos (MoE) con versiones avanzadas de Instruct y Base. Se fijó en un nivel intermedio de DeepSeek V2 se entrenó con otros 6 billones de tokens, lo que mejoró significativamente sus habilidades de codificación y matemáticas.

  • Admite 338 lenguajes de programación
  • Longitud del contexto: 128.000 tokens
  • Dos versiones principales: Lite (16B) y Full (236B)
  • Los modelos se basan en el DeepSeekMarco del Ministerio de Educación
  • Uso comercial permitido (Información de licencia)

Puedes DeepSeek Coder V2 Úselo gratis o descárguelo a través de Hugging Face o ejecútelo localmente utilizando una infraestructura de código abierto como SGLang o vLLM.

Modelos de un vistazo

Nombre del modelo Parámetros (Total) Parámetros activos Longitud del contexto Tipo Disponibilidad
DeepSeek-Coder-V2-Lite-Base 16B 2.4B 128K El pareo de bases AbrazandoCara
DeepSeek-Coder-V2-Lite-Instruct 16B 2.4B 128K Instruir AbrazandoCara
DeepSeek-Coder-V2-Base 236B 21B 128K El pareo de bases AbrazandoCara
DeepSeek-Coder-V2-Instruir 236B 21B 128K Instruir AbrazandoCara

Comparación de referencia: generación de código y matemáticas

Codigo de GENERACION

modelo Evaluación humana (%) MBPP+ (%) Banco de código en vivo USACO
DeepSeek-Coder-V2-Instruir 90.2 76.2 43.4 12.1
GPT-4o-0513 91.0 73.5 43.4 18.8
Claude-3-Opus 84.2 72.0 34.6 7.8
DeepSeek-Coder-V2-Lite 81.1 68.8 24.3 6.5
CodeStral 78.1 68.2 31.0 4.6

Fehlerbehebung

modelo Defectos4J Banco SWE Aider
DeepSeek-Coder-V2-Instruir 21.0 12.7 73.7
GPT-4o-0513 26.1 26.7 72.9
Claude-3-Opus 25.5 11.7 68.4
DeepSeek-Coder-V2-Lite 9.2 0.0 44.4

Habilidades matemáticas

modelo GSM8K MATEMÁTICAS AIME 2024 Odisea de las matemáticas
DeepSeek-Coder-V2-Instruir 94.9 75.7 4/30 53.7
GPT-4o-0513 95.8 76.6 2/30 53.2
Claude-3-Opus 95.0 60.1 2/30 40.6
DeepSeek-Coder-V2-Lite 86.4 61.8 0/30 44.4

Puede encontrar más puntos de referencia en el oficial DeepSeekDocumentación de Coder-V2 en GitHub.

Uso local e inferencia

DeepSeek Coder V2 se puede encontrar a través de Hugging Face Transformers, SGLango vllm ser ejecutado. La versión grande (236B) requiere 8 GPU de 80 GB.

En DeepSeekLa plataforma API de también puede utilizarla con una interfaz compatible con OpenAI.

Casos de uso para desarrolladores

  • Integración de IDE para autocompletado y revisión de código
  • Diagnóstico de errores en tiempo real para proyectos complejos
  • Resolución de problemas matemáticos para investigación o educación
  • Compatibilidad con código multilingüe en 338 lenguajes de programación
  • Agentes de codificación asistida con LangChain, Agentes abiertos, o canalización personalizada

Conclusión

DeepSeek Coder V2 es una poderosa herramienta de código abierto que democratiza el acceso a IA de primer nivel para codificación, matemáticas y razonamiento. Con puntos de referencia cercanos a GPT-4o, inferencia flexible y uso gratuito DeepSeekDeutsch.io Es una de las mejores alternativas a los modelos comerciales.

Pruébelo ahora y experimente el futuro de la inteligencia de código.

Al proyecto de GitHub DeepSeek-Coder-V2