
站长之家(ChinaZ.com)6月18日 报道:DeepSeek 近期发布了其代码大模型的最新版本 DeepSeek-Coder-V2,该模型在多项编程能力评测中超越了 GPT-4-Turbo,并在代码生成与推理方面展现出卓越性能。据介绍,DeepSeek-V2 的模型架构中,DeepSeek-Coder-V2 采用了混合专家(MoE)架构,旨在利用不同专家的优势,提升模型在编程任务中的表现。
DeepSeek-Coder-V2 的设计专注于提升在软件开发场景中的代码生成能力,能够更好地理解编程需求并生成高质量的代码。此版本支持多种编程语言、文本编辑和项目理解等功能,能有效满足各类开发需求。该模型提供四种不同规格的模型:236B 参数和 16B 参数两种,以适应不同的计算资源和应用场景。
在性能评估方面,DeepSeek-Coder-V2 在代码生成任务上的性能已达到 86% 的通过率,并在 HumanEval-X 数据集上达到了 338 分,超越了当前领先的闭源模型。同时,该模型的上下文窗口长度从 16K 扩展到 128K,显著提高了处理长代码和复杂任务的能力。 DeepSeek-Coder-V2 还提供 API 服务,支持 32K 上下文窗口,与 DeepSeek-V2 模型保持一致。
在实际应用层面,DeepSeek-Coder-V2 在代码补全、代码编写、代码修改以及代码翻译等多个编程任务中均表现出色,为开发者提供强大的辅助功能。无论面对复杂的编程挑战,还是进行日常的代码开发,DeepSeek-Coder-V2 都能提供有力的技术支持。
DeepSeek 已经将其模型部署在 Hugging Face 和 GitHub 平台上,方便开发者下载使用,并鼓励开发者参与模型改进。 这一举措旨在推动代码大模型技术的普及与发展,为开发者提供更强大的编程助手,共同推动人工智能在软件开发领域的应用。
项目地址:https://top.aibase.com/tool/deepseek-coder-v2
在线体验:https://chat.deepseek.com/sign_in