开发商
DeepSeek
参数规模
671B MoE
发布日期
2024-12-26
特性数量
5 项
核心特性
MoE架构开源中英双语编程数学
发展历程(4 条)
资讯2026年4月5日Hacker News
Show HN: ACE – A dynamic benchmark measuring the cost to break AI agentsHacker News (9 points)
资讯2026年4月4日Hacker News
Show HN: sllm – Split a GPU node with other developers, unlimited tokensHacker News (185 points)
发布2024年12月26日
DeepSeek-V3 开源
671B MoE模型,成本仅为GPT-4的1/40
DeepSeek 的其他模型
其他热门模型
GPT-4o
OpenAI未公开
OpenAI最新旗舰多模态模型,支持文本、图片、音频输入输出,速度快且成本低
多模态文本生成图片理解音频处理
2024-05-13
GPT-4.1
OpenAI未公开
OpenAI 2025年发布的最新模型,在编程和指令遵循方面大幅提升
编程指令遵循长上下文多模态
2025-04-14
Claude Opus 4
Anthropic未公开
Anthropic最强大的模型,在编程、推理和多步任务方面表现卓越
编程推理写作多步任务
2025-05-22
Claude Sonnet 4
Anthropic未公开
Anthropic高性能模型,平衡速度和能力,适合日常开发和分析任务
编程推理写作快速响应
2025-05-22