首页/大模型/DeepSeek-V3
DeepSeek-V3

DeepSeek-V3

by DeepSeek671B MoE

深度求索MoE架构大模型,671B参数,性能媲美GPT-4,训练成本极低

访问官网

开发商

DeepSeek

参数规模

671B MoE

发布日期

2024-12-26

特性数量

5

核心特性

MoE架构开源中英双语编程数学

发展历程(4 条)

资讯2026年4月5日Hacker News
Show HN: ACE – A dynamic benchmark measuring the cost to break AI agents

Hacker News (9 points)

资讯2026年4月4日Hacker News
Show HN: sllm – Split a GPU node with other developers, unlimited tokens

Hacker News (185 points)

发布2024年12月26日
DeepSeek-V3 开源发布

671B MoE 模型,训练成本仅557万美元,性能媲美 GPT-4o 和 Claude 3.5

发布2024年12月26日

DeepSeek-V3 开源

671B MoE模型,成本仅为GPT-4的1/40

DeepSeek 的其他模型

其他热门模型