DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

番茄系统家园 · 2026-03-03 03:30:40

本站3月3日消息,虽然春节档DeepSeek V4没有发布,但DeepSeek在2月11日发了一个新模型,被称为DeepSeek V4 Lite,只有2000亿参数,规模比较小。

DeepSeek V4 Lite主要特色是1M上下文,之前网友测试其表现除了超长上下文之外也没太惊艳的地方,毕竟参数规模跟主流的大模型差很多。

然而DeepSeek V4 Lite发布之后一直在悄悄升级,2月27日已经有网友测试发现其性能越来越强大,昨天又升级了一波,Linux Do社区大佬HCPTangHY测试之后也大为震惊,称其有点神,在他的测试中已经是国模SOTA(注:SOTA简单认为是第一就行)。

不仅如此,如果继续训练下去,还有可能开源撬动闭源。

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

从他的测试来看,DeepSeek V4 Lite的0302升级之后分数比之前的0227版更高一层楼,已经逼近目前最顶流的大模型Sonnet 4.6了。

帖子中还有其他的游戏及前端测试,包括业内很有名的天气卡测试,DeepSeek V4 Lite 0302版不论审美还是功能都是在线的。

回顾这一年来的AI大模型来看,国产大模型在对话聊天方面已经跟闭源模型差别不大,但在多模态、编程、数学及智能体等方面是被甩开的,最近发布的GLM5、MiniMax 2.5、Qwen 3.5系列有所提升,但Anthropic、OpenAI及谷歌也发布了最新的模型,差距又拉开了。

在追赶顶流闭源模型上,国内的公司面临着多方面的不利因素,投入没有美国公司的多,而且算力不够,数据资料方面也不如谷歌、OpenAI,毕竟他们要么有此前多年的积累,要么有大量用户。

而且Anthrpoic之前为了搜集数据,竟然从盗版网站上下载了大量书籍,还被判赔偿15亿美元,由此可见他们在这方面的投入之大,不要脸程度之深。

作为全村的希望,DeepSeek在技术探索上已经树立了标杆,如果2000亿小参数的DeepSeek V4 Lite就有如此表现,那完整版的DeepSeek V4确实非常值得期待,发布之后免不了又要对美国AI造成巨大冲击了。

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

免责声明: 凡标注转载/编译字样内容并非本站原创,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如果你觉得本文好,欢迎推荐给朋友阅读;本文链接: https://m.nndssk.com/xtzx/420900gtP8Sr.html
猜你喜欢
最新应用
热门应用