最近几个月,大语言模型(LLM)领域出现了一个有趣的现象:虽然开源社区依然活跃,但闭源模型(如GPT 5系列、Claude 4.5、Gemini 3.0)似乎正在加速拉开差距。可能是西方马上圣诞节的缘故,各家的狠活都一个接一个地来了。这种差距不仅仅体现在跑分上,更体现 ...
【TechWeb】12月2日消息,昨日晚间,DeepSeek发布了两款新模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale,并开源。DeepSeek-V3.2 达到了 GPT-5 的水平,DeepSeek-V3.2-Speciale在主流推理基准测试上的性能表现媲美 Gemini-3.0-Pro。 在发布的技术论文中,DeepSeek团队提到,过去几个月中出现 ...
但每个人,也深有期待 V3.2 的性能已经追平 GPT-5 和 Gemini 3.0 Pro,而且开源 V3.2 和顶级闭源模型的 benchmark 对比,来自 DeepSeek V3.2 技术报告 接下来,让我们一起完整看看 DeepSeek 从 V3 到 V3.2 的演进过程中,看看每个版本改了什么,为什么改,以及怎么实现的 内容 ...
离春节不到一周,过去两年的经验告诉我们,国产AI新产品的爆发期又要来了。 Kimi K2.5在OpenRouter上一骑绝尘,Minimax也在官网上隐隐约约透露出M2.2的版本代号。 大家等得很焦急,智谱和DeepSeek年前是不是也得来点大动作?
DeepSeek-V3.2很强很火爆,但随着讨论的深入,还是有bug被发现了。 并且是个老问题:浪费token。 图源:x@Hangslin 不少网友都提到,DeepSeek-V3.2的长思考增强版Speciale,确确实实以开源之姿又给闭源TOP们上了压力,但问题也很明显: 在面对复杂任务时,消耗的token数偏 ...
此次曝光源于DeepSeek对其开源推理加速库FlashMLA的更新。在横跨114个文件的代码变动中,出现了28处“MODEL1”标识符,其技术路径与现有的V32(即DeepSeek-V3.2)架构存在显著差异,暗示这是一个经过彻底重构的新设计。 近日, DeepSeek在GitHub上的代码库更新中,意外 ...
DeepSeek today released an improved version of its DeepSeek-V3 large language model under a new open-source license. Software developer and blogger Simon Willison was first to report the update.
小雷发现,DeepSeek似乎真的很喜欢大晚上给大家突然来个惊喜。 12月1日晚,DeepSeek突然来了一波更新:V3.2版本正式上线并向所有用户开放,同时也在各个开源社区上传了V3.2的本地部署模型供所有用户使用。从官方公布的测试结果来看,DeepSeek V3.2的推理能力已经 ...
还没吃上瓜的家人们别着急,咱们从头捋一捋这事儿: 在最近一次访谈中,当被问到如何看待中国开源AI的强势发展时,Mistral联合创始人、CEO Arthur Mensch这样回应: 中国在AI领域实力强劲。我们是最早发布开源模型的公司之一,而他们发现这是一个很好的策略。
DeepSeek发布新论文,梁文锋参与署名。 1月1日消息,DeepSeek发布了一篇新论文,提出了一种名为mHC(流形约束超连接)的新架构。该研究旨在解决传统超连接在大规模模型训练中的不稳定性问题,同时保持其显著的性能增益。这篇论文的第一作者有三位:Zhenda Xie ...
近日,科技领域传来新动态,DeepSeek正对其网页端和APP进行新功能测试,此次测试聚焦于全新的长文本模型结构,该结构可支持高达1M的上下文。不过,其API服务目前依旧保持为V3.2版本,仅支持128K上下文。
前述内容由第一财经“星翼大模型”智能生成,相关AI内容力求但不保证准确性、时效性、完整性等。请用户注意甄别,第一财经不承担由此产生的任何责任。 如您有疑问或需要更多信息,可以联系我们 yonghu@yicai.com “MODEL1”很可能已接近训练完成或推理部署阶段 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果