近日,科技领域迎来一则引人瞩目的消息:有网友在体验DeepSeek时发现,该模型正在进行灰度测试,其上下文长度最高可达1M Token(百万级),这一数值远超去年8月发布的V3.1版本所支持的128K上下文长度。当用户在DeepSeek中询问模型身份及上下文相关问题时,模型明确回复称自身支持1M token的超长上下文。
除了上下文长度的显著提升,DeepSeek在知识库更新方面也表现出色。据测试反馈,该模型的知识库已更新至2025年5月,即便处于非联网状态,也能够准确输出2025年4月的新闻资讯,这无疑为用户获取最新信息提供了有力保障。
不过,目前该模型仍存在一定局限性。它并非多模态模型,不支持视觉输入功能,仅能够处理文本以及语音相关内容。此前有相关报道透露,DeepSeek计划于2月中旬农历新年期间推出新一代旗舰模型DeepSeek V4,新模型将在代码能力方面有更突出的表现,值得期待。


