近日,DeepSeek开始灰度测试识图模式,并大范围开放给用户体验。

  在具体的实测体验中,开启该模式后,用户可以直接上传图片让DeepSeek“看”世界,其能力边界远超简单的文字提取。比如,网友上传在博物馆拍摄的不明文物并开启“深度思考”后,模型不仅详细描述该文物纹理材质,还准确推断出其年代风格;面对时下流行的表情包或梗图,它也能准确理解。

  DeepSeek“开眼”,与其他主流大模型有何能力差异?有哪些优势和不足?科技日报记者就此采访了有关专家。

  第一问:DeepSeek识图模式与豆包等其他大模型有何区别?

  “与其他大模型相比,DeepSeek识图模式的核心区别集中在技术路径、算力消耗和交互逻辑上。”赛迪顾问人工智能大数据研究中心分析师白润轩说。

  他解释道,DeepSeek识图模式以“视觉原语思考”为核心。这一核心框架主打精准空间推理和复杂场景解析,而非单纯的文字OCR(光学字符识别)或基础识别。而豆包等模型更侧重结合联网搜索提升识别时效性,多依赖传统图像编码后进行文本理解,空间推理精度稍弱。

  同时,这一框架在实际运行中“算力友好”。白润轩介绍,DeepSeek处理800×800分辨率图片仅消耗约90个tokens(词元),远低于GPT等主流模型,响应速度更快。

  此外,DeepSeek识图模式为独立入口,专注纯视觉理解,不额外启用联网功能,而豆包等大模型会自动联动搜索。

  第二问:“视觉原语思考”的核心创新点在哪?

  伴随识图模式的上线,DeepSeek还公开了其背后的多模态模型技术细节,并公布了“视觉原语思考”核心框架。

  “这一框架的核心创新点在于跳出主流模型‘堆分辨率’的思路,聚焦解决传统多模态模型的‘指代鸿沟’困境。”白润轩解释。

  传统多模态大模型在面对密集场景时存在一种名为“指代鸿沟”的困境,模型虽然能看见图片,但在推理过程中用“左边那个大的”等模糊的自然语言构建逻辑链时,很容易因描述不准导致注意力漂移。

  而“视觉原语思考”框架将点、边界框等空间视觉元素作为“思维”基本单元,融入模型推理全过程,这就像给模型装上了一根“赛博手指”,让AI在推理时能在“脑海”中精确指出目标物,边想边指,大幅提升复杂空间布局、密集计数等场景的推理精度。

  第三问:目前存在的不足及改进方向是什么?

  在白润轩看来,DeepSeek识图模式目前主要存在三项不足。

  一是知识库更新偏滞后。其模型训练数据截至2025年,识别2025年底后发布的新型产品易出现型号误判。

  二是高难度场景表现还不稳定。面对视错觉图片、复杂物体计数等反直觉任务时,模型给出的答案稳定性不足,偶发逻辑崩溃。

  三是功能边界较窄。目前仅支持纯视觉理解,暂不具备图像生成、视频理解及跨模态创作能力,且高并发时段偶有解析失败、响应延迟的情况。

  “建议后续加快知识库迭代、优化反直觉场景算法;同时拓展多模态功能,进一步提升系统稳定性以适配更多用户的需求。”白润轩说。

  (文章来源:科技日报)

责任编辑:石秀珍 SF183

www.jiuyou.com,yy易游下载,

九游电脑版相关资讯:yiyou,