股票
代码
001266
电话咨询

189-1680-8200

Global
首页 新闻中心 企业动态 详情
2025-11-15
米兰·(milan)中国官方网站-DeepSeek发布V3.1-Terminus 支持128K上下文双模式运行

  【米兰·(milan)中国官方网站科技消息】DeepSeek于今日晚间正式宣布,其线上大语言模型已完成重大升级,新版本命名为DeepSeek-V3.1-Terminus,现已面向用户开放在线体验。此次更新标志着该公司在模型性能与服务能力上的进一步提升。升级后的模型提供“思考模型”与“非思考模型”两种运行模式,均支持高达128K的上下文长度,能够处理更复杂的长文本任务,满足专业场景下的多轮对话与文档分析需求。

DeepSeek发布V3.1-Terminus 支持128K上下文双模式运行

  据官方公布的技术参数,非思考模型的输出长度默认为4K tokens,最大可扩展至8K tokens,适用于快速响应的常规交互场景;而思考模型则针对复杂推理任务优化,输出长度默认达32K tokens,最大支持64K tokens,适合需要深度逻辑分析、代码生成或长篇内容创作的应用。这一双模式设计使用户可根据具体需求灵活选择,兼顾效率与深度。

  在服务定价方面,DeepSeek公布了透明的计费标准,旨在为开发者和企业用户提供高性价比的AI服务。模型输入费用根据缓存命中情况区分:若请求内容命中缓存,每百万tokens仅需0.5元;未命中缓存则为4元。模型输出费用统一为每百万tokens 12元。该定价策略有助于降低高频调用场景下的运营成本,尤其利好需要重复访问相同知识库的应用。

-米兰·(milan)中国官方网站

获取方案
咨询
关注我们

电话咨询

189-1680-8200
在线咨询
获取方案

提交信息后,业务人员将尽快与您联系

* 请选择方案领域
电话咨询 在线咨询 免费方案
联系我们

用微信扫一扫,关注我们取得联系

18916808200 热线
sales@ 合作邮箱
tech@ 售后邮箱
hr@ 简历投递
我们的工作时间是周一至周五上午 9 时至晚上 6 时(不含公共节假日)。我们仅在工作时间接听您的来电。
若您在非工作时间发送微信消息,我们将在工作时间回复您。