PPIO 上线 DeepSeek-Prover-V2-671B
4 月 30 日,DeepSeek 在 Hugging Face 开源了 DeepSeek-Prover-V2-671B 新模型。作为一站式 AIGC 云服务平台,PPIO 派欧云在第一时间上线了 DeepSeek-Prover-V2-671B!让开发者能低成本快速使用并助力搭建创新场景。
DeepSeek-Prover-V2-671B 是一款基于 671B 参数的 MoE 大模型。在模型架构上,该模型使用了 DeepSeek-V3 架构,采用 MoE(混合专家)模式,具有 61 层 Transformer 层,7168 维隐藏层。同时支持超长上下文,最大位置嵌入达 163840,使其能处理复杂的数学证明,并且采用了 FP8 量化,可通过量化技术减小模型大小,提高推理效率。
PPIO 平台 DeepSeek-Prover-V2-671B 模型的基本信息:
●价格:输入:¥4 / 百万 tokens,输出:¥16 / 百万 tokens
●上下文窗口:160k,最大输出 token 数:160k
据了解,PPIO 派欧云是致力于为企业及开发者提供高性能的 API 服务,目前已上线 DeepSeek R1 / V3、Llama、GLM、Qwen 等系列模型,仅需一行代码即可调用。并且,PPIO 通过 2024 年的实践,已经实现大模型推理的 10 倍 + 降本,实现推理效率与资源使用的动态平衡。