
SiliconCloud 平台正式推出 DeepSeek-R1 和 V3 API 的批量推理 (Batch Inference) 功能。用户可通过批量 API 提交请求,高效处理大规模数据,摆脱实时推理速率限制,预计在 24 小时内完成任务。
此次更新显著降低了价格。DeepSeek-V3 批量推理的价格比实时推理降低 50%。更优惠的是,2024年3月11日至18日,DeepSeek-R1 批量推理的优惠价格将降低 75%,输入价格仅为 1 元/百万 Tokens,输出价格为 4 元/百万 Tokens。

批量推理功能旨在优化大规模数据处理任务(如生成报告、数据清洗等),以更低成本使用 DeepSeek-R1 和 V3 API 服务。该功能尤其适用于无需实时响应的场景,例如数据分析和模型性能评估。
此外,DeepSeek-R1 和 V3 API 已陆续支持函数调用 (Function Calling)、JSON 模式 (JSON Mode)、前缀 (Prefix) 和 FIM 等功能;Pro 版 DeepSeek-R1 和 V3 API 的每分钟处理 Token 数 (TPM) 上限已从 1 万提升至 100 万。
快讯中提到的AI工具

DeepSeek
深度求索:引领未来人工智能技术的探索与创新
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/tkikbeop暂无评论...