人工智能大模型领域迎来新一轮价格竞争,DeepSeek-V4系列模型近日大幅下调服务费用,其中输入缓存命中场景的价格降幅尤为显著。全系两款主力模型中,DeepSeek-V4-Flash的输入缓存命中价格直接降至每百万tokens 0.02元,而DeepSeek-V4-Pro的同类服务价格也调整为0.025元,相当于首发价的十分之一。
此次价格调整呈现差异化策略。除缓存命中场景外,DeepSeek-V4-Pro在缓存未命中场景仍保持每百万tokens输入3元、输出6元的定价,但该优惠仅持续至5月5日23点59分。相比之下,DeepSeek-V4-Flash的缓存未命中输入价格维持在1元,输出价格为2元,未参与限时优惠活动。这种阶梯式定价策略既保持了基础服务的稳定性,又通过限时优惠刺激高端市场需求。
价格变动迅速引发行业热议。有技术博主通过实际使用场景测算,发现调整后的价格体系可使企业成本降低73%。这种降幅被网友类比为"移动数据套餐从5元1G骤降至5毛1G",直观反映出价格调整的震撼效果。在社交媒体平台上,开发者群体表现出强烈兴趣,认为当前是评估将工作流程从Claude或GPT迁移至DeepSeek的最佳时机。
行业观察者指出,此次降价背后是多重战略考量。开源架构与长上下文处理能力构成的技术优势,配合极具竞争力的价格体系,正在重塑开发者生态格局。特别对于中小型开发团队而言,顶级模型的使用门槛显著降低,使得通过AI大模型实现商业闭环成为可能。有分析师认为,这种"技术普惠"策略或将加速AI应用在垂直领域的渗透速度。
市场反应呈现两极分化。部分开发者盛赞这是"技术民主化的重要里程碑",认为价格调整将彻底改变AI应用的经济模型;也有观点认为这是头部企业通过价格战巩固市场地位的手段。但不可否认的是,在开源生态与价格优势的双重驱动下,DeepSeek正吸引越来越多开发者构建应用生态,这种趋势在长尾市场中尤为明显。












