ITBear旗下自媒体矩阵:

AI时代算力“随用随取”:共绩科技如何解锁弹性算力新商机?

   时间:2026-04-07 20:26:19 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

AI推理成本在短短两年内下降了99.7%,从GPT-4发布时的每百万Token37.5美元,降至2025年的0.14美元。然而,全球企业AI云支出却从115亿美元激增至370亿美元,翻了三倍。这一矛盾现象背后,是AI进入A2A时代后,智能体间的反复交互导致Token调用量呈指数级增长,使得算力成本不降反升。

算力正成为这个时代最特殊的资源——单价越来越便宜,但总支出却持续攀升。对于科技巨头而言,自建算力中心是解决方案;但对大多数创业公司来说,只能依赖公共算力市场,被动接受云厂商定价,眼睁睁看着账单逐月增长。这种市场错位,催生了一个新兴商机:通过创新方式降低算力使用成本。

共绩科技创始人付智发现,降低算力成本的关键不在于等待硬件价格自然下降,而在于改变使用方式。他提出要让算力像电力一样随取随用、按需计费,激活大量闲置算力资源。这种模式已获得市场验证:公司完成Pre-A轮融资,投后估值3.5亿元人民币,计划启动A轮融资,在算力赛道普遍承压的2025年实现了数千万营收,客户留存率接近100%。

一家AI创业公司在产品上线前夕遭遇流量洪峰,48小时内涌入50万用户,需要短时间内将基础设施扩容几十倍。尽管测试过多个云服务平台,最终解决方案却来自共绩科技——紧急调配近1900张GPU卡,处理超过百万个订单。这种按需调度的模式,解决了传统算力服务在弹性需求场景下的痛点。

更极端的案例出现在景区AI换装拍照公司。春节期间客流量激增导致算力需求暴涨,但假期过后需求几乎归零。按峰值租算力意味着平时90%的时间在烧钱,按均值租则在春节期间必然崩溃。共绩科技通过调度1963台个人电脑,在保证服务稳定性的同时,为客户节约了近70%的费用。这种模式同样适用于图片生成平台等用户量波动大的AI应用,通过盘活夜间闲置算力,将GPU利用率从45%提升至更高水平。

付智的创业灵感源于2023年5月的偶然尝试:将一张A100显卡以"租期越短越便宜"的方式出租,竟有30人咨询并付费。这个实验验证了市场对弹性算力的真实需求。但真正让这门生意成为可能的,是技术条件的成熟——高性能GPU在个人用户中的普及、WSL1.0.0的发布、远程调用技术的成熟,三者缺一不可。

算力调度的技术难度远超想象。付智将能源领域的"削峰填谷"算法移植到算力领域,这是公司的核心壁垒。面对个人电脑可能被占用导致服务中断的问题,采用热备加预测技术:提前准备冗余节点,用历史数据预测供给方在线规律,动态调整备份比例。网络传输不稳定的问题则通过同时接入三家头部云厂商解决。

与云厂商相比,共绩科技的优势在于价格和调度效率。传统算力服务商的弹性扩容价格是常规价格的5倍,或要求客户签订长约承担闲置风险。而共绩科技使用的资源本身就是闲置的,因此能提供更具竞争力的价格。付智将目标市场定位在20%的弹性需求领域,这个比例随着AI应用发展正在不断扩大。

这种商业模式在其他领域已有成功先例。付智将其比作算力领域的Airbnb:当AI应用发布新版本或遭遇流量爆发时需要大量算力,而个人用户、网吧、小机房的算力在夜间和工作日大量闲置,共绩科技做的就是连接供需双方。目前,公司共享算力平台已支持普通消费者按毫秒租用算力。

国外已有类似模式的企业RunPod获得2000万美元融资,但付智认为中美市场存在本质差异。美国云计算市场从诞生起就提供弹性算力服务,而国内厂商更倾向长租模式,用户付费意愿也较低。因此,直接复制国外模式在国内行不通,需要本土化创新。

在付智看来,共享算力只是起点。他判断未来两三年是窗口期,随着算力供需错位现象持续存在,这个市场将继续存在。但更重要的机遇在于AI应用的发展方向——中国超级应用更可能出现在移动端社交娱乐、跨境硬件等领域,而非PC端生产力工具。这些场景下的AI硬件若采用开源模型部署,在流量爆发时将成为弹性算力的重要客户。

付智更看重的长期趋势是A2A(AI to AI)模式的崛起。他认为让人直接与AI对话是效率浪费,真正高效的方式是AI之间直接协作。当任务下达后,一组AI自动运转,人只需定义目标。这种模式将使算力消耗呈数量级增长,届时算力将真正像电力一样成为基础设施,调度能力将成为核心竞争力。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version