据科技媒体报道,英伟达近日宣布了一项重大战略决策:未来五年将投入260亿美元用于开发开源人工智能模型。这一举措被业界视为其从传统芯片制造商向顶尖AI实验室转型的关键信号,标志着这家硬件巨头正式加入全球AI基础模型竞争行列。
与传统开源模式不同,英伟达选择"开放权重"的技术路线——公开模型参数权重但保留部分许可权限。这种中间策略既区别于OpenAI的完全封闭模式,也不同于meta旗下Llama系列的彻底开源。分析指出,这种模式既能满足企业用户对模型透明度和可定制化的需求,又能通过硬件优化形成技术壁垒。
资金分配显示,这笔巨额投资将覆盖模型研发、算力基础设施、人才储备和生态建设四大领域。作为对比,OpenAI训练GPT-4的成本约为30亿美元。英伟达凭借自主掌控的超级计算资源和过去两年秘密组建的研发团队,计划同时推进多个前沿大模型项目。公司内部文件显示,首批模型预计在2026年底至2027年初面世。
金融领域测算表明,若英伟达在保持硬件市场主导地位的同时,能占据基础模型市场10%的份额,三年内有望实现每年500亿美元的额外收入。这一预测基于其硬件与软件的协同效应——自研模型将深度适配自家GPU架构,形成"芯片-算法-应用"的闭环生态。
当前行业格局呈现明显分化:美国头部企业如OpenAI、Anthropic和谷歌均采用闭源策略,仅提供云端API访问;meta虽坚持开源路线,但近期暗示可能调整策略。与此形成对比的是,中国科技公司如DeepSeek和阿里巴巴通过完全开源策略,在全球开发者社区赢得广泛支持。英伟达的入局被视为对既有格局的重大挑战。
公司应用深度学习研究副总裁Bryan Catanzaro公开表示,推动开源生态发展符合企业核心利益。这种立场与其硬件业务形成战略协同——模型开发过程中产生的计算需求,将直接转化为对自家GPU产品的采购订单。据悉,英伟达近期已完成一个拥有5500亿参数的超大模型预训练,创下行业新纪录。
企业生成式AI软件副总裁Kari Briski透露,前沿模型研发不仅是技术探索,更是对存储、网络和超算中心的系统性压力测试。这些实验数据将为下一代硬件架构设计提供关键参数,形成"以软促硬"的研发闭环。这种模式已被证实能有效缩短产品迭代周期,巩固技术领先地位。











