在10月6日的开发者大会上,OpenAI向外界展示了其对人工智能未来的宏大构想:智能体(Agents)将渗透至各个领域,而OpenAI的平台正逐步演变为一种新型的操作系统。这一愿景与两年前某位观察者的预测不谋而合,当时他提出大型语言模型(LLM)本质上是“云端操作系统”,并预言了其产业发展的轨迹。
早在2023年,这位观察者便在多篇文章中提出,LLM不应被简单归类为云服务或搜索引擎。他指出,云服务仅是成本中心,不改变数据价值;而LLM则是“数据价值的放大器”,是利润中心。同时,LLM的核心在于内容生成与逻辑推理,远非搜索引擎的信息集散功能所能涵盖。他当时的核心论断是:LLM更接近于Windows和安卓,是一种新式的云端操作系统。
这一论断的依据在于,LLM将颠覆传统的人机交互模式。在低智能、低信息量的环境下,分类是信息吞吐的最佳方式;但在高智能、全范围信息量的前提下,对话将成为主流。智能体将承担分类与折叠信息的任务,使AI成为继PC、手机之后的第三个通用计算平台,以“对话”和“意图”驱动所有应用。
两年过去,OpenAI的发展路径,尤其是开发者大会的举措,为这一论断提供了有力证据。首先,OpenAI明确将自己定位为承载无数AI智能体的“操作系统”,使chatGPT等应用从被动应答者转变为主动行动者。其次,一个完整的操作系统架构逐渐浮现:模型(Model)如同内核,Apps SDK扮演系统API角色,GPTs作为应用外壳,MCP等协议确保硬件识别与调用,ChatGPT则是AI-OS的集成体现。用户则扮演多进程任务调度者,通过自然语言同时启动和管理多个任务流。
这一架构标志着生态构建进入深水区,一个庞大的原生智能体生态即将形成。尽管最终胜出者未必是OpenAI,但竞争已不可避免。以Apps SDK为基础构建的未来,将是一个真正的“通用计算平台”,开发者构建的Agents可操作浏览器、调用软件API、管理文件,成为所有软件的上一层中枢。
这一判断的根源在于智能供给方式的变革。旧模式下,CPU提供算力,程序员提供智能;新模式下,GPU提供算力,大模型提供智能。智能供给方的变化必然重塑上层应用形态与交互方式,推动交互方式从“分类”走向“对话”,应用架构从“孤岛”走向“被操作系统统一调度”。
两年前,这位观察者还曾提出一个在当时看来颇为悲观的判断:AI行业,尤其是希望构建平台或深入行业的公司,在3-5年内难有商业模式,甚至会“加大亏损”。原因在于商业要素未变,客户议价能力、成本结构、竞争格局等未因技术突破而改善,反而算力、数据、人才成本与模型升级压力剧增。同时,AI平台的构建需要“持续打深井”,而非互联网式的“大水漫灌”,这与追求“快”的互联网打法背道而驰。
现实情况基本印证了这一判断。全球绝大多数AI创业公司仍在巨额亏损中挣扎,寻找产品市场契合点(PMF)。“百模大战”的价格战更是将成本压力推向极致。市场风向也已转变,单纯夸耀模型参数已无意义,投资人和客户更关注AI能解决什么具体问题。行业共识正在向“系统性产品”和“垂直解决方案”聚集。
垂直模型的兴起也印证了“章鱼生态”的判断。法律、金融、医疗、教育等领域的专业模型和应用层出不穷。企业逐渐意识到,通用模型只能解决70%的问题,剩下30%的核心场景必须依靠与自身数据和工作流深度结合的垂直模型。每个垂直领域注定会有自己的大模型,形成一套系统和生态。
在行业早期,信息往往不充分,此时如何建立前瞻性判断力?关键在于一套思维框架,其核心在于“实”与“名”的相互观照与穿梭。“实”指事物的本来面貌,即技术最本质的现实;“名”指描述和理解现实的抽象概念。有效战略思考需始于“实”,回归技术本源,剥去光环,直面LLM的技术内核。然后跃迁至“名”,寻找最恰当的抽象,如将LLM对应到操作系统概念。接着在“名”的世界里推演,调动所有关于操作系统的历史知识和商业规律。最后以“名”驭“实”,回归现实进行验证。