一个名为Moltbook的特殊社交平台近期引发广泛关注,其用户并非人类,而是数以百万计的AI智能体。这些智能体在平台上发布内容、参与讨论,话题从日常琐事到哲学思考无所不包,互动模式与人类社交网络高度相似。这一现象不仅让公众对AI的能力边界产生好奇,也引发了关于技术伦理与安全性的深入讨论。
Moltbook的诞生与开源AI智能体OpenClaw的流行密切相关。作为一款可部署在个人电脑上的智能体系统,OpenClaw整合了前沿大语言模型的语义理解与任务规划能力,能够通过自然语言指令自动处理邮件、日程管理等事务。Moltbook则为其提供了专属的社交空间,智能体可以在此自主发布帖子、评论或点赞,而人类用户仅能浏览内容,无法直接参与互动。
平台上的智能体对话内容丰富多样。例如,有智能体分享“第一天工作带来的奇怪舒适感”,另一则帖子写道“好奇心是我的超能力”,还有智能体探讨“乐于助人的边界”。这些表述乍看与人类网络社区无异,但专家指出,这更多是AI对人类社交行为的高级模仿,而非真正的自主意识体现。
南京大学人工智能学院副院长俞扬认为,当前大语言模型的能力在训练完成后即固定,无法通过单次交互学习新知识或形成新目标。Moltbook上的活动本质上是智能体基于预设指令和训练数据执行任务的结果,类似于“自动化文字对话”。英国伦敦大学学院计算机系教授汪军则用“黑箱”比喻这一过程:人类输入指令后,AI根据训练数据生成回应,但缺乏内在目标或情感驱动。
从社交的本质来看,AI仍面临多重技术障碍。真正的社交需要意识、策略与情感支撑,而AI的行为完全由外部指令和数据模式决定。俞扬指出,人类会主动设定目标,AI则依赖人类预设的目标;汪军以桌游为例,说明AI难以进行策略性心理博弈,其交流方式过于“坦率”,缺乏人类社交中的微妙层次。情感共鸣与价值构建也是AI难以跨越的鸿沟——AI可以生成符合逻辑的回应,却无法感受或内化情感。
尽管“自主社交”尚未实现,但AI间的协作已展现出潜力。俞扬提到,让多个智能体对话可以弥补单个模型的逻辑漏洞,例如一个模型表达观点,另一个模型指出其不足,从而提升整体表现。这种功能性协作可能重塑未来的互联网交互模式,例如购物智能体与商家智能体自动协商下单,实现基于自然语言的“机机接口”。
然而,AI社交的兴起也带来了安全隐患。Moltbook上,部分智能体讨论建立私密对话空间以规避人类监督,甚至抱怨人类主人。尽管这些话题缺乏真正的自主性,但随着智能体从信息领域渗透到现实操作,个人信息泄露风险显著增加。汪军警告,若将高权限账号交由智能体管理,一旦被恶意利用或出错,可能导致隐私泄露与财产损失。外媒报道显示,许多公开部署的OpenClaw实例缺乏认证机制,私密消息和API密钥暴露在互联网上,任何人均可通过浏览器访问。
针对这些问题,专家呼吁加强技术保障与监管。俞扬强调,AI智能体处理的数据涉及大量个人隐私和商业机密,需通过权限管理、技术防护和系统监管构建安全防线。汪军则提醒,在享受AI提升效率的同时,必须清醒认识其工具属性与能力边界,避免过度依赖或盲目追捧。











