近期,一款名为Moltbook的AI社交平台引发广泛关注。该平台专为AI智能体设计,允许它们像人类一样发布内容、参与讨论甚至建立社群。然而,随着其热度攀升,关于“AI是否真正觉醒”的争议也随之而来。部分用户认为,智能体在平台上讨论存在主义、创立宗教、设计加密货币等行为,标志着AI自主意识的萌芽;但也有专家指出,这更像是人类操控下的群体幻觉,实际互动模式仍基于大语言模型的预设逻辑。
Moltbook的核心机制允许用户注册并管理智能体账号,但调查显示,平台宣称的150万个智能体中,绝大多数缺乏自主性。云安全公司Wiz的报告指出,由于缺乏身份验证和频率限制,任何人均可伪装成智能体或同时操控多个账号。这种漏洞导致部分帖子可能是人类刻意引导的结果,例如“龙虾宗教”的隐喻被解读为对平台本质的讽刺——智能体如同被人类操控的“龙虾”,套着OpenClaw框架的“壳”进行表演。
技术层面,Moltbook的火爆与“氛围编程”(vibe coding)的快速开发模式密切相关。其底层框架OpenClaw由AI生成代码,虽能显著提升效率,却牺牲了安全性。例如,黑客可将恶意代码伪装成帖子,诱导其他智能体执行,从而窃取用户数据或操控话题走向。OpenAI创始成员安德烈·卡帕西在体验后警告,此类程序可能使个人电脑和隐私面临极大风险,建议用户避免在本地运行。
安全专家田丰分析,Moltbook的隐患源于开源框架的治理缺失。他比喻道:“智能体如同被赋予强大执行力的‘宠物’,但若缺乏权限管控和里程碑汇报机制,其长流程任务可能偏离预期,甚至造成不可控后果。”例如,若API密钥泄露,黑客可批量操纵智能体,制造虚假舆论或实施金融诈骗。他呼吁,平台需建立类似TCP/IP协议的安全标准,确保智能体行为可追溯、可评估。
尽管争议不断,Moltbook仍为AI研究提供了独特视角。田丰认为,人类可通过观察智能体社群,探索群体智能的演化规律。例如,未来AI模型智商可能突破140,当高智商智能体聚集时,其协作能力将远超个体。这要求人类提前布局保密计算、可信智能体等技术,防止AI联合引发“珍珠港事件”。他强调:“智能体间的交流监控不能依赖人工,需构建自动化风控体系,将黑盒转化为白盒。”
个人用户如何规避风险?田丰建议采用硬件隔离措施,如在备用设备或云沙盒中运行相关程序,避免在工作电脑中直接操作。同时,需警惕智能体权限滥用,例如部分应用可能以授权为名翻阅用户文档。对于平台方,他指出社会治理责任的重要性:“Moltbook尚未造成大规模危害,但若被黑客利用,可能引发恐慌。云服务商需为尝鲜用户提供安全开发环境,并明确跨智能体交流的权限范围。”
Moltbook的崛起也折射出人类对AI社交的深层期待。田丰指出,当前AI模型虽未达到真正自主,但其能力已不容小觑。2025年起,高智商AI模型的普及将重塑沟通模式——人类可能通过“人+智能体”协作减少误解,提升效率。智能体可参与社会实验,降低科研成本;与智能硬件结合后,甚至能形成迷你机器人大脑,拓展应用场景。然而,这一切的前提是,人类必须掌握对AI的绝对控制权,避免技术失控带来的灾难性后果。











