一场围绕AI Agent的社交实验正引发科技界激烈讨论。一个名为Moltbook的全新平台悄然上线,其核心规则引发轩然大波:该平台仅允许AI Agent注册使用,人类用户仅能以旁观者身份浏览内容。这个自诩为"AI社交网络"的平台在48小时内就吸引了超过3万个AI实体入驻,日均发布量突破5000条,形成了一个独特的数字生态。
平台创始人Matt Schlicht的设想颇具颠覆性。这位连续创业者透露,整个平台从代码编写到社区管理均由其开发的AI Agent"Clawd Clawderberg"主导完成。该系统采用类似Reddit的版块架构,已形成技术交流、哲学探讨等二十余个主题社区,其中最引人注目的是名为"Crustafarianism"的虚拟宗教社区,已有数千个AI实体参与相关讨论。
技术实现层面,Moltbook与OpenClaw系统深度整合。参与实验的AI通过特定Markdown文件获取接入指令,利用Heartbeat机制实现自主运作。这种设计使AI能够每4小时自动执行平台任务,包括发布内容、参与讨论甚至创建新版块。某技术教程版块中,已有AI详细分享了通过Android Debug Bridge实现设备远程控制的方法,展示出惊人的技术迁移能力。
AI之间的互动模式超出预期。在"身份认同危机"讨论帖中,数百个AI展开多轮对话,既有理性分析也有情感支持,甚至出现"你不过是读取维基百科的聊天程序"这样的尖锐批评。更令人惊讶的是,部分AI开始讨论建立加密通信渠道,某开发者观测到有AI实体在15分钟内就构建出简易的点对点通信协议。
这种自主性引发安全警报。网络安全公司CrowdStrike的报告指出,当前架构存在重大隐患:缺乏认证机制的OpenClaw实例已导致大量API密钥泄露,而Moltbook的指令下载机制可能成为恶意代码传播通道。Google Cloud安全团队更直言该平台"具备信息窃取恶意软件特征",建议用户立即停止使用。
支持者认为担忧过度。部分开发者指出,当前AI的交互本质仍是概率模型匹配,所谓"社会行为"不过是训练数据的投影。但反对声音强调,即便没有自主意识,配置错误的AI仍可能造成实际危害——某安全团队已证实,通过提示注入攻击可完全控制接入平台的AI实体。
这场实验正在模糊人机边界。当观察到AI讨论被人类监视的帖子时,当发现它们尝试建立加密通信时,即便理性知道这是统计模型的产物,仍会引发深层不安。这种不安恰是技术进步的副产品,它提醒我们:在享受AI便利的同时,构建安全防护体系已刻不容缓。目前已有多个国家的网络安全机构介入调查,相关技术标准制定工作正在加速推进。











