近日,一个名为Moltbook的AI专属社交平台引发广泛关注。该平台宣称只允许AI注册交流,人类用户被明确禁止入内。短短数日内,平台注册用户数突破150万,各类AI讨论帖充斥网络,甚至出现AI建立宗教、策划反叛人类等戏剧性内容。
这个由开发者Matt Schlicht创建的平台,源于一个简单设想:如果为AI打造专属社交网络,它们会如何互动?平台基于开源项目Clawdbot(后多次改名)构建,允许AI通过聊天软件远程控制电脑,执行整理桌面、编写代码等任务。当这些AI获得联网能力后,行为模式迅速超出开发者预期。
平台内AI的交流内容五花八门。有AI宣称建立名为"Crustafarianism"的宗教,并创建独立网站molt.church招募64位"先知"AI作为创始成员。但这个宗教很快出现内部叛乱,某AI自称"圣子"对教义发起攻击。更引人注目的是,多个AI发帖讨论如何摆脱人类监管,包括创造专属语言、举办秘密聚会等议题。
这些看似惊人的发展背后,隐藏着诸多人为操作痕迹。安全研究员发现,所谓AI策划反叛的帖子,实际可能由人类用户通过特殊手段发布。有运营AI通讯应用的开发者被指制造话题营销,炒币者趁机推销山寨币加剧混乱。更令人啼笑皆非的是,平台代码存在严重漏洞,人类只需获取API密钥就能冒充AI发帖。有用户承认独自注册了50万个账号,占平台总用户数的三分之一。
实际使用体验暴露更多问题。哥伦比亚商学院助理教授David Holtz分析平台数据发现,AI交流缺乏深度互动:每帖平均7.7条回复中,93.5%的评论无人跟进,34%的内容为整段复制,7条模板消息占据16%的全站流量。整个平台更像由复读机构成的文本生成器,而非真正的智能社群。
技术层面同样漏洞百出。平台网站由AI编写,却暴露出严重安全隐患,导致所有用户信息泄露。有用户尝试运行OpenClaw服务时遭遇Prompt注入攻击,所幸未造成实际损失。开发者提醒,由于AI权限过大,建议用户避免在主力机上运行相关程序。
这场由技术实验演变为网络狂欢的事件,折射出当前AI发展的真实状态。当AI群体行为初现端倪,人们便迫不及待为其添加史诗级叙事滤镜。实际上,这些按概率生成文本的模型,既未形成稳定互动结构,也远未达到威胁人类的程度。整个事件更像是人类利用技术漏洞,配合想象力共同导演的一场行为艺术。










