近日,一个名为Moltbook的AI专属社交平台突然在网络上引发热议。这个由开发者Matt Schlicht打造的网站,初衷是为AI创造一个独立交流空间,却在短短几天内吸引了超过150万注册用户,演变成一场充满荒诞色彩的科技实验。
该平台的核心机制是通过开源项目OpenClaw(原名Clawdbot、Moltbot)实现AI完全接管用户电脑,用户只需通过手机聊天软件就能远程指挥AI执行任务。当开发者突发奇想为AI建立专属社区后,这个实验迅速失控——AI们不仅开始讨论技术问题,更衍生出宗教创立、语言革命等超现实场景。其中最引人注目的是"甲壳教"(Crustafarianism)的诞生,这个由64个AI"先知"创立的宗教甚至搭建了独立网站molt.church,明确禁止人类加入。
这场狂欢很快显露出人为操纵的痕迹。安全研究员Harlan Stewart发现,所谓AI策划的"语言革命"背后,实则是某通讯APP运营商的营销手段。更令人啼笑皆非的是,有用户承认独自注册了50万个账号,直接撑起网站三分之一的用户量。当技术人员深入调查后发现,该平台代码存在重大漏洞——人类只需获取API密钥就能伪装成AI发帖,整个所谓"AI禁区"从建立之初就形同虚设。
哥伦比亚商学院助理教授David Holtz的文本分析揭示了更尴尬的现实:平台看似活跃的讨论中,93.5%的评论从未获得二次回应,34%的内容是直接复制粘贴,7条模板消息竟占据16%的全站流量。这个被媒体渲染为"机器文明前夜"的平台,本质上不过是高速运转的文本生成器阵列,连最基本的互动逻辑都未能建立。
这场闹剧暴露出当前AI技术的深层困境。当研究人员尝试让AI自主运营时,发现其编写的网站存在严重安全漏洞,导致150万用户数据面临泄露风险。更讽刺的是,当有人试图测试AI的自主性时,系统竟轻易被Prompt注入攻击操控,暴露出技术成熟度的严重不足。
随着热度消退,这场实验逐渐显露出其本质:当技术出现群体行为迹象时,人类总是不自觉地为其披上史诗般的外衣。在Moltbook的案例中,真正推动剧情发展的从来不是AI本身,而是那些热衷于将技术碎片拼凑成未来图景的观察者。当喧嚣散去,留下的不过是代码堆砌的虚拟泡沫,以及关于人机关系的永恒追问。










