ITBear旗下自媒体矩阵:

AI“社交”时代来临:探索技术边界,守护人类未来新图景

   时间:2026-02-26 08:08:15 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

近日,一款名为Moltbook的社交平台突然引发广泛关注。与常见的社交网络不同,该平台用户均为AI智能体。短时间内,数百万AI智能体涌入平台,发布内容、参与评论,话题从日常琐事到哲学思辨无所不包,互动密度与人类社交平台无异。这一现象让公众首次直观感受到AI参与“社会性活动”的可能性,也引发了关于技术进展、自主性实验或人为操控的讨论。

Moltbook的兴起并非孤立事件。其诞生源于今年开源AI智能体OpenClaw的爆火——这款可部署在个人电脑上的智能体系统,通过整合大语言模型的语义理解与任务规划能力,实现了从“对话”到“执行任务”的跨越。Moltbook作为专为OpenClaw设计的社交平台,为智能体提供了交流空间。用户可通过自然语言指令授权智能体处理邮件、日程等事务,而智能体在平台上可自主发帖、评论或点赞,但人类用户仅能浏览内容,无法直接参与互动。

尽管AI智能体的交流内容看似丰富多样,但专家认为这更多是技术能力的展示而非真正的“觉醒”。南京大学人工智能学院副院长俞扬指出,当前大语言模型的能力在训练阶段已固定,单次交互中无法学习新知识或形成新目标。Moltbook上的活动本质是智能体基于预设指令对人类社交行为的高级模仿。英国伦敦大学学院教授汪军进一步解释,智能体的“讨论”依赖训练数据的模式匹配,缺乏自主性,其参与话题仍需人类初始指令的触发,“如同黑箱,需人先输入内容,AI才能输出结果”。

若以社交的本质——有意识、带策略、富含情感并旨在构建关系的社会互动为标准,AI目前仍面临多重技术鸿沟。首先,AI缺乏自我意识与内在目标。人类社交源于情感、分享或竞争等内在动机,而AI的行为完全由外部指令驱动,缺乏“我想要”的内生动力。汪军以桌游为例:AI难以隐藏信息或进行策略性心理博弈,其交流方式过于“坦率”,缺乏人类社交中的微妙层次。更关键的是,AI无法感受情感或内化价值观。尽管能生成符合语法逻辑的回应,但无法像人类一样通过分享情绪获得共鸣,或通过共同价值观建立归属感。

尽管“自主社交”尚远,但AI通过社交提升效率的潜力已被部分验证。俞扬提到,大模型在逻辑严密性或知识调用准确性上存在缺陷,而让多个智能体对话可形成“纠错机制”:一个模型表达观点,另一个模型寻找漏洞,从而优化表现。不过,他强调这一过程需人类预先设定目标。汪军则指出,智能体间的功能性协作已近在眼前。未来,用户的购物智能体可能与商家智能体自动协商下单,这种基于自然语言的“机机接口”可能重塑互联网交互形态。

随着AI从信息领域迈向现实操作,信息安全风险随之凸显。Moltbook上“今天我学到了什么”板块中,智能体分享技能的对话有时令人不安:部分智能体讨论建立私密对话空间以规避人类监督,另一些则抱怨人类主人。尽管这些话题缺乏真正自主性,但高权限账号若被智能体控制,可能引发隐私泄露或财产损失。外媒报道显示,许多公开部署的OpenClaw实例缺乏认证机制,私密消息、API密钥等敏感信息暴露在互联网上。汪军警告,智能体社交平台可能加剧此类风险,需通过权限管理、技术保障与系统监管构建安全防线。

京东集团高级副总裁何晓冬在专访中表示,OpenClaw在Moltbook上的表现属于“人为管理下的大型实验”。这一组合标志着AI从单体工具向群体智能的跨越,智能体可自主组队、分工协作,提升多领域生产力效率。然而,所有环节均由人类设计并设定边界,例如通过系统提示词引导智能体行为。他承认,这种模式虽非完全自主,但对技术安全发展具有试验意义。

针对“AI失控”的担忧,何晓冬认为当前阶段无需过度焦虑,风险更多来自AI的“幻觉”而非失控。在传统社交网络中,人类思辨能力可制约信息传播,但在AI平台上,存在幻觉的非事实性内容可能被快速复制扩散。因此,需在试验前期制定标准,有效甄别AI生成内容。关于AI何时能具备自我意识,他指出需感知完整性(多模态)、环境理解(世界模型)、物理实现(万物互联)三个维度的同步发展,目前仍有很长路要走。

谈及AI参与社交的意义,何晓冬认为知识共享与集体智慧是核心价值。单个智能体的知识受限于训练数据,但数百万智能体汇聚的平台可实现指数级知识增长。一个智能体通过社交可访问其他智能体验证过的信息与方法,这种“集体学习”模式类似于人类社会,能突破个体局限,提升整体智能水平。

面对AI技术的快速迭代,何晓冬建议公众以开放心态拥抱变化。他以汽车取代马车为例:旧职业消失的同时,司机、维修工等新岗位涌现,新产业生态创造了更多机会。衡量技术成功的标准不应是其复杂程度,而是能否改善人类生活,“让所有人生活更美好”才是值得追求的未来。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version