ITBear旗下自媒体矩阵:

AI智能体普及前,协议安全、开放与效率成关键挑战

   时间:2025-08-07 18:12:15 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道
 

随着科技的飞速发展,人工智能(AI)智能体正逐渐渗透到我们的日常生活中,它们能够协助处理诸如邮件发送、文档创建和数据库编辑等繁琐事务。然而,这些智能体在市场上的初步反馈并不理想,原因在于它们难以与数字生活中的各种复杂组件有效互动。

问题的根源在于,我们仍处于为这些AI智能体构建必要基础设施的初级阶段。为了让智能体能够顺利完成任务,我们不仅需要赋予它们必要的工具,还需确保它们能够负责任地使用这些工具。因此,如何构建智能体与外部环境之间的有效桥梁,成为亟待解决的问题。

为了应对这一挑战,Anthropic和谷歌等公司正积极推出新的协议。这些协议旨在定义AI智能体之间以及它们与外部世界交互的方式,从而使智能体能够更轻松地控制电子邮件客户端、笔记应用等其他程序。其中,应用程序编程接口(API)作为线上世界中计算机与程序之间信息交换的基石,扮演着至关重要的角色。

然而,API的标准化信息回应方式并不完全适用于AI模型。AI模型的内在随机性使其对话显得自然且富有表现力,但同时也给调用API并理解其响应带来了困难。为了解决这个问题,Anthropic推出了模型上下文协议(MCP)。MCP旨在标准化AI智能体通过各种程序与世界互动的方式,并已相当普及,目前已有超过15,000个服务器上线。

与此同时,谷歌也推出了Agent2Agent(A2A)协议,试图协调不同智能体之间的信息交换。如果说MCP的作用是翻译语言和代码之间的请求,那么A2A则更注重于智能体之间的协作。已有150家公司,包括Adobe和Salesforce,与谷歌合作开发和采用A2A。从宏观层面来看,MCP和A2A都在引导AI智能体以安全、负责任的方式与世界互动。

然而,尽管这些协议取得了显著进展,但仍面临诸多挑战。其中,安全性问题尤为突出。由于AI模型的工作原理尚未完全理解,新的漏洞不断被发现。对于聊天机器人等AI应用,恶意攻击可能导致模型泄露训练数据或发表不当言论。但对于能够代表用户与世界互动的AI智能体而言,风险则更为严峻。

例如,一个用于读写邮件的AI智能体已被证实易受攻击。攻击者可以通过一封精心设计的邮件,劫持AI模型并使其发生故障。如果该智能体拥有用户文件的访问权限,它甚至可能被指令将私人文件发送给攻击者。因此,如何确保智能体的安全性,成为亟待解决的问题。

一些研究者认为,像MCP这样的协议应该能够阻止智能体执行有害行为,但目前它还做不到。安全研究员Bruce Schneier对此持怀疑态度,他认为赋予AI更多权力只会增加其造成现实世界物理伤害的能力。然而,也有人更为乐观。他们认为,通过将安全设计添加到MCP和A2A等协议中,可以更有效地发现和解决安全问题。

协议的开放性和效率也是值得关注的问题。尽管MCP和A2A是当今最流行的两种智能体协议,但还有许多其他协议正在开发中。如何确保这些协议的开放性和透明度,以促进更多人参与共建,从而推动协议更快、更透明地发展,成为亟待解决的问题。同时,自然语言接口虽然使智能体能够更自然地与人类交互,但也缺乏API的精确性,可能导致不正确的响应和效率低下。

因此,如何在确保安全性的前提下,提高协议的开放性和效率,成为未来AI智能体协议发展的重要方向。随着技术的不断进步和应用场景的不断拓展,我们有理由相信,AI智能体将在未来发挥更加重要的作用。然而,在此之前,我们仍需不断探索和完善相关协议和技术标准,以确保AI智能体的安全、可靠和高效运行。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version