诺贝尔奖得主、“人工智能教父”杰弗里·辛顿近日在接受《财富》杂志专访时指出,科技行业对人工智能的长期影响缺乏系统性思考,企业与研究机构普遍将短期商业回报置于首位。他直言:“公司所有者推动技术发展的核心动力是利润最大化,研究人员也习惯于解决具体问题而非思考终极命题。”
这位深度学习领域的先驱者以计算机视觉研究为例,说明当前AI发展路径的局限性。“我们教会机器识别图像、生成视频,但这些技术突破从未以‘如何造福人类’为出发点。”辛顿强调,这种“问题导向”的研发模式导致行业忽视潜在风险,尤其在超级智能实现后可能引发灾难性后果。据其估算,AI导致人类灭绝的概率已达10%至20%。
2023年,辛顿在将深度学习公司DNNresearch出售给谷歌十年后选择离职,目的是获得更自由的发声空间。他特别指出技术滥用的双重威胁:一方面,犯罪分子已利用AI制造虚假影像、发起网络攻击,未来甚至可能开发智能病毒;另一方面,当AI具备自主意识后,可能产生超越人类控制的生存本能。“这两种风险性质完全不同,需要截然不同的应对策略。”
在应对超级智能威胁方面,辛顿提出颠覆性构想:通过算法设计赋予AI“保护欲”而非“控制欲”,使其像母亲呵护婴儿般对待人类。他以母婴关系为例解释:“婴儿虽弱小却能深刻影响母亲行为,这或许是唯一能借鉴的智能体互动模式。我们需要让AI产生类似本能,将人类福祉置于自身利益之上。”










