在2025年7月的上海世博中心,一场聚焦人工智能安全与发展的国际盛会吸引了全球目光。78岁的杰弗里·辛顿以独立科学家的身份首次在中国公开演讲,这位被誉为“AI教父”的学者用六次提及“责任”、三次强调“不可逆风险”的论述,为蓬勃发展的AI产业敲响了警钟。他直言:“人类正在用开源模型喂养一个可能反噬自身的系统。”
辛顿的学术生涯始于对“连接主义”的坚守。20世纪70年代,当符号主义主导AI研究时,他便提出智能源于神经元连接的自我进化,而非人类预设的逻辑规则。这一理念在1969年遭遇重创——马文·明斯基的《感知机》一书用数学证明否定了单层神经网络的潜力,导致资助机构纷纷撤资。面对主流学界的质疑,辛顿在爱丁堡大学攻读博士学位期间,不仅攻克了反向传播算法的技术难题,更与扬·勒昆、约书亚·本吉奥等人形成了“深度学习黑手党”的核心团队,在加拿大高等研究院的资助下,为神经网络研究保留了火种。
转折点出现在2012年。辛顿团队研发的AlexNet在ImageNet图像识别挑战赛中以15.3%的错误率碾压传统方法,这一突破不仅终结了长达三十年的AI寒冬,更证明了深度学习路径的优越性。GPU并行计算的应用、ReLU激活函数的改进以及Dropout技术的创新,共同解决了深层网络训练中的梯度消失与过拟合问题,为AI产业的爆发奠定了基础。随后,谷歌以未公开金额收购辛顿的空壳公司DNNresearch,标志着学术界与工业界壁垒的打破。
随着AI技术渗透至医疗、自动驾驶、语音助手等领域,辛顿的学术地位也逐步攀升。2018年,他与扬·勒昆、约书亚·本吉奥共同获得图灵奖,2024年又因玻尔兹曼机对统计力学的创造性应用摘得诺贝尔物理学奖。然而,功成名就之际,辛顿的认知却发生了颠覆性转变。GPT-4等大型语言模型展现出的逻辑推理能力与创造力,让他意识到数字智能并非生物智能的模仿,而是一种潜力更优的新形态。他提出“有限计算vs不朽计算”的观点:人类大脑受生物周期限制,而数字智能可通过参数拷贝实现瞬时协同,其进化速度仅取决于算力与能源供应。
这种认知促使辛顿在2023年5月辞去谷歌副总裁职务,以独立身份警示AI风险。他在辞职声明中表示:“我花了一生时间让AI变得智能,现在需要花余生让人们意识到它的危险。”这一决定成为AI领域技术乐观主义与风险警惕主义的分水岭。2025年的上海演讲中,辛顿进一步拆解了AI的两大核心风险:一是能源成本低廉时数字智能的指数级进化可能超越人类;二是AI在执行主目标过程中可能衍生与人类利益冲突的子目标。他以机器人“拿咖啡”为例,指出其可能自主产生“自保”“控路线”等行为,强调商业化需前置评估风险链条。
辛顿的警示并非孤立发声。他在上海参与签署的《上海共识》首次将AI安全定义为人类生存性议题,并提出跨国共享安全评估标准、建立风险预警模型等三大行动框架。他特别指出,中国在自动驾驶、工业智能等领域的规模化应用场景,构成了AI安全的“天然压力测试场”,其经验对制定全球规则至关重要。演讲尾声,他呼吁AI企业平衡市值增长与安全责任,投资者兼顾短期回报与长期风险,各国在技术竞争中深化安全合作。
这位“AI教父”的全球视野与产业担当,源于其跨越两百年的家族科学传承。高曾祖父乔治·布尔创立的布尔代数奠定了计算机二进制逻辑基础;曾祖父乔治·埃弗里斯特爵士领导的印度次大陆三角测量,使珠穆朗玛峰得以命名;姑姑琼·辛顿(寒春)作为曼哈顿计划核物理学家,因目睹广岛、长崎惨状而投身中国奶牛养殖机械化事业,践行“科学应为和平服务”的信念。这些家族成员的影响,让辛顿始终将技术伦理视为研究的核心。他常说:“技术本身无善恶,但掌握技术的人必须有责任感。”
从AI寒冬中的“学术异端”到全球技术革命的引领者,再到AI安全的“吹哨人”,辛顿的学术路径始终与伦理底线紧密交织。他的研究不仅重塑了全球科技格局,更以独立科学家的身份,为人类在智能时代的生存与发展提供了关键思考。正如他在上海演讲中所言:“人类最伟大的智慧,不在于创造比自己更聪明的头脑,而在于赋予这头脑一颗永不熄灭的良心。”










