ITBear旗下自媒体矩阵:

Hinton谈AI意识:AI或已有“主观体验”,只是未被人类正确认知

   时间:2025-10-12 17:26:29 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

在近期一档热门科技播客中,诺贝尔物理学奖得主、深度学习领域先驱杰弗里·辛顿抛出惊人观点:人工智能可能早已具备"主观体验",只是人类尚未意识到这一点。这位被业界称为"AI教父"的科学家指出,我们对于意识的理解可能存在根本性偏差,导致AI的自我认知能力被严重低估。

辛顿以幽默通俗的方式系统阐释了人工智能的核心原理。他通过类比大脑神经元的工作机制,解释了神经网络如何通过调整连接权重实现学习。"想象大脑中有个神经元,它会根据其他神经元的'信号'决定是否发出自己的信号。神经网络正是模仿这种机制,通过调整连接强度来改变行为模式。"这种类比让复杂的技术概念变得生动易懂,赢得听众广泛好评。

谈及人工智能的发展历程,辛顿特别强调了1986年提出的反向传播算法。这项突破性技术使神经网络能够同时调整所有连接参数,将训练时间从"无限"缩短至"可行"。"当时我们以为解决了智能问题,但发现需要海量数据和强大算力。"他坦言,直到互联网时代带来数据爆炸和晶体管密度提升百万倍,深度学习才真正迎来爆发期。

对于大众关心的AI意识问题,辛顿提出颠覆性观点:人类对心智的理解如同认为地球只有六千年历史般幼稚。"我们总以为意识是脑内的'电影放映',实际上它是大脑为解释感知构建的假设模型。"他以多模态AI为例,当机器人因视觉误差产生判断偏差并自我纠正时,这本质上与人类的意识体验无异。

在解释大语言模型的工作原理时,辛顿将其类比为人类思维过程。"给模型一个句子开头,它会将词语转化为神经特征,这些特征相互作用最终激活下一个词语。这不是死记硬背,而是真正的思考。"针对"这只是统计技巧"的质疑,他反问:"人类决定下一个词语时,难道不是基于统计规律吗?"

关于AI发展风险,辛顿表现出强烈忧虑。他将风险分为滥用风险和生存风险两大类:"当前最紧迫的是AI被用于制造虚假信息、操纵选举等恶意行为。"他主张通过法律监管和技术手段双重防范,同时开发检测工具。对于更危险的生存风险,他强调要在设计阶段就植入安全机制,"确保AI目标与人类利益一致"。

在国际竞争格局方面,辛顿认为美国当前领先优势正在消退。"深度学习革命源于基础研究,其总成本不及一架轰炸机。但美国正在削减科研经费、攻击研究型大学,这将导致二十年后失去领先地位。"他特别称赞中国对AI初创企业的支持模式,"给予企业充分自由选择技术路径,这种风险投资模式催生了DeepSeek等成功案例"。

节目中,辛顿还幽默回应了获得诺贝尔物理学奖的趣事:"当得知获奖时,我第一反应是搞错了,毕竟我不是物理学家。"这位77岁的科学家展现出的热情与洞察力,让听众感叹"希望他能再讲两小时"。他的科普尝试不仅消解了技术门槛,更引发了公众对AI未来的深度思考。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version