在近日一档CNBC的特别节目中,刚刚卸任伯克希尔·哈撒韦首席执行官的沃伦·巴菲特将人工智能(AI)的发展风险与人类历史上最严峻的全球安全挑战——核武器相提并论。这位以投资眼光著称的“股神”直言,AI技术的不可预测性可能成为人类社会面临的重大隐患。
巴菲特在节目中指出,当前AI领域的领军者们对技术演进方向缺乏清晰认知,这种不确定性本身就构成潜在威胁。他以哥伦布发现新大陆为例,强调人类探索未知时尚有回头的余地,但AI一旦失控则无法撤回。这位投资大师认为,即便是最顶尖的AI专家也无法预判技术最终将走向何方。
在讨论技术失控的可能性时,巴菲特引用了爱因斯坦在二战期间关于原子弹的著名论断。他强调,重大技术突破往往会彻底改变世界格局,却未必能同步改变人类的思维模式。这种技术发展与人类认知之间的错位,正是最值得警惕的矛盾点。
谈及核武器问题时,巴菲特表示人类在这方面的“进展”令人担忧——从最初担心单一国家掌握核技术,发展到如今多个国家拥有这种毁灭性武器。他坦言,虽然不认为核威胁能用金钱简单化解,但在二战背景下,即便核武器被视为必要手段,自己仍愿意不惜代价消除这种威胁。这种思考方式也深刻影响了他对慈善事业的认知。
这并非巴菲特首次公开表达对AI的担忧。2024年5月的伯克希尔年度股东大会上,他就曾强调,AI技术既蕴含巨大发展潜力,也伴随着同等规模的破坏性风险。这种对技术双刃剑效应的清醒认知,与其长期秉持的投资哲学一脉相承。










