谷歌DeepMind近日设立了一个颇具争议的新岗位——“哲学家”,该岗位负责人公开表示,未来的AI系统或将具备意识。这一观点迅速引发了关于通用人工智能是否可能拥有意识的广泛讨论。
复旦大学哲学学院副教授王球指出,这一论断的提出,实际上是对公众关于AI能否承担责任这一关切的间接回应。他强调,判断AI是否具有意识,不应仅由专家决定,而需结合公众的直观感受。当公众普遍认为AI表现出类似意识的行为时,AI研究者与哲学学者应积极参与讨论,提供专业见解。
与此同时,北京航空航天大学基础教育通用人工智能实验室首席科学家兼联合主任刘志毅则从技术发展的角度提出了不同看法。他认为,随着大型AI模型从单纯的工具演变为基础设施,其功能与角色必然会发生转变,这种转变可能被外界解读为“意识”的萌芽。
这场争论不仅涉及技术层面,更触及哲学与伦理的深层问题。公众对AI的期待与担忧,与专家对技术边界的探索形成鲜明对比。目前,关于AI是否具备意识的讨论仍在继续,各方观点尚未达成一致。








