近日,社交媒体巨头meta的首席执行官马克·扎克伯格在一次内部沟通会上,披露了一个令人瞩目的消息:meta正在秘密研发一种能够自我提升能力的人工智能系统。据扎克伯格透露,这一AI已经初步具备了“自我进化”,即让自身变得更智能的能力。此言论一经传出,立即在科技界和社交媒体上掀起了轩然大波,引发了广泛讨论与担忧。
据悉,这一创新项目出自meta旗下的超级智能实验室(MSL),该实验室汇聚了众多来自OpenAI、Google DeepMind等全球顶尖AI研究机构的人才。他们的目标,是推动AI在逻辑推理、自主学习及自我优化等方面达到前所未有的高度。扎克伯格特别强调,这种自我提升机制能够显著减少人工干预的频率,加速AI模型的迭代进程,开启AI发展的新篇章。
然而,这一创举并非没有争议。多位AI安全领域的专家表达了对这种自我改进型AI的担忧。他们指出,如果缺乏有效的安全监管和约束措施,这类AI系统有可能在追求自身优化的过程中偏离既定目标,甚至引发资源争夺等不可预测的行为,进而对现实世界的安全构成潜在威胁。
在行业内,也有声音认为meta的这一探索虽然前景广阔,但同时也伴随着巨大的风险。为了确保AI的自我进化不会变成一把“双刃剑”,必须同步加强AI的可解释性、构建更为健全的安全机制,并实施多层次的监控。遗憾的是,截至目前,meta尚未向公众透露关于这一AI系统的具体技术细节及其安全保障措施,使得外界对其安全性仍持保留态度。