科技领域传来新进展,苹果公司与普渡大学共同研发出一种创新型AI技术,旨在攻克极低光照环境下的拍摄难题。这项名为DarkDiff的技术,为手机摄影在暗光场景下的表现带来了全新可能。
在光线极其微弱的情况下,手机拍摄的照片常常布满噪点。传统算法为掩盖噪点,往往会对图像进行过度平滑处理,结果导致照片细节丢失,画面呈现出类似油画的涂抹质感,严重影响成像质量。
为解决这一长期困扰摄影界的问题,苹果与普渡大学的研究团队另辟蹊径,推出DarkDiff新型AI模型。该模型突破传统后期修图的思路,创造性地将预训练的生成式扩散模型应用于相机的图像信号处理(ISP)流程,从图像生成的源头提升画质。
DarkDiff的核心创新点在于介入时机。与在成像后进行AI修补不同,它在相机ISP处理原始传感器数据(Raw Data)的早期阶段就已介入。ISP负责白平衡、去马赛克等基础处理,生成线性RGB图像后,DarkDiff随即接手,进行降噪和细节生成。这种深度集成的方式,让AI能够精准理解照片黑暗区域应有的纹理细节,而非简单地对像素进行模糊处理。
生成式AI在应用中常出现“幻觉”问题,即无中生有地篡改画面内容,生成不存在的物体。为避免这种情况,DarkDiff引入了“局部图像块注意力机制”。该机制强制模型关注图像的局部结构,确保AI在增强细节的同时,严格忠实于原始场景。研究人员还采用“无分类器引导”技术,通过调节引导强度,在图像的平滑度与锐利度之间找到最佳平衡,有效避免生成伪影。
为验证DarkDiff的实际效果,研究人员使用索尼A7SII相机在极暗环境下拍摄测试样本,曝光时间短至0.033秒。将DarkDiff处理后的图像与使用三脚架长曝光(时长为测试图300倍)拍摄的参考图进行对比,结果显示,DarkDiff在色彩还原和细节清晰度方面均优于现有的Raw增强模型。
尽管DarkDiff展现出惊人的效果,但距离实际应用仍面临诸多挑战。研究人员坦言,该技术的处理速度远慢于传统算法,且对算力需求巨大。若在手机本地运行,将迅速耗尽电池电量,未来可能需要依托云端处理。模型在识别低光场景下的非英文文本时仍存在一定局限。目前,这项研究更多展示了苹果在计算摄影领域的探索方向,短期内未必会直接应用于新款iPhone。











