传统成像技术长期面临一个核心矛盾:单透镜系统在单次曝光中只能形成单一焦平面,导致相机不得不在大光圈、景深和分辨率之间反复权衡。这种物理限制使得复杂场景拍摄时,要么牺牲清晰度,要么依赖后期处理。近日,卡内基梅隆大学研究团队提出突破性方案——通过光学与算法协同创新,构建出全球首个具备像素级独立对焦能力的成像系统,相关成果获国际计算机视觉大会(ICCV2025)最佳论文荣誉提名。
该系统的核心突破在于将传统焦平面升级为可编程的焦曲面。研究团队开发的Split-Lohmann计算透镜通过组合立方相位板与空间光调制器(SLM),实现了对不同像素区域焦距的独立控制。这种特殊结构如同为每个像素配备专属光学元件:当光线穿过立方相位板时,其折射路径被初步调制;随后空间光调制器通过编程对特定区域的光线进行二次聚焦,最终形成三维空间中动态适配的焦距分布。实验数据显示,该系统在保持大光圈(f/2.0)条件下,可同时捕捉深度跨度达10米的场景,且各区域分辨率损失小于5%。
算法层面,研究团队提出双模态自动对焦框架。对比度探测法(CDAF)通过迭代优化策略,将传统穷举式扫描的对焦次数从数百次缩减至十余次,对焦速度提升30倍;相位探测法(PDAF)则利用双像素传感器实现视差计算,可在0.1毫秒内完成深度定位。两种算法协同工作,使系统既能处理静态场景的精细对焦,也支持动态场景的实时追踪。测试视频显示,原型机在21帧/秒的拍摄速率下,可稳定跟踪快速移动物体的同时保持背景清晰。
这项技术正在多个领域展现应用潜力。自动驾驶场景中,系统可同时识别近处行人与远处车辆,避免传统相机因对焦切换导致的环境感知延迟;显微成像领域,厚样本的立体结构无需逐层扫描即可完整呈现,为活体细胞观测提供新工具;安防监控方面,全场景持续清晰成像能力可消除监控死角;医疗机器人手术中,实时动态对焦能确保器械操作与组织影像的精准匹配。研究团队已为关键技术布局全球专利,并正在开发消费级原型设备。
该成果的底层逻辑源于光路可逆原理。研究团队将此前在VR显示领域开发的Split-Lohmann多焦面技术逆向应用于成像系统,通过"光学输入-算法输出"的闭环设计,实现了从信息呈现到信息捕捉的范式转变。这种跨学科创新为计算成像开辟了新路径,其像素级焦距控制能力或将重新定义光学系统的设计边界。











