美国康奈尔大学的研究团队在光学计算领域取得重要进展,成功将光学计算机的物理尺寸缩减超过90%,同时保持其核心性能指标几乎不变。这一突破为智能设备的小型化与高效化提供了全新路径,未来可能使智能手表搭载光速级AI助手、汽车配备媲美人类视觉系统的技术成为现实。
该研究的核心突破源于对光学神经网络的深度优化。研究人员开发出针对光学系统的模型压缩技术,通过重构光路结构与资源分配策略,将自由空间光路器件的厚度压缩至传统设计的2%至25%,光子芯片平台的器件数量减少约99%。在目标检测任务中,优化后的光学模块可替代60%以上的GPU计算负载,显著降低电子芯片的能耗压力。
光计算与传统电子计算的本质差异体现在信息载体与处理方式上。电子计算依赖电压调控晶体管实现运算,而光计算将信息编码于光的强度、相位等物理特性中,通过光学器件的物理变化直接完成模拟计算。这种特性赋予光计算三大核心优势:其一,光信号在特定材料中的传播损耗远低于电信号,大规模矩阵运算的能效比显著优于电子系统;其二,单束光可同时承载百万级空间模式与千量级频域模式,信息通量呈指数级增长;其三,光速传播特性使光计算在处理视觉信号时无需光电转换,延迟时间较电子系统降低数个数量级。
尽管优势显著,光计算的商业化应用长期受制于设备体积问题。复杂计算任务需要光在器件内部进行横向信息交换,传统设计通过增加器件厚度来避免信号干扰,导致系统规模与物理尺寸呈平方级增长。研究团队从神经网络剪枝技术中获取灵感,针对自由空间光路与光子芯片两大平台提出差异化解决方案:在自由空间系统中,通过训练光学网络形成局部稀疏结构,将非定域连接压缩至邻近区域;在光子芯片中,采用块对角化设计拆分全局耦合运算,在保持性能的同时将规模定律从平方级优化为准线性。
实验数据显示,优化后的光学系统展现出卓越的扩展性。当计算规模扩大100倍时,自由空间器件的厚度仅需增加10倍,光子芯片的器件数量增长曲线明显趋缓。这种改进使得在有限空间内集成超大规模光学计算模块成为可能,为自动驾驶、增强现实等低延迟应用场景提供了硬件基础。
该研究同时引发对光学计算本质的新思考。研究人员提出,光学系统的信息处理能力不应仅用传统计算范式衡量,其独特的物理特性可能催生全新的算法设计逻辑。目前团队已着手构建光学计算云平台原型,旨在降低开发者使用门槛,推动适配光学硬件的专用算法研发。
在技术实现层面,研究团队强调物理规律与计算任务的深度融合。通过建立光学系统的约束优化模型,算法可自主调整光路结构参数,在满足性能指标的前提下实现最小化物理尺寸。这种跨学科方法论的突破,为智能硬件的进化开辟了新的技术路线。











