宇宙电磁波穿越地球大气层时,会因空气密度和水汽含量变化导致传播速度下降,这种现象被称为对流层延迟。作为甚长基线干涉测量(VLBI)和全球导航卫星系统(GNSS)定位中的主要误差源,其精确建模与预报长期困扰着天文观测和大地测量领域。如何突破这一技术瓶颈,成为科学界亟待解决的难题。
中国科学院新疆天文台研究团队通过创新方法,在解决该问题上取得突破。研究人员依托南山26米射电望远镜台址的长期GNSS观测数据和气象参数,开发出一种融合门控循环单元(GRU)与长短期记忆网络(LSTM)的混合深度学习模型。这种基于人工智能的预测系统能够从海量数据中自主识别大气延迟的动态规律,实现对天顶对流层延迟(ZTD)的高精度短期预测。
团队通过频谱分析发现,ZTD变化呈现显著的年周期和半年度周期特征,夏季数值普遍高于冬季。这种季节性波动与气温和水汽含量存在强相关性——温度升高和水汽增加会显著加剧信号延迟。传统经验模型由于难以捕捉这种复杂的非线性变化,预测精度长期受限。
新模型采用双神经网络架构,GRU模块负责提取短期波动特征,LSTM模块则专注记忆长期变化趋势。这种"短时捕捉+长期记忆"的组合策略,使混合模型既能响应大气延迟的即时变化,又能把握其长期演变规律。实验数据显示,该模型预测误差控制在8毫米以内,相关系数达到96%,性能明显优于传统统计方法和单一神经网络模型。
这项技术突破具有重要应用价值。高精度的对流层延迟预测可显著提升VLBI观测的大气相位修正能力,优化射电源定位精度和基线解算结果。在毫米波天文观测领域,该技术能为可降水量反演提供更准确的气象数据支持,同时改善天气预报的时空分辨率。研究特别指出,相关成果为奇台110米望远镜(QTT)等大型射电天文设施的高频段运行提供了关键技术支撑,有助于提升多站干涉观测的数据质量。
该研究成果已发表于《天文与天体物理研究》期刊。研究团队表示,混合深度学习模型的应用证明了人工智能技术在射电望远镜大气校正领域的巨大潜力,为解决复杂气象条件下的观测误差问题开辟了新路径。