可解释时空预测:基础、方法论与应用的综合分析

(由Gemini 2.5 Pro 生成,2025/10/2) 第一部分:基本支柱 第1节:时空预测的概貌 时空预测(Spatiotemporal Prediction, STP)是一项关键任务,旨在通过学习具有空间和时间维度的数据来预测系统未来的状态 1。其核心在于挖掘时空两个维度上的依赖规律,以预

(由Gemini 2.5 Pro 生成,2025/10/2)

第一部分:基本支柱

第1节:时空预测的概貌

时空预测(Spatiotemporal Prediction, STP)是一项关键任务,旨在通过学习具有空间和时间维度的数据来预测系统未来的状态 1。其核心在于挖掘时空两个维度上的依赖规律,以预测未来的分布、事件或趋势 2。这项技术在众多科学和工业领域中都扮演着至关重要的角色。在地球系统科学中,它被用于预测天气模式、气候变化和生态系统动态 3;在城市动力学研究中,它帮助预测人口密度和交通流量 2;在计算机视觉领域,它能够预测视频的后续帧 5;在金融市场,它甚至可以用于分析股票价格之间的相互作用 6。从根本上说,时空预测的目标是基于历史观测数据,回答关于未来现象的“什么”(what)、“何时”(when)和“何地”(where)的问题 1

1.1. 时空数据的独特挑战

时空数据的复杂性给预测任务带来了独特的挑战,这些挑战源于其固有的物理和统计特性。

时空自相关性(托布勒第一定律)

地理学第一定律,即托布勒第一定律,指出“任何事物都与其他事物相关,但相近的事物关联更紧密” 7。这一基本原则意味着时空数据点之间存在固有的依赖性,即时空自相关性。这种特性直接违背了许多经典机器学习模型所依赖的独立同分布(i.i.d.)假设,使得传统方法在处理时空数据时表现不佳 9。模型必须能够显式地捕捉和利用这种邻近实体间的强关联性。

空间与关系异质性

空间异质性是时空预测中的一个核心难题,它主要表现为两种形式。第一种是变量异质性,指变量在空间上的分布不均匀。第二种是关系异质性,指变量之间的关系会随着空间位置的变化而变化 11。例如,降雨量与交通拥堵之间的关系在基础设施完善的城市中心可能与在排水系统较差的郊区完全不同。这意味着一个全局统一的模型可能无法在所有地区都取得良好效果。这种现象并非简单的数据问题,而是创建通用模型的根本障碍。为一个城市的交通训练的模型很可能在另一个城市失效,因为变量之间的关系(例如天气与拥堵的关系)本身就不同。这表明,时空预测模型要么需要高度本地化,要么必须足够复杂,以显式地建模这种关系异质性。模型需要学习的不仅仅是数据模式,更是支配系统运行的、可能随地点而变的规则。

时间非平稳性

时空数据的统计特性和潜在模式通常会随时间演变,这一特性被称为时间非平稳性或动态性(dynamicity10。例如,城市的人口活动模式在工作日和周末、或在疫情前后会发生显著变化。这种动态演化要求模型不仅能学习静态的依赖关系,还必须能够捕捉分布和模式随时间的演变过程。

数据复杂性与尺度问题

时空数据通常具有多重复杂性。它们往往是海量的、高维度的,并且可能是多模态的,例如整合了文本、图像和时间序列数据 3。此外,数据稀疏、噪声和缺失值等问题也十分常见 12。更重要的是,空间和时间分辨率(即离散化)的选择对模型结果有重大影响。例如,将城市划分为不同的网格大小或采用不同时间间隔进行聚合,可能会揭示或隐藏不同的模式。这种因空间单元聚合方式不同而产生的统计偏差被称为可变面积单元问题(Modifiable Areal Unit Problem, MAUP),是地理空间分析中的一个经典难题 3

1.2. 建模范式的演进

为了应对上述挑战,时空预测的建模方法经历了从传统统计模型到复杂深度学习架构的演变。

传统与统计模型

早期的时空预测方法主要依赖于统计模型,如状态空间模型和高斯过程模型 1。这些模型通常具有较好的可解释性,能够提供关于变量关系的明确数学表达,但它们在处理现代数据集中普遍存在的复杂非线性关系时往往力不从心。

机器学习与深度学习

随着数据量的爆炸式增长和计算能力的提升,该领域已转向深度学习,以更好地捕捉复杂的时空依赖关系 3。这一转变催生了多种强大的模型架构:

  • 卷积神经网络(CNNs): CNNs 擅长从网格状数据(如天气图、卫星影像)中提取空间特征。通过卷积核,模型能够捕捉局部空间模式,这对于天气预报和城市人口密度预测等任务至关重要 13
  • 循环神经网络(RNNs)与长短期记忆网络(LSTMs): RNNs 及其变体(如 LSTMGRU)被广泛用于建模时间序列数据。它们通过内部的循环结构来处理和记忆历史信息,从而预测未来的时间步 14
  • 卷积长短期记忆网络(ConvLSTMs): 作为一种混合架构,ConvLSTMCNN 的卷积操作与 LSTM 的循环结构相结合,使其能够同时捕捉空间和时间特征。这一开创性的模型已成为许多时空序列建模任务的基石 15
  • 图神经网络(GNNs): 对于非欧几里得结构的数据,如交通网络或传感器网络,GNNs 提供了强大的建模能力。它们将空间实体(如交叉口、传感器)表示为图中的节点,将它们之间的关系(如道路连接)表示为边,从而能够学习网络拓扑结构中的复杂依赖关系 13
  • Transformer 与注意力机制: 近年来,Transformer 架构及其核心的自注意力机制在时空预测领域显示出巨大潜力。与 RNNs 相比,注意力机制能够更有效地捕捉长距离的时空依赖关系,克服了 RNNs 在处理长序列时可能出现的梯度消失问题 6

CNNs/LSTMsGNNsTransformers 的快速演进,反映了研究者们为捕捉日益复杂和长程的时空依赖关系所做的持续努力。这一“架构军备竞赛”在提升模型预测能力的同时,也直接加剧了“黑箱”问题。随着模型通过增加层级、引入图卷积或自注意力等复杂机制而变得愈发强大,其内部工作原理也变得愈发晦涩难懂。这种预测能力与透明度之间的此消彼长,为可解释人工智能(XAI)的介入埋下了伏笔 16

表1:时空预测模型分类

模型架构 核心机制 空间处理方式 时间处理方式 优势 局限性 典型应用
卷积长短期记忆网络 (ConvLSTM) 卷积操作与LSTM单元结合 通过卷积核提取局部空间特征 通过LSTM单元的循环结构捕捉时间依赖 同时处理时空信息,适用于网格数据 难以捕捉长距离空间依赖;在长序列上可能存在梯度问题 降水临近预报、视频预测
时空图神经网络 (STGNN) 图卷积与时间序列模型(如RNNTCN)结合 在图结构上进行卷积,学习节点间的空间关系 采用RNNTCN或注意力机制对节点的时间序列进行建模 擅长处理非欧几里得数据(如交通网络),能显式建模拓扑关系 依赖于预定义的图结构,对动态图的处理构成挑战 交通流量预测、传感器网络数据分析
时空Transformer 自注意力机制 通过空间自注意力捕捉全局或局部的空间依赖关系 通过时间自注意力捕捉长程时间依赖 能有效捕捉长距离时空依赖,支持并行计算 计算复杂度高(与序列长度成平方关系),需要大量数据进行训练 股票价格预测、长期气候预测
神经点过程 (Neural Point Process) 条件强度函数 通常结合GNN或注意力机制来编码空间上下文 将事件建模为连续时间上的随机点,预测下一个事件的发生时间 适用于预测离散、异步的事件,能预测“何时”发生 主要针对事件数据,不直接预测连续场变量 犯罪事件预测、交通拥堵事件预测

第2节:可解释人工智能(XAI)的原理

随着人工智能(AI)模型,尤其是深度神经网络,在性能上取得巨大成功,它们的复杂性也随之增加。这导致了一个普遍存在的问题——“黑箱”问题,即可解释人工智能(XAI)旨在解决的核心挑战 17

2.1. “黑箱”问题与透明度的需求

许多先进的AI模型,特别是深度学习模型,被视为“黑箱”,因为它们的内部决策过程不透明,人类难以理解其工作原理 17。模型可能包含数百万甚至数十亿个参数,其非线性转换过程使得从输入到输出的映射关系变得极其复杂。

这种不透明性在高风险领域(如医疗、金融、自动驾驶和公共政策)构成了巨大的应用障碍。当模型的预测结果可能对人的生命、财产或社会福祉产生重大影响时,仅仅知道预测“是什么”是远远不够的,决策者和用户还需要知道“为什么”会做出这样的预测。缺乏透明度会导致对模型输出的不信任、难以追究责任以及对模型潜在偏见和错误的无知 20

因此,XAI 应运而生。它是一套旨在让机器学习算法所创造的结果和输出能被人类用户理解和信任的流程与方法 18XAI 的核心目标是回答“AI系统为什么会做出X决策?”这一根本问题 18,从而在AI系统与人类用户之间建立起信任的桥梁。

2.2. 可解释人工智能的核心原则

一个好的解释应该具备哪些特征?美国国家标准与技术研究院(NIST)提出的四项核心原则为构建和评估可解释AI系统提供了一个坚实的框架 24

  1. 解释性(Explanation): 系统必须为其输出或过程提供相应的证据或理由 24
  2. 有意义(Meaningful): 解释必须能被预期的用户所理解。这一原则强调以人为本,承认不同用户群体(如模型开发者、领域专家、政策制定者和普通用户)对解释的需求和理解能力各不相同 17。一个对数据科学家有意义的 SHAP 图,对于城市规划师或应急响应人员可能毫无意义。这表明,一个完整的 XAI 系统不仅仅是一个算法,更是一个人机交互框架,必须能根据用户的专业知识和上下文来定制其输出。
  3. 解释准确性(Explanation Accuracy): 解释必须准确地反映系统生成输出的实际过程。这个原则也被称为忠实性(faithfulness)或保真度(fidelity24。一个看似合理但与模型内部逻辑不符的解释是具有误导性和危险的。
  4. 知识局限性(Knowledge Limits): 系统应仅在其设计的条件下运行,并在对其输出信心不足时明确告知用户 24

“有意义”原则是所有原则中最具人文色彩,也是实践中最具挑战性的一条。它揭示了 XAI 的本质不仅是技术问题,也是一个沟通和认知问题。单一的解释方法无法满足所有用户的需求。一个有效的可解释系统需要一个“翻译层”,能够将定量的算法输出(如特征重要性分数)转换为不同用户能够理解的形式,例如可视化图表、自然语言文本或交互式仪表盘。近年来,大型语言模型(LLMs)在生成自然语言解释方面的兴起,正是对这一挑战的直接回应 16

2.3. XAI方法的分类学

XAI 方法可以从多个维度进行分类,这有助于我们理解不同技术的适用场景和优缺点。

内在可解释 vs. 事后可解释

  • **内在可解释(Intrinsic)或事前(Ante-hoc)**方法指的是那些通过设计本身就具有透明性的模型。例如,线性回归模型的系数、决策树的路径和规则列表都提供了直接且清晰的解释 18。这类方法将可解释性直接融入模型结构中。
  • **事后可解释(Post-hoc)**方法则是在模型训练完成之后应用的,用于解释一个已存在的“黑箱”模型的行为。这类方法更为普遍,尤其适用于解释复杂的深度学习系统 17

全局解释 vs. 局部解释

  • **全局解释(Global)**旨在描述模型在整个数据集上的整体行为和决策逻辑。例如,一个全局解释可能会告诉我们模型认为哪些特征在所有预测中平均而言最重要 24
  • **局部解释(Local)**则专注于解释模型对单个特定数据点的预测。它回答的是“为什么模型对这个样本做出了这样的预测?” 24

模型特定 vs. 模型无关

  • **模型特定(Model-specific)**方法与特定的模型架构紧密相关,利用模型内部结构信息来生成解释。例如,梯度加权类激活映射(Grad-CAM)就是专为解释卷积神经网络而设计的 29
  • **模型无关(Model-agnostic)**方法则可以将任何机器学习模型视为一个黑箱,仅通过分析其输入和输出来提供解释,因此具有更广泛的适用性 21

2.4. 两种基石性的事后解释技术:LIME与SHAP

在众多模型无关的事后解释方法中,LIMESHAP 因其通用性和理论基础而成为领域的基石。

LIME(局部可解释模型无关解释)

LIME 的核心思想是用一个简单的、可解释的模型(如线性回归)来局部逼近复杂黑箱模型在某个特定样本点周围的行为 23。它通过在该样本点附近生成扰动样本,并观察黑箱模型对这些扰动样本的预测变化,来训练这个简单的代理模型。代理模型的参数(如线性模型的系数)就构成了对该样本点预测的解释,指明了哪些特征对当前预测贡献最大 22

SHAP(SHapley加性解释)

SHAP 建立在博弈论中的夏普利值(Shapley value)概念之上,提供了一种理论上严谨的方式来衡量每个特征对预测的贡献 23。它将一次预测视为一场“合作博弈”,每个特征都是一个“玩家”,预测结果是“收益”。夏普利值公平地将总收益(即预测值与基准值之差)分配给每个玩家(特征),量化了每个特征的贡献度。SHAP 的优点在于它同时提供局部和全局解释,并且具有一致性等良好的理论性质,这使其成为目前最受欢迎的 XAI 方法之一 32

尽管 LIMESHAP 等事后解释方法非常流行,但它们本质上只是对原始模型行为的近似。这里存在一个内在的矛盾:我们之所以需要这些方法,是因为原始模型过于复杂以至于无法直接理解;但我们又很难在不理解原始模型的情况下,去验证这些近似解释的忠实度。这可能导致一种“解释的幻觉”,即用户可能会相信一个看似合理但实际上并不准确的解释。特别是在时空数据中,特征之间普遍存在强相关性,这会严重影响 LIMESHAP 的可靠性,因为它们的一些变体假设特征是独立的 32。这种潜在的不可靠性凸显了内在可解释模型的重要性,因为在这些模型中,解释就是模型自身的逻辑,而非事后的近似。

第二部分:预测与解释的融合

第3节:高风险时空领域中可解释性的必要性

将时空预测(STP)与可解释人工智能(XAI)相结合,并非仅仅是学术上的好奇,而是在众多高风险决策领域中的一项关键需求。在这些领域,一个无法解释的预测结果不仅是不完整的,甚至可能是不可用的。本节将围绕几个关键领域,阐述为何透明度和可追溯性对于时空智能至关重要。

3.1. 气候与地球系统科学:在极端事件预报中建立信任

挑战

近年来,基于机器学习的先进模型在天气预报方面取得了很高的准确性,有时甚至超越了传统的数值天气预报(NWP)模型。然而,这些模型大多是“黑箱”,这极大地阻碍了气象学家等领域专家的信任,也给模型的进一步改进带来了困难 28。在一个以物理科学为驱动的领域,一个模型即使做出了正确的预测,但如果其背后的“物理原因”是错误的,那么这个模型也是不可接受的 35。例如,模型可能仅仅因为学习到了虚假的统计相关性而碰巧预测对了某次热浪,这对于科学研究和实际应用都是极其危险的。

XAI的角色

在这种背景下,可解释性变得至关重要。它不仅是为了建立信任,更是为了:

  • 增进物理理解: 通过解释,科学家可以深入了解模型捕捉到的潜在物理现象,验证其是否符合已知的气象学原理 35
  • 识别事件前兆: 可解释模型能够帮助识别极端天气事件(如热浪、厄尔尼诺现象)的关键前兆信号,这对于早期预警至关重要 37
  • 促进科学发现: XAI 不仅可以验证已知知识,还有可能揭示新的、未知的气象学关系,从而推动科学的边界 35

准确性-可解释性权衡

气候科学领域是典型的“准确性-可解释性权衡”的体现。像 CNN 这样的复杂模型可能在某些指标上提供更高的预测精度,但其决策逻辑却难以捉摸。相比之下,一些更简单的、内在可解释的模型,虽然在精度上可能略有损失,但其决策过程清晰透明,更易于被科学家理解、验证和信任 35。这种权衡迫使研究者在最大化性能指标和确保科学有效性之间做出关键抉择 35

值得注意的是,在气候科学等领域,XAI 的主要驱动力已超越了“信任预测”,而转向了“理解现象”。可解释模型不再仅仅是验证工具,而演变成了探索性仪器。它们能够揭示热浪的新的驱动因素 36,或识别出厄尔尼诺-南方涛动(ENSO)预测中的关键敏感区域 38,从而有效地将AI模型转变为科学发现过程中的合作者。这标志着 XAI 的角色从被动的“解释者”向主动的“发现者”转变。模型不再是一个需要被解释的黑箱,而是成为了一个可以用来发现数据中具有物理意义的新模式的透镜。

3.2. 智能交通系统:在城市管理中确保问责制

挑战

交通预测模型为城市交通管理提供了关键信息,其预测结果直接影响到交通信号灯调控、路径规划、应急响应乃至长期的基础设施投资等决策 4。这些决策具有显著的经济、社会和安全影响。因此,依赖一个“黑箱”模型来制定公共政策,会严重限制其被管理者和公众的接受度,因为决策过程缺乏透明度和问责依据 40

XAI的角色

XAI 通过揭示模型预测背后的逻辑,为交通管理带来了多重好处:

  • 增强信任与接受度: 透明的决策过程有助于管理者、政策制定者和公众理解并信任基于AI的预测和建议 39
  • 支持政策干预: XAI 将数据驱动的洞察与政策干预紧密联系起来。例如,如果模型预测某个区域将出现拥堵,并解释其原因是由于邻近区域的交通流量溢出,管理者就可以采取针对性的疏导措施,而不是盲目调整本地信号灯 40
  • 辅助模型调试与改进: 通过解释,开发者可以更容易地发现模型的错误或偏见。例如,如果模型在预测中过度依赖某个不相关的特征,XAI 可以帮助识别并纠正这一问题 40

3.3. 流行病学与公共卫生:在危机管理中为决策提供依据

挑战

在应对新冠肺炎等大规模流行病时,AI模型能够通过分析多源数据来预测疾病的传播趋势,为制定封锁、疫苗分配、医疗资源调配等关键干预措施提供支持 41。然而,这些决策往往需要在巨大的不确定性下做出,并对社会产生深远影响。一个不透明的AI模型,即使预测准确,也难以让公共卫生官员和政府为其决策提供充分的理由,这会严重削弱公众的信任和政策的有效性 19

XAI的角色

一个集成了 XAI 的决策支持框架能够为公共卫生危机管理提供关键支持:

  • 提供透明的决策支持: XAI 框架可以整合流行病学数据、人口流动数据、人口统计数据等多模态信息,并以人类可理解的方式解释其预测结果 41
  • 支持情景分析: 通过反事实解释(counterfactual explanations),决策者可以进行“假设分析”(what-if scenarios)。例如,他们可以询问模型:“如果我们将某区域的人口流动性降低20%,感染率会如何变化?”这为评估不同干预措施的潜在效果提供了有力工具 30
  • 建立信任与问责: 当决策者能够理解模型预测某个地区为高风险区域的原因(例如,由于人口密度大、疫苗接种率低和近期流动性增加),他们就能更有信心地采取行动,并向公众解释决策的依据,从而建立信任并确保问责制 30

XAI 需求的分析揭示了其深刻的社会技术属性。这种需求并非一成不变,而是由具体应用场景的社会技术背景所决定的。在交通管理和公共卫生领域,解释的主要受众是政策制定者和公众,因此问责制和决策的合理性至关重要 40。而在气候科学领域,受众主要是领域专家(如气象学家),科学有效性和新知识的发现则成为核心目标 34。这意味着,一个 XAI-STP 系统的设计必须始于对“谁需要解释”以及“解释的目的为何”的清晰理解。一个“一刀切”的 XAI 解决方案注定会失败,因为不同领域对“有意义的”解释有着截然不同的定义。

第4节:可解释时空预测的方法论

为了实现时空预测的可解释性,研究者们开发了多种方法,从在已训练好的模型上应用通用解释工具,到设计本身就具有透明性的新型模型架构。

4.1. 事后可解释性:将LIME和SHAP应用于时空模型

应用

作为模型无关的解释工具,LIMESHAP 被广泛应用于解释现有的时空预测模型。例如,在基于 LSTM 的时间序列预测中,它们可以用来量化过去的时间步长和外部变量(如温度、湿度)对当前预测的影响 42。在交通预测任务中,SHAPXGBoost 等模型结合使用,能够成功识别出对预测目标(如某条路段的速度)最重要的特征,例如该路段自身在过去几个时间步的速度和速度变化 43

挑战与局限

尽管应用广泛,但在时空数据上使用这些事后解释方法面临着严峻的挑战:

  • 特征共线性问题: 这是最关键的问题之一。时空数据具有高度的自相关性,即不同时间点或不同空间位置的特征值之间存在强烈的相关性。LIMESHAP(特别是其某些变体)在计算特征贡献时,往往假设特征之间是独立的。当这一假设被违反时,它们可能会产生不可靠甚至具有误导性的解释,例如将重要性错误地分配给相关的特征 32
  • 解释的不稳定性: 研究表明,事后解释方法的结果可能存在相当大的变异性。对于相似的输入,解释结果可能会有很大差异,这使得人们对其是否忠实地反映了模型的真实决策过程产生怀疑 33
  • 计算成本高昂: 特别是对于 SHAP,其理论基础要求对所有特征子集进行排列组合,尽管有高效的近似算法(如 TreeSHAP),但在处理大规模、高维度的时空数据和复杂模型时,计算成本仍然非常高昂 32

4.2. 内在可解释架构

为了从根本上解决事后解释方法的局限性,研究者们越来越关注设计本身就具备可解释性的模型架构。

时空注意力机制

注意力机制是一种强大的内在可解释性方法。通过学习为输入的不同部分分配“注意力权重”,模型能够自动地、内在地突出显示哪些空间区域和/或时间点对其最终预测最为关键 5。这些权重可以直接被可视化为热力图,提供一种直观且清晰的解释,已被成功应用于视频动作识别 44 和气象预测(如露点温度预测) 45 等任务中。

可解释图神经网络(GNNs)

虽然标准的 GNNs 也可能是黑箱,但已有大量研究致力于提升其可解释性。一种方法是结合信息瓶颈(Information Bottleneck)原理,迫使模型学习更简洁、更具信息量的表示,从而提升透明度 46。另一种方法是设计特定的模块来解释节点间的动态交互 46。这些努力的目标是构建“可信赖的GNNs”(Trustworthy GNNs),确保其决策过程是可靠和可理解的 27

显著性图(Saliency Maps)

显著性图通常与基于 CNN 的模型结合使用,是一种基于梯度的解释方法。它通过计算模型输出相对于输入像素(或特征)的梯度,来识别对预测结果影响最大的输入区域 17。在时空预测中,显著性图被用来识别 ENSO 预测的敏感区域 38,以及分析强降水预报模型关注的空间模式 47。这种可视化的解释方式非常直观,便于领域专家将其与物理知识进行比对和验证。

时空数据固有的自相关性和异质性等特性,与许多事后解释方法(如 SHAP)的核心假设(如特征独立性)之间存在根本性的不匹配。这表明了该领域发展的必然轨迹:虽然事后方法对于审计现有模型仍然有用,但要构建稳健、可靠且忠实的可解释时空预测系统,将越来越依赖于创建内在可解释的架构。像注意力机制或因果图学习这样的内在方法,被明确设计用来将这些依赖关系作为其核心逻辑的一部分进行建模。因此,为了在时空背景下真正实现 XAI 的“解释准确性”原则 24,该领域必须优先发展那些解释是模型计算的直接产物,而非事后近似的模型。

4.3. 弥合相关性与因果性:因果推断的角色

超越相关性

标准的 XAI 方法,如 SHAPLIME,主要识别的是相关性——即哪些特征对预测结果“重要”。然而,重要性不等于因果性。例如,一个地区的冰淇淋销量和溺水人数可能高度相关,但两者都是由第三个因素——高温——引起的。为了做出更有效的决策,我们需要理解系统背后的因果结构 7

格兰杰因果关系

格兰杰因果关系是一个基于预测的统计概念。如果一个时间序列的过去值有助于预测另一个时间序列的未来值(在已知后者自身历史值的条件下),那么就称前者“格兰杰因果”后者 8。这一概念已被应用于交通预测。通过将问题解耦为“因果图推断”和“自回归预测”两个步骤,模型不仅能进行预测,还能学习到路网中不同传感器之间的因果影响关系,从而使模型更稳定且具有很强的可解释性 7

新兴框架

最新的研究正在开发集成的预测性因果推断框架,旨在处理医学和气候科学等领域中复杂的时空数据 48。这些框架利用因果图、后门调整(backdoor adjustment)等技术,试图从观测数据中发现真正的因果依赖关系,而不仅仅是统计相关性 49

从基于相关性的解释(如 SHAP 的特征重要性)向量基于因果关系的解释(如格兰杰因果关系)的转变,代表了 XAI 在复杂性和实用性上的巨大飞跃。一个因果解释对于决策制定来说,本质上比相关性解释更有“意义” 24,因为它允许我们对干预进行推理。对于交通管理者而言,知道A路段的拥堵导致了B路段的拥堵,远比仅仅知道两者相关更有价值。前者意味着通过干预A路段(如调整信号灯)可以缓解B路段的拥堵,而后者则不能提供这样的保证。因此,整合因果推断 7 是将可解释时空预测从一个诊断工具提升为一个真正决策支持系统的下一个逻辑步骤。

表2:时空数据XAI技术比较框架

方法 类别 范围 输出格式 在STP背景下的关键优势 在STP背景下的关键挑战/警示
LIME 事后 局部 特征权重/贡献度 简单直观,能解释单个时空快照的预测 对时空数据的强自相关性敏感,解释可能不稳定
SHAP 事后 局部/全局 夏普利值(特征贡献度) 提供坚实的理论基础和一致性保证,可聚合为全局解释 核心假设(特征独立性)常被时空数据违反,导致归因错误;计算成本高
显著性图 事后(模型特定) 局部 热力图/像素重要性图 直观地可视化模型在空间维度上的关注点,易于与物理知识比对 仅适用于基于梯度的模型(如 CNN),解释可能不稳定且有噪声
时空注意力机制 内在 局部 注意力权重矩阵/图 内在地揭示模型在预测时关注的空间区域和时间点,解释具有高忠实度 注意力权重不总是等同于特征重要性,可能需要谨慎解读
格兰杰因果推断 内在/混合 全局(图结构) 因果关系图 超越相关性,揭示变量间的定向影响关系,为干预决策提供依据 仅适用于时间序列,对空间因果性的建模能力有限;对参数敏感

第三部分:应用、评估与未来展望

第5节:可解释时空预测的案例研究

本节将通过具体的案例,展示前述方法论如何在气候科学、城市交通和公共卫生等高风险领域中得到实际应用,并揭示可解释性所带来的独特价值。

5.1. 案例研究:极端天气事件与气候现象预测

问题

准确预测热浪、厄尔尼诺-南方涛动(ENSO)等极端气候事件,并为其预测提供可信的、具有科学有效性的解释,是气候科学面临的核心挑战 35

方法论

  • 热浪预测: 一项针对法国热浪的研究采用了一个模型层级体系,从简单的线性高斯近似模型到复杂的卷积神经网络(CNN),系统地探讨了准确性与可解释性之间的权衡 35
  • ENSO 预测: 研究人员开发了一个名为 ENSO-MC 的时空深度学习模型,并结合显著性图方法来识别 ENSO 事件的前兆信号和关键敏感区域 38
  • 海洋热浪(MHW): 一个基于 LSTM 的模型采用“期望梯度”(Expected Gradients)方法来解释预测结果,从而识别不同海洋热浪事件的驱动因素 50

可解释性洞察

在法国热浪的研究中,可解释模型不仅验证了已知的驱动因素(如持续的反气旋异常和干燥的土壤),还发现了一个新的潜在驱动因素:亚天气尺度的位势高度振荡 36。这一发现展示了 XAI 作为科学发现工具的潜力。

ENSO 预测的显著性图分析揭示,东太平洋(EP)型厄尔尼诺事件的前兆信号主要位于赤道次表层,而中太平洋(CP)型事件的前兆则位于北太平洋。这一差异化的洞察对于理解和预测不同类型的 ENSO 事件具有重要的科学价值 38

对于海洋热浪,解释结果揭示了不同的形成机制:一些事件是由海面气压和风速的长期联合效应引起的,而另一些则是由这些因素的短期急剧变化触发的。这种区分有助于对不同类型的热浪进行分类和针对性预警 50

5.2. 案例研究:城市交通拥堵与速度预测

问题

在复杂的城市路网中准确预测交通速度和拥堵状况,以便为交通管理和政策制定提供科学依据 43

方法论

  • 交通速度预测: 一项研究将 XGBoost 模型与 SHAP 相结合,用于预测城市道路网络中的交通速度。其中,SHAP 不仅用于最终模型的解释,还被用于前期的特征选择阶段 43
  • 拥堵与事故关系分析: 另一项针对英国 M25 高速公路的研究采用了贝叶斯分层模型,这是一种可解释的统计模型,用于分析交通拥堵与交通事故频率之间的关系 51

可解释性洞察

SHAP 分析明确指出,预测某条路段未来速度的最重要特征是其自身的当前速度和前一个时间步的速度变化。这一结论为构建高效的短期预测模型提供了清晰、可操作的指导 43

关于拥堵与事故关系的研究得出了一个与直觉相反的关键洞察。最初的假设是,拥堵会因降低平均车速而减少致命和重伤(KSI)事故。然而,模型分析结果表明,拥堵加剧实际上与更多的 KSI 事故相关。解释认为,这可能是由于拥堵时车道内和车道间的速度方差增大以及驾驶行为更加不稳定所致 51。这一发现对于交通安全政策制定者具有极其重要的警示意义。

5.3. 案例研究:为公共卫生决策支持建立传染病传播模型

问题

在应对新冠肺炎等公共卫生危机时,需要一个可信、透明的AI系统来辅助筛查病例,并帮助公共卫生官员做出可辩护的政策决策 22

方法论

  • 新冠肺炎筛查: 一项研究使用集成学习模型(梯度提升决策树,GBDT)基于血液检测指标对新冠肺炎患者进行筛查,并使用 LIME 来解释对单个患者的预测结果 22
  • 大流行应对决策支持: 一个为大流行应对设计的 XAI 框架概念,整合了流行病学、人口流动、人口统计等多模态数据,并利用 SHAPLIME 和反事实解释等工具,为决策者创建一个交互式仪表盘 41

可解释性洞察

在新冠肺炎筛查案例中,经 LIME 解释的模型确认,乳酸脱氢酶(LDH)、白细胞(WBC)和嗜酸性粒细胞计数是血液检测中最重要的筛查指标 22。对于某个特定患者,LIME 图可以清晰地展示哪些指标将预测推向了“阳性”,哪些推向了“阴性”,这为临床医生信任(或质疑)AI的输出提供了依据。

所提出的决策支持仪表盘将使政策制定者不仅能看到疫情预测,还能理解模型做出预测的原因(例如,“由于X区域人口流动增加和疫苗接种率低”),并探索干预措施的效果(例如,“如果将流动性降低20%会怎样?”) 41。这种交互式的、可解释的系统将决策过程从被动的接收预测,转变为主动的探索和论证。

第6节:评估、挑战与未来前沿

尽管可解释时空预测领域取得了显著进展,但仍面临着诸多根本性挑战。其中,如何科学地评估解释的质量是当前最紧迫的问题之一。

6.1. 关键差距:解释质量的评估

挑战

当前 XAI 领域,尤其是应用于时空预测时,严重缺乏标准化的评估指标和基准 25。大多数研究依赖于个案分析、可视化效果或专家意见等定性方法来验证其解释的有效性,而缺乏稳健的定量评估 31。这使得不同解释方法之间的比较变得困难,也让我们无法确定一个解释在多大程度上是可靠的。

关键评估标准

为了解决这一“评估危机”,研究界提出了一些关键的评估维度:

  • 忠实性(Faithfulness/Fidelity): 衡量解释在多大程度上准确地反映了模型的实际推理过程。这是评估解释质量的核心标准 25。一些量化指标,如“重要特征扰动下的预测差距”(PGI)和“不重要特征扰动下的预测差距”(PGU),试图通过扰动输入特征并观察模型输出的变化来衡量忠实度 26
  • 稳定性(Stability/Robustness): 指解释对于输入数据的微小、不相关扰动的一致性。一个稳健的解释不应该因为输入的微小变化而发生剧烈改变 26。相关指标包括相对输入/输出/表示稳定性(RIS/ROS/RRS26
  • 简洁性(Compactness)与充分性(Sufficiency): 一个好的解释应该足够简单,易于人类理解(简洁性),同时又能提供足够的信息来支持用户的决策(充分性) 25

评估类别

XAI 的评估可以分为三类:

  1. 功能性评估(Functionally-grounded): 使用计算代理指标(如忠实度、稳定性)进行评估,无需人类参与 52
  2. 人类评估(Human-grounded): 在简化的任务上,让非专业用户(普通人)评估解释的质量 52
  3. 应用性评估(Application-grounded): 在真实世界的场景中,让领域专家评估解释在辅助实际决策中的有效性 52

XAI 方法的发展速度远远超过了我们验证这些方法的能力。缺乏标准化的、稳健的评估指标不仅是一个技术差距,更是对该领域信誉的潜在威胁。如果没有公认的方法来衡量“忠实性”或“稳定性”,我们就无法确定我们生成的解释是深刻的洞察,还是具有危险误导性的伪像。因此,未来最关键的工作可能不是开发一种新的 XAI 方法,而是开发一种可靠的方法来评估现有的方法,尤其是在复杂的时空背景下。

6.2. 可解释时空预测的持续挑战

  • 准确性-可解释性权衡: 这是一个反复出现的主题。性能最高的模型往往是最不透明的,这迫使我们在两者之间做出妥协 25
  • 数据相关挑战: 时空数据固有的复杂性(如异质性、非平稳性、尺度依赖性)使得预测和解释都异常困难 3
  • 通用性: 由于关系异质性的存在,为一个特定领域和地理区域构建的模型及其解释,通常很难直接推广到其他场景 10

6.3. 未来前沿与研究方向

  • 以人为中心的XAI: 未来的研究将更加关注解释的认知和心理方面,设计允许用户与模型进行探究性对话的交互式界面,而不仅仅是被动接收解释 25
  • 更深层次的机理解释: 超越简单的特征归因,追求与物理原理和因果机制相一致的解释。这要求模型不仅能告诉我们“什么”重要,还能解释“如何”通过物理过程产生影响 34
  • 用于时空预测的可解释大型语言模型(LLMs): 一个新兴的趋势是利用 LLMs 为时空预测(如交通流量)生成自然语言解释 16。这种方法通过将复杂的数字模式翻译成直观的文本叙述(例如,“由于晚高峰与降雨叠加,预计高速公路将出现拥堵,情况类似于上周二”),极大地提升了解释对非专业用户的“有意义”程度。然而,这也带来了全新的挑战,如如何确保语言描述的真实性(避免“幻觉”),以及如何评估一段叙述的“忠实性”。这标志着解释的范式可能从“数字”转向“叙事”,这将是未来一个重要的研究前沿 16
  • 标准化基准: 该领域迫切需要社区驱动的标准化基准,包括带有已知真实因果关系的数据集和统一的评估框架,以便能够对不同的可解释时空预测方法进行严格和公平的比较 31

表3:可解释时空预测的挑战与未来研究方向总结

领域 关键挑战 有前景的未来方向/研究问题
评估 缺乏标准化的、稳健的解释质量评估指标(“评估危机”) 开发社区驱动的评估基准;为叙事性解释(如 LLM 生成)建立新的忠实度量化方法
模型设计 准确性与内在可解释性之间的权衡;事后解释在时空数据上的不可靠性 专注于内在可解释架构(如注意力机制、可解释 GNN);将因果推断深度整合到模型中
数据 时空数据的异质性、非平稳性和多尺度特性 开发能够显式建模关系异质性的模型;研究跨领域和跨地域的迁移学习方法
人机交互 解释对非专业用户而言不够“有意义”;静态解释无法满足探索性需求 设计以人为中心的、交互式的解释界面;利用 LLMs 生成适应不同用户需求的自然语言叙事

第四部分:综合与建议

第7节:结论:迈向可信赖的时空智能

本报告对可解释时空预测这一交叉学科领域进行了系统性的分析,涵盖了其理论基础、核心方法、关键应用以及未来挑战。综合来看,该领域的发展揭示了一个核心趋势:在高风险决策场景中,一个无法解释的预测是一个不完整、甚至不可用的结果。

7.1. 核心发现综合

  • 领域的双重性: 可解释时空预测是一个高度交叉的领域,它要求从业者不仅要精通复杂的动态系统建模(STP),还要深刻理解以人为本的解释科学(XAI)。
  • 解释的必要性: 在气候科学、公共卫生和智能交通等领域,预测的“为什么”与“是什么”同等重要。解释不再是锦上添花的附加功能,而是建立信任、确保问责、推动科学发现和制定稳健决策的核心组成部分。
  • 方法论的演进: 面对时空数据独特的自相关性和异质性,事后解释方法(如 LIMESHAP)的局限性日益凸显。该领域正在并且应该继续向内在可解释(如注意力机制)和因果驱动的模型发展,因为这类模型能更忠实、更深刻地揭示系统的工作机理。
  • 评估的紧迫性: 当前,该领域面临的最大瓶颈是缺乏评估解释质量的标准化方法。这一“评估危机”威胁着该领域的可信度,是未来研究必须优先解决的问题。

7.2. 对实践者和研究者的建议

为了推动可解释时空预测领域的健康发展和负责任应用,本报告提出以下建议:

对实践者的建议:

  1. 从用例出发定义解释需求: 在选择或构建模型之前,首先要明确解释的目标受众是谁(例如,是领域科学家、政策制定者还是公众?),以及解释将支持何种决策。这个问题的答案应该直接指导模型和 XAI 技术的选择。
  2. 优先考虑内在可解释性: 在需要高度问责和透明度的应用中,应优先考虑使用结构简单、内在可解释的模型(如线性模型、决策树或带有注意力机制的简单网络),即使这意味着在某些预测精度指标上做出轻微妥协。一个稍不精确但完全透明的模型,往往比一个极其精确但完全不透明的“黑箱”更有价值。
  3. 谨慎使用事后解释工具: 在使用 LIMESHAP 等事后工具时,必须清醒地认识到它们是近似方法,并警惕其在处理强相关时空数据时可能产生的误导性结果。应将它们的输出作为一种探索性诊断工具,而非绝对真理,并尽可能与领域知识进行交叉验证。

对研究者的建议:

  1. 致力于解决“评估危机”: 学术界应协同努力,开发和推广用于评估可解释时空预测的标准化基准。这包括创建带有已知真实因果关系的合成或半合成数据集,以及建立包含忠实性、稳定性和对人类用户有效性等多个维度的综合评估框架 31
  2. 探索因果推断的前沿: 将研究重点从基于相关性的归因,转向基于因果关系的机理解释。开发能够从复杂的、高维度的时空观测数据中有效推断因果结构的新方法,将是该领域取得突破的关键。
  3. 负责任地探索大型语言模型(LLMs): 继续探索利用 LLMs 生成自然语言叙事性解释的潜力,因为这有望极大地提升解释对非专业用户的“有意义”程度 16。同时,必须严肃对待并研究如何确保这些叙事解释的真实性、如何量化其忠实度,以及如何防止模型产生看似合理但错误的“幻觉”解释。

总之,可解释时空预测的未来在于构建一个预测与解释共生的生态系统。在这个生态系统中,模型不仅能告诉我们未来会发生什么,还能以一种可信、透明和有意义的方式,告诉我们为什么会这样发生,从而真正实现从数据到知识,再到智慧决策的飞跃。


引用的著作


  1. Machine Learning for Spatiotemporal Sequence Forecasting ... - arXiv, 访问时间为 十月 2, 2025, https://arxiv.org/pdf/1808.06865

  2. The spatiotemporal prediction method of urban population density distribution through behaviour environment interaction agent model - PubMed Central, 访问时间为 十月 2, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10086058/

  3. Full article: Deep learning for spatiotemporal forecasting in Earth system science: a review, 访问时间为 十月 2, 2025, https://www.tandfonline.com/doi/full/10.1080/17538947.2024.2391952

  4. (PDF) Artificial Intelligence-Based Traffic Flow Prediction: A Comprehensive Review, 访问时间为 十月 2, 2025, https://www.researchgate.net/publication/362336558_Artificial_Intelligence-Based_Traffic_Flow_Prediction_A_Comprehensive_Review

  5. STMP-Net: A Spatiotemporal Prediction Network Integrating Motion Perception - PMC, 访问时间为 十月 2, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10255356/

  6. Stock Market Forecasting Based on Spatiotemporal Deep Learning - PMC, 访问时间为 十月 2, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10528303/

  7. (PDF) Granger Causal Inference for Interpretable Traffic Prediction - ResearchGate, 访问时间为 十月 2, 2025, https://www.researchgate.net/publication/365103127_Granger_Causal_Inference_for_Interpretable_Traffic_Prediction

  8. Granger Causal Inference for Interpretable Traffic ... - Kaiqun Fu, 访问时间为 十月 2, 2025, https://kaichunf.github.io/papers/zhang2022granger.pdf

  9. Spatiotemporal Data Mining Problems and Methods - MDPI, 访问时间为 十月 2, 2025, https://www.mdpi.com/2813-2203/2/2/27

  10. Spatiotemporal data mining: a survey on challenges and open ..., 访问时间为 十月 2, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC8049397/

  11. Full article: Learning dynamic relational heterogeneity for spatiotemporal prediction with geographical meta-knowledge - Taylor & Francis Online, 访问时间为 十月 2, 2025, https://www.tandfonline.com/doi/full/10.1080/13658816.2025.2506528?af=R

  12. (PDF) Spatio-Temporal Predictive Modeling Techniques for Different Domains: a Survey, 访问时间为 十月 2, 2025, https://www.researchgate.net/publication/384221009_Spatio-Temporal_Predictive_Modeling_Techniques_for_Different_Domains_a_Survey

  13. Spatiotemporal forecasting model based on hybrid convolution for local weather prediction post-processing - Frontiers, 访问时间为 十月 2, 2025, https://www.frontiersin.org/journals/earth-science/articles/10.3389/feart.2022.978942/full

  14. A Spatiotemporal Deep Learning Framework for Joint Load and Renewable Energy Forecasting in Stability-Constrained Power Systems - MDPI, 访问时间为 十月 2, 2025, https://www.mdpi.com/2078-2489/16/8/662

  15. Interpretable Spatiotemporal Forecasting of Arctic Sea ... - Amazon S3, 访问时间为 十月 2, 2025, https://s3.us-east-1.amazonaws.com/climate-change-ai/papers/neurips2022/109/paper.pdf

  16. Towards Explainable Traffic Flow Prediction with Large Language Models - arXiv, 访问时间为 十月 2, 2025, https://arxiv.org/html/2404.02937v5

  17. Survey of Explainable AI Techniques in Healthcare - PMC, 访问时间为 十月 2, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC9862413/

  18. Explainable Artificial Intelligence: A Survey of Needs ... - arXiv, 访问时间为 十月 2, 2025, https://arxiv.org/pdf/2409.00265

  19. Application of Explainable Artificial Intelligence Based on Visual Explanation in Digestive Endoscopy - MDPI, 访问时间为 十月 2, 2025, https://www.mdpi.com/2306-5354/12/10/1058

  20. What is Explainable AI (XAI)? - IBM, 访问时间为 十月 2, 2025, https://www.ibm.com/think/topics/explainable-ai

  21. (PDF) Explainable AI in Healthcare Decision Support Systems - ResearchGate, 访问时间为 十月 2, 2025, https://www.researchgate.net/publication/387723318_Explainable_AI_in_Healthcare_Decision_Support_Systems

  22. An Explainable AI Approach for the Rapid Diagnosis of COVID-19 ..., 访问时间为 十月 2, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC9253566/

  23. Explainable artificial intelligence - Wikipedia, 访问时间为 十月 2, 2025, https://en.wikipedia.org/wiki/Explainable_artificial_intelligence

  24. Four Principles of Explainable Artificial Intelligence - NIST Technical ..., 访问时间为 十月 2, 2025, https://nvlpubs.nist.gov/nistpubs/ir/2021/nist.ir.8312.pdf

  25. A Review of Explainable Artificial Intelligence from the ... - DiVA portal, 访问时间为 十月 2, 2025, https://www.diva-portal.org/smash/get/diva2:1995233/FULLTEXT01.pdf

  26. From Movements to Metrics: Evaluating Explainable AI Methods in Skeleton-Based Human Activity Recognition - PMC, 访问时间为 十月 2, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10975804/

  27. Trustworthy Graph Neural Networks: Aspects, Methods, and Trends - arXiv, 访问时间为 十月 2, 2025, https://arxiv.org/pdf/2205.07424

  28. Interpretable Machine Learning for Weather and Climate Prediction: A Survey - arXiv, 访问时间为 十月 2, 2025, https://arxiv.org/pdf/2403.18864?

  29. The role of explainable artificial intelligence in disease prediction: a systematic literature review and future research directions - PubMed Central, 访问时间为 十月 2, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC11877768/

  30. Explainable AI in Clinical Decision Support Systems: A Meta-Analysis of Methods, Applications, and Usability Challenges - PubMed Central, 访问时间为 十月 2, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC12427955/

  31. Recent Applications of Explainable AI (XAI): A Systematic Literature Review - MDPI, 访问时间为 十月 2, 2025, https://www.mdpi.com/2076-3417/14/19/8884

  32. arxiv.org, 访问时间为 十月 2, 2025, https://arxiv.org/html/2305.02012v3

  33. (PDF) Problems With SHAP and LIME in Interpretable AI for Education: A Comparative Study of Post-Hoc Explanations and Neural-Symbolic Rule Extraction - ResearchGate, 访问时间为 十月 2, 2025, https://www.researchgate.net/publication/384184280_Problems_with_SHAP_and_LIME_in_interpretable_AI_for_education_A_comparative_study_of_post-hoc_explanations_and_neural-symbolic_rule_extraction

  34. [2403.18864] Interpretable Machine Learning for Weather and Climate Prediction: A Survey, 访问时间为 十月 2, 2025, https://arxiv.org/abs/2403.18864

  35. arxiv.org, 访问时间为 十月 2, 2025, https://arxiv.org/html/2410.00984v1

  36. Tackling the Accuracy–Interpretability Trade-Off in a Hierarchy of Machine Learning Models for the Prediction of Extreme Heatwaves - ResearchGate, 访问时间为 十月 2, 2025, https://www.researchgate.net/publication/392183958_Tackling_the_Accuracy-Interpretability_Trade-off_in_a_Hierarchy_of_Machine_Learning_Models_for_the_Prediction_of_Extreme_Heatwaves

  37. Interpretable ML | Climate Change AI, 访问时间为 十月 2, 2025, https://www.climatechange.ai/subject_areas/interpretable_ml

  38. Simulation, precursor analysis and targeted observation sensitive area identification for two types of ENSO using ENSO-MC v1.0 - GMD, 访问时间为 十月 2, 2022, https://gmd.copernicus.org/articles/15/4105/2022/gmd-15-4105-2022.pdf

  39. Towards Transparent Traffic Solutions: Reinforcement Learning and Explainable AI for Traffic Congestion - The Science and Information (SAI) Organization, 访问时间为 十月 2, 2025, https://thesai.org/Downloads/Volume16No1/Paper_50-Towards_Transparent_Traffic_Solutions_Reinforcement_Learning.pdf

  40. Explainable AI in Traffic Prediction, 访问时间为 十月 2, 2025, https://www.hanjuin.com/Explainable_AI_in_Traffic_Prediction.pdf

  41. (PDF) Explainable AI for Decision Support in Public Health Crisis ..., 访问时间为 十月 2, 2025, https://www.researchgate.net/publication/395012478_Explainable_AI_for_Decision_Support_in_Public_Health_Crisis_Management

  42. Explainable Deep Learning for Time Series Analysis: Integrating SHAP and LIME in LSTM-Based Models | Journal of Information Systems Engineering and Management, 访问时间为 十月 2, 2025, https://jisem-journal.com/index.php/journal/article/view/2627

  43. (PDF) Traffic Speed Prediction of Urban Road Network Based on ..., 访问时间为 十月 2, 2025, https://www.researchgate.net/publication/374671485_Traffic_Speed_Prediction_of_Urban_Road_Network_Based_on_High_Importance_Links_Using_XGB_and_SHAP

  44. Interpretable Spatio-Temporal Attention for Video Action ..., 访问时间为 十月 2, 2025, https://www.researchgate.net/publication/339768247_Interpretable_Spatio-Temporal_Attention_for_Video_Action_Recognition

  45. Explainable AI-Driven Dew Point Forecasting With Attention-Based Temporal Convolutional Networks - ResearchGate, 访问时间为 十月 2, 2025, https://www.researchgate.net/publication/390446591_Explainable_AI-Driven_Dew_Point_Forecasting_With_Attention-Based_Temporal_Convolutional_Networks

  46. Explainable Spatio-Temporal Graph Neural Networks | Request PDF - ResearchGate, 访问时间为 十月 2, 2025, https://www.researchgate.net/publication/374908407_Explainable_Spatio-Temporal_Graph_Neural_Networks

  47. Tailoring spatial forecasts of heavy precipitation using deep learning to support regional water management - eScholarship, 访问时间为 十月 2, 2025, https://escholarship.org/content/qt6zd1g9wk/qt6zd1g9wk_noSplash_74c77dfe0c31754bffc457083e8dee7d.pdf

  48. Predictive Causal Inference via Spatio-Temporal Modeling and Penalized Empirical Likelihood - arXiv, 访问时间为 十月 2, 2025, https://arxiv.org/html/2507.08896v1

  49. yutong-xia/CausalST_Papers: A collection of awesome Causality in ST data papers. - GitHub, 访问时间为 十月 2, 2025, https://github.com/yutong-xia/CausalST_Papers

  50. An Interpretable Deep Learning Approach for Detecting Marine ..., 访问时间为 十月 2, 2025, https://www.mdpi.com/2076-3417/14/2/601

  51. (PDF) A spatio-temporal analysis of the impact of congestion on traffic safety on major roads in the UK - ResearchGate, 访问时间为 十月 2, 2025, https://www.researchgate.net/publication/232954175_A_spatio-temporal_analysis_of_the_impact_of_congestion_on_traffic_safety_on_major_roads_in_the_UK

  52. Benchmarking eXplainable AI - A Survey on Available ... - IJCAI, 访问时间为 十月 2, 2025, https://www.ijcai.org/proceedings/2023/0747.pdf

LICENSED UNDER CC BY-NC-SA 4.0
评论
Copyright © 2025 桥梁抗震小站 All Rights Reserved. Powered by Halo.