生物多样性 ›› 2026, Vol. 34 ›› Issue (1): 25210. DOI: 10.17520/biods.2025210 cstr: 32101.14.biods.2025210
石亚飞1*, 牛富荣2, 黄晓敏3, 洪星1, 龚相文4, 王艳莉2, 林栋1, 柳小妮1
Yafei Shi1*, Furong Niu2, Xiaomin Huang3, Xing Hong1, Xiangwen Gong4, Yanli Wang2, Dong Lin1, Xiaoni Liu1
1 Pratacultural College, Gansu Agricultural University, Lanzhou 730070, China
2 College of Forestry, Gansu Agricultural University, Lanzhou 730070, China
3 Agricultural College, Yangzhou University, Yangzhou, Jiangsu 225009, China
4 College of Geographical Sciences, Southwest University, Chongqing 400715, China
摘要: 近年来, 机器学习在生态学领域的应用日益广泛, 尤其在复杂的非线性数据建模方面展现出强大优势。然而, 机器学 习的“黑箱属性”使其难以提供清晰的结果解释, 限制了其应用范围。为解决机器学习的不透明问题, 可解释机器学习 (interpretable machine learning, IML)应运而生, 它致力于提高模型透明度并增强结果的可解释性。本文系统梳理了可解释机器 学习中白盒与黑盒模型、全局与局部解释、内在解释与事后解释等基本概念, 并基于案例数据分别应用于线性回归、决策树 与随机森林等模型, 展示了包括回归系数、特征重要性排序、部分依赖图、局部累计效应图、夏普利加性解释以及局部模型 无关解释等多种主流可解释机器学习的实现方法与生态学解释能力。研究表明, 尽管白盒模型的解释也属于可解释机器学习 的范畴, 但当前其主要是一系列针对黑盒模型的事后解释方法的集成。其次, 不同方法在解释层级、适用模型及可视化表达 方面各具优势。可解释机器学习可在一定程度上解决复杂模型预测性能与生态学解释需求之间的鸿沟, 但需要基于数据情况 和研究问题进行选择性应用。本文可为生态学研究人员提供可操作的可解释机器学习分析框架, 并强调其应当作为当前主流 统计建模的重要补充, 将在未来生态学研究中具有广阔的应用前景。