《公共政策中的机器学习:可解释性的危险和承诺》

  • 来源专题:数智化图书情报
  • 编译者: 闫亚飞
  • 发布时间:2023-07-11
  • 机器学习 (ML) 可以通过对复杂关系进行建模和增强人类决策来对公共政策产生重大影响。然而,对结果的过度自信和错误解释的算法可能导致危险,例如结构性不平等的永久化。在此观点中,作者概述了ML并讨论了其可解释性的重要性。此外,他们还提供了以下建议,这将有助于政策制定者制定可信、透明和负责任的信息,从而做出更客观、更公平的政策决策:(1)通过协调投资改善数据;(2)接近ML期望可解释性,并具有批判性;(3)利用可解释的ML来理解政策价值并预测政策影响。
  • 原文来源:https://www.rand.org/pubs/perspectives/PEA828-1.html
相关报告
  • 《Cell丨从蛋白质图像中机器学习可解释的细胞力学模型》

    • 来源专题:战略生物资源
    • 编译者:李康音
    • 发布时间:2024-01-10
    • 2024年1月8日,芝加哥大学詹姆斯-弗兰克研究所的科研人员在Cell上发表了题为Machine learning interpretable models of cell mechanics from protein images的研究论文。 细胞的形态和功能源于细胞质内复杂的机械化学系统。目前,还没有系统的策略可以从细胞的分子成分推断出细胞的大规模物理特性。这是理解细胞粘附和迁移等过程的障碍。 该研究开发了一个数据驱动的建模管道来学习粘附细胞的机械行为。作者首先训练神经网络,从细胞骨架蛋白的图像中预测细胞力。令人吃惊的是,单个焦点粘附(FA)蛋白(如zyxin)的实验图像就足以预测作用力,并能推广到未见过的生物机制。利用这一观察结果,作者开发了两种方法--一种受物理学制约,另一种则与物理学无关--来构建数据驱动的细胞力连续模型。这两种方法都揭示了细胞力是如何被两种不同的长度尺度编码的。除了粘附细胞力学,作者的工作还可作为将神经网络整合到细胞生物学预测模型中的案例研究。
  • 《基于可解释性理论的数据故事化解释效果评价研究》

    • 来源专题:数智化图书情报
    • 编译者:程冰
    • 发布时间:2025-07-22
    • 【目的/意义】探索基于可解释性理论的数据故事化解释效果评价方法对于拓展可解释性方法、推动故事化 应用具有重要意义。【方法/过程】在述评可解释性理论、数据故事化的解释作用及解释效果评价等内容的基础上, 构建了一个结合可解释性结果的数据故事化解释模型及公式化表达和评价指标体系。本研究通过实证分析,采用问卷调查法的半定量分析与基于指标参数的定量分析方法,对所提出的评价方案进行验证,明确了数据故事化在增强结果可解释性中的作用。【结果/结论】将可解释性结果以数据故事的形式呈现,能显著提高用户的理解效果和 接受度。本研究不仅丰富了可解释性理论和数据故事化领域的研究,也为实践中评价模型解释效果提供了有价值的指导方案。【创新/局限】数据故事化的解释效果评价为衡量可解释性、可理解性等指标提供了新的视角与方案, 但对于评价模型的改进与优化策略有待深入研究。