《基于可解释性理论的数据故事化解释效果评价研究》

  • 来源专题:数智化图书情报
  • 编译者: 程冰
  • 发布时间:2025-07-22
  • 【目的/意义】探索基于可解释性理论的数据故事化解释效果评价方法对于拓展可解释性方法、推动故事化 应用具有重要意义。【方法/过程】在述评可解释性理论、数据故事化的解释作用及解释效果评价等内容的基础上, 构建了一个结合可解释性结果的数据故事化解释模型及公式化表达和评价指标体系。本研究通过实证分析,采用问卷调查法的半定量分析与基于指标参数的定量分析方法,对所提出的评价方案进行验证,明确了数据故事化在增强结果可解释性中的作用。【结果/结论】将可解释性结果以数据故事的形式呈现,能显著提高用户的理解效果和 接受度。本研究不仅丰富了可解释性理论和数据故事化领域的研究,也为实践中评价模型解释效果提供了有价值的指导方案。【创新/局限】数据故事化的解释效果评价为衡量可解释性、可理解性等指标提供了新的视角与方案, 但对于评价模型的改进与优化策略有待深入研究。
  • 原文来源:https://journal12.magtechjournal.com/jwk3_qbkx/CN/Y2025/V43/I3/176
相关报告
  • 《GSBERT:一种基于可视化解释的数据标注自动检测方法实证》

    • 来源专题:数智化图书情报
    • 编译者:程冰
    • 发布时间:2025-07-22
    • [目的/意义] 大规模预训练模型的发展开启了人工智能领域的新阶段,越来越多的研究者将BERT、GPT等模型引入到各应用领域,但其复杂性和可解释性的问题给模型通用化带来一定程度的风险,与此同时,分类任务中训练数据的人工标注成本高,其质量直接影响模型的可用性,自动优化数据标注质量往往可以节约资源,提高模型的训练效率和模型的可用性。[方法/过程] 提出GSBERT(Gradient Saliency BERT Model)模型,该模型基于梯度显著度的方法探寻BERT模型决断依据,并通过可视化方式呈现BERT模型决断过程,使模型决策具有可解释性;在通过梯度显著度计算样本特征词的基础上,提取样本特征分布作为GSBERT检测标注的依据。为了检验GSBERT在分析数据一致性上的效果,利用GSBERT模型对新闻分类数据集的“误分类”样本进行重新标注,由于标注质量的提高,使模型在验证集上准确率提升12.55%。[结果/结论] 从大模型可解释性的角度出发,探究一种全新有效的挖掘数据价值的方法,为各领域更广泛地应用深度学习技术提供借鉴思路。
  • 《公共政策中的机器学习:可解释性的危险和承诺》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-07-11
    • 机器学习 (ML) 可以通过对复杂关系进行建模和增强人类决策来对公共政策产生重大影响。然而,对结果的过度自信和错误解释的算法可能导致危险,例如结构性不平等的永久化。在此观点中,作者概述了ML并讨论了其可解释性的重要性。此外,他们还提供了以下建议,这将有助于政策制定者制定可信、透明和负责任的信息,从而做出更客观、更公平的政策决策:(1)通过协调投资改善数据;(2)接近ML期望可解释性,并具有批判性;(3)利用可解释的ML来理解政策价值并预测政策影响。