《疫情防控中的大数据应用伦理问题研究》

  • 来源专题:图书情报
  • 编译者: luoluo
  • 发布时间:2021-04-15
  • 2020年12月21日,情报理论与实践出版了一篇名为“疫情防控中的大数据应用伦理问题研究”的文章。文章具体摘要如下:

    [目的/意义]采用大数据技术提升疫情防控能力,已成为世界各国的共识,但这也会引发许多新的伦理挑战。[方法/过程]文章对大数据应用于疫情防控的伦理风险点进行了梳理,并从个体利益与公共利益、风险与收益、效率与公平平衡的角度,分析疫情数据伦理问题的特殊性,提出规范数据获取、落实算法理性和限制成果传播等监管建议。

相关报告
  • 《北大公众健康与重大疫情防控战略研究中心成立》

    • 来源专题:中国科学院病毒学领域知识资源中心
    • 编译者:malili
    • 发布时间:2020-12-21
    • 12月12日,北京大学公众健康与重大疫情防控战略研究中心成立大会举行,来自国家卫生健康委员会、教育部、科技部、北京大学等各方代表150余人应邀参会。大会由中国工程院院士、北京大学第三医院院长乔杰主持。 中国工程院院士、北京大学常务副校长詹启敏代表北京大学致欢迎词。他指出,公共卫生在社会经济发展中具有基础性、战略性和全局性地位,是健康中国建设的基石。北京大学公众健康与重大疫情防控战略研究中心定位为公众健康与重大疫情防控领域的国家级高端智库,为政府提供公共卫生决策的科技支撑,为提高我国应对突发重大公共卫生事件的能力和水平提供智力支持,同时大力培养复合型、创新型公共卫生专业人才,探索高水平应用型公共卫生人才的培养。 北京大学博雅特聘教授、北京大学公众健康与重大疫情防控战略研究中心首任主任李立明向与会嘉宾介绍了“北京大学公众健康与重大疫情防控战略研究中心”(以下简称“战略研究中心”)的成立背景和主要定位。他指出,2020年新型冠状病毒的全球大流行更加凸显了公共卫生在经济社会发展中的基础性、战略性和全局性地位。因此,北京大学聚焦国家重大战略需求,聚焦于建设一个国家级高端智库、一流科技支撑平台、数字公众健康中心以及社会动员与人力开发基地。 随后,北京大学校长郝平正式宣读了学校关于成立战略研究中心的决定。他指出,该中心是北京大学的实体学术机构,实行主任负责制。学校聘请李立明担任中心主任。中心设立科学顾问委员会、学术委员会和管理委员会,分别由郝平,中国科学院院士、北京大学前沿交叉学科研究院院长韩启德,詹启敏担任主任委员。同时,中心已聘请国内外一批知名专家组成科学顾问委员会以及由不同部门学术、教育和管理专家组成的学术委员会。 世界卫生组织驻华代表高力(Gauden Galea),国家卫生健康委员会主任、党组书记马晓伟,清华大学万科公共卫生与健康学院院长、前世界卫生组织总干事陈冯富珍分别向战略研究中心的成立致词表示祝贺。随后,北京大学党委书记邱水平等向到场专家颁发聘书。 成立大会同时召开了学术报告会,国家卫生健康委员会副主任李斌和詹启敏分别作了题为《全面推进健康中国建设》和《疫情防控背景下对医学发展的思考》的主旨报告。分别从国家健康中国战略角度和疫情后医学教育与公共卫生教育改革的角度为战略研究中心提出了目标与方向。 与会有关专家表示,本次会议的召开,标志着北京大学公众健康与重大疫情战略研究中心作为国家级智库的问世。战略研究中心将围绕着政策研究、传染病和慢性非传染性疾病相关的科学研究、信息研究、教育培训四个领域开展工作,为循证健康决策提供科学依据,为降低我国双重疾病负担提供本土科学证据,为精准防控提供支撑;为突发疫情和重大公共卫生实践防范开展预警预测预报工作,为大数据和人工智能技术在医疗健康领域的应用提供平台;为全社会动员、全民健康教育、医药卫生领域与非医药卫生领域的专业培训提供基地。 与会专家还表示,战略研究中心的成立,将有力推动全社会共同关注公众健康和重大疫情防控,为社会和谐稳定发展、社区居民健康生活做出专业化的技术支撑。
  • 《ChatGPT的伦理——探索新兴技术的伦理问题》

    • 来源专题:数智化图书情报
    • 编译者:于彰淇
    • 发布时间:2023-12-22
    • 摘要:本文探讨了像ChatGPT这样的生成式会话人工智能系统所提出的伦理问题。它采用既定方法分析新兴技术的伦理,对可能的好处和关切进行系统审查。该方法将预期技术伦理、伦理影响评估和新兴信息和通信技术应用的伦理问题与文献中的人工智能特定问题相结合。这些应用于分析ChatGPT生成类人文本和无缝交互的能力。分析发现,ChatGPT可以提供高水平的社会和道德效益。然而,它也引发了社会正义、个人自主、文化认同和环境问题方面的重大伦理问题。关键的高影响问题包括责任、包容、社会凝聚力、自主性、安全、偏见、问责制和环境影响。虽然目前的讨论仅限于作者身份等特定问题,但这一分析系统地揭示了一系列更广泛、更平衡的值得关注的伦理问题。研究结果与新兴的研究和行业对生成性人工智能伦理的优先事项一致。其影响包括需要不同的利益相关者参与,在开发应用程序时全面考虑利益和风险,以及促进积极成果的多层次政策干预。总的来说,该分析表明,应用既定的技术伦理方法可以产生一个严格、全面的基础,以指导围绕ChatGPT等有影响力的新兴技术的讨论和行动。该论文主张在用例展开时保持这种广泛、平衡的伦理视角,以实现收益,同时解决伦理的负面影响。