《研究揭示了人工智能工具在诊断女性健康问题时存在的偏见》

  • 来源专题:新一代信息技术
  • 编译者: 王晓丽
  • 发布时间:2023-11-29
  • 佛罗里达大学的研究人员发现,旨在诊断一种影响妇女的常见感染的机器学习算法在不同种族群体中显示出诊断偏差。

    虽然人工智能工具为改善医疗服务提供了巨大潜力,但从业人员和科学家警告说,它们有可能使种族不平等永久化。

    这篇论文发表在周五的《自然》杂志《数字医学》上,是第一篇评估这些工具在妇女健康问题上的公平性的论文。

    "J. Crayton Pruitt Family 生物医学工程系副教授、该研究的作者方若谷(Ruogu Fang)说:"机器学习可以成为医疗诊断中的一个重要工具,但我们发现它可能会对不同种族群体产生偏见。

    "这对女性健康来说是个警示,因为目前已经存在因种族而异的差异"。

    研究人员评估了机器学习在诊断细菌性阴道病(BV)方面的公平性,这是一种影响育龄妇女的常见疾病,在不同种族群体之间存在明显的诊断差异。

    方方和共同通讯作者伊万娜-帕克(Ivana Parker)都是赫伯特-韦特海姆工程学院(Herbert Wertheim College of Engineering)的教师,她们从400名妇女中提取了数据,其中白人、黑人、亚裔和西班牙裔各100人。

    研究人员说,在研究四种机器学习模型预测无症状妇女乳腺癌的能力时,不同种族的准确性各不相同。

    西班牙裔妇女的假阳性诊断率最高,而亚裔妇女的假阴性诊断率最高。


相关报告
  • 《研究揭示了人工智能工具在诊断女性健康问题时存在的偏见》

    • 来源专题:新一代信息技术
    • 编译者:王晓丽
    • 发布时间:2023-11-28
    • 佛罗里达大学的研究人员发现,旨在诊断一种影响妇女的常见感染的机器学习算法在不同种族群体中显示出诊断偏差。 虽然人工智能工具为改善医疗服务提供了巨大潜力,但从业人员和科学家警告说,它们有可能使种族不平等永久化。 这篇论文发表在周五的《自然》杂志《数字医学》上,是第一篇评估这些工具在妇女健康问题上的公平性的论文。 "J. Crayton Pruitt Family 生物医学工程系副教授、该研究的作者方若谷(Ruogu Fang)说:"机器学习可以成为医疗诊断中的一个重要工具,但我们发现它可能会对不同种族群体产生偏见。 "这对女性健康来说是个警示,因为目前已经存在因种族而异的差异"。 研究人员评估了机器学习在诊断细菌性阴道病(BV)方面的公平性,这是一种影响育龄妇女的常见疾病,在不同种族群体之间存在明显的诊断差异。 方方和共同通讯作者伊万娜-帕克(Ivana Parker)都是赫伯特-韦特海姆工程学院(Herbert Wertheim College of Engineering)的教师,她们从400名妇女中提取了数据,其中白人、黑人、亚裔和西班牙裔各100人。 研究人员说,在研究四种机器学习模型预测无症状妇女乳腺癌的能力时,不同种族的准确性各不相同。 西班牙裔妇女的假阳性诊断率最高,而亚裔妇女的假阴性诊断率最高。
  • 《美专家揭示医疗保健领域使用人工智能存在的严重风险》

    • 来源专题:生物安全知识资源中心 | 领域情报网
    • 编译者:huangcui
    • 发布时间:2019-11-22
    • 据STAT网站6月19日报道,哈佛大学法学院教授Jonathan Zittrain在波士顿举行的一次会议上指出,将人工智能用于医疗服务存在一些严重的问题。 Zittrain认为人们很容易被人工智能的错误结论误导。他在会上展示了一只猫的图像,谷歌算法将其正确地归类为虎斑猫;随后又放映了一张几乎完全相同的猫图像,仅有几个像素发生了变化,谷歌算法却以100%的确定性将屏幕上的图像归类为鳄梨酱。如将此演示放至医疗领域,当算法以100%的信心输出了错误的诊断结果,其严重后果可想而知。 此外,纽约数据与社会研究所的研究员Kadija Ferryman还发现,人工智能可能会延续医疗保健领域存在的一些不平等现象,诸如一种用于识别皮肤癌的算法对皮肤较黑的人效果较差;在精神卫生保健领域,电子病历中保存的数据显示出了对女性和有色人种的偏见。Ferryman认为,数据中的不公平不仅会转化为医疗保健领域的不平等待遇,还可能导致无效护理。她呼吁持续关注人工智能加剧不平等现象的可能性。