佛罗里达大学的研究人员发现,旨在诊断一种影响妇女的常见感染的机器学习算法在不同种族群体中显示出诊断偏差。
虽然人工智能工具为改善医疗服务提供了巨大潜力,但从业人员和科学家警告说,它们有可能使种族不平等永久化。
这篇论文发表在周五的《自然》杂志《数字医学》上,是第一篇评估这些工具在妇女健康问题上的公平性的论文。
"J. Crayton Pruitt Family 生物医学工程系副教授、该研究的作者方若谷(Ruogu Fang)说:"机器学习可以成为医疗诊断中的一个重要工具,但我们发现它可能会对不同种族群体产生偏见。
"这对女性健康来说是个警示,因为目前已经存在因种族而异的差异"。
研究人员评估了机器学习在诊断细菌性阴道病(BV)方面的公平性,这是一种影响育龄妇女的常见疾病,在不同种族群体之间存在明显的诊断差异。
方方和共同通讯作者伊万娜-帕克(Ivana Parker)都是赫伯特-韦特海姆工程学院(Herbert Wertheim College of Engineering)的教师,她们从400名妇女中提取了数据,其中白人、黑人、亚裔和西班牙裔各100人。
研究人员说,在研究四种机器学习模型预测无症状妇女乳腺癌的能力时,不同种族的准确性各不相同。
西班牙裔妇女的假阳性诊断率最高,而亚裔妇女的假阴性诊断率最高。