如果我们在有偏见的数据上训练人工智能系统,它们反过来会做出有偏见的判断,影响招聘决策、贷款申请和福利——仅举几个现实世界的影响。随着这项快速发展的技术可能会导致改变生活的后果,我们如何确保人类根据反映合理道德原则的数据训练人工智能系统?
近日,美国国家标准与技术研究院(NIST)的一个多学科研究小组建议,已经有了一个可行的答案:我们应该应用科学家几十年来一直用来保护人类受试者研究的基本原则。这三个原则——概括为“尊重人、行善和正义”——是1979年《贝尔蒙报告》的核心思想,该报告影响了美国政府对人类研究的政策。
该团队已在同行评审期刊IEEE的《Computer》期刊2月刊上发表了他们的研究成果。虽然这篇论文是作者自己的工作,不是NIST的官方指导,但它与NIST为支持值得信赖和负责任的人工智能的发展所做的更大努力相吻合。