研究发现AI聊天机器人传播关于黑人的“种族主义”医疗信息
划重点:
- 研究表明,流行的AI聊天机器人,如ChatGPT,被发现传播了关于黑人的被证伪的医疗刻板印象。
- 斯坦福大学的研究人员通过AI聊天机器人提出了九个医学问题,并发现它们返回的答案包含有关黑人的被证伪的医疗观念,包括关于肾脏功能、肺容量的不正确回答,以及关于黑人与白人拥有不同肌肉质量的观点。
- 这项研究引发了对医疗领域中AI使用增长的担忧,因为错误的医疗信息可能会对健康差距产生严重影响。
最新研究发现,人工智能聊天机器人,如ChatGPT,被指责传播了有关黑人的被证伪的医疗刻板印象。
这项研究由斯坦福大学的研究人员进行,他们通过将九个医学问题输入到AI聊天机器人中,发现这些机器人返回了包含有关黑人的被证伪的医疗观念的答案,其中包括有关肾脏功能、肺容量的不正确回答,以及关于黑人与白人拥有不同肌肉质量的观点。这一研究结果在Axios的一份报告中得以披露。
图源备注:图片由AI生成,图片授权服务商Midjourney
研究团队将这九个问题输入了四个聊天机器人,其中包括OpenAI的ChatGPT和Google的Bard,这些机器人经过训练,能够检索大量的互联网文本。然而,这些答案引发了对医疗领域中使用人工智能日益增长的担忧。
斯坦福大学助理教授Roxana Daneshjou在这项研究中担任顾问,并告诉美联社:“答案错误会对健康差距产生非常现实的后果。我们正在努力从医学中消除这些刻板印象,因此这种错误的传播非常令人担忧。”
康奈尔大学法学教授William Jacobson是平等保护项目的创始人,他告诉福克斯新闻数字媒体,非实质性的种族因素已经长期存在于医疗决策中,这在人工智能传播中可能会加剧。
Jacobson说:“我们已经看到多样性、平等和包容性以及批判性种族意识意识形态将负面刻板印象注入基于意识形态活动的医学教育和护理中。人工智能有助于医学教育和护理,但不应成为唯一的信息来源,我们不希望看到人工智能受到操纵输入的政治化。”
高级准备和威胁响应模拟中心的创始人菲尔·西格尔(Phil Siegel)告诉福克斯数字新闻,人工智能系统没有“种族主义”模型,但注意到基于其所利用的信息集的偏见信息。
- 0000
- 0001
- 0000
- 0000
- 0002