研究发现:GPT-3经常出错,重复有害的错误信息
站长网2023-12-25 18:58:040阅
划重点:
⦁ 研究人员系统地测试了ChatGPT对事实、阴谋、争议、误解、刻板印象和虚构等六类声明的理解
⦁ 研究发现GPT-3经常出错,自相矛盾,并重复有害的错误信息
⦁ 大型语言模型如OpenAI的ChatGPT显示它们重复了阴谋论、有害的刻板印象和其他形式的错误信息
一项新研究发现,OpenAI的ChatGPT等大型语言模型经常重复阴谋论、有害的刻板印象和其他形式的错误信息。
图源备注:图片由AI生成,图片授权服务商Midjourney
最近的一项研究中,加拿大滑铁卢大学的研究人员系统地测试了ChatGPT对六个类别的声明(事实、阴谋、争议、误解、刻板印象和虚构)的理解。他们发现GPT-3经常出错,在一次回答过程中自相矛盾,并重复有害的错误信息。
计算机科学David R. Cheriton学院的教授丹·布朗表示:“大多数其他大型语言模型都是基于OpenAI模型的输出进行训练的。所有这些模型都反复出现了我们在研究中发现的这些问题。”
研究中,研究人员使用了四种不同的调查模板,询问了超过1200个不同的陈述,涵盖了六个类别的事实和错误信息。
0000
评论列表
共(0)条相关推荐
- 0001
- 0000
- 0000
- 0002
- 0002