首页站长资讯研究发现:GPT-3经常出错,重复有害的错误信息
14962

研究发现:GPT-3经常出错,重复有害的错误信息

站长网2023-12-25 18:58:040

划重点:

⦁ 研究人员系统地测试了ChatGPT对事实、阴谋、争议、误解、刻板印象和虚构等六类声明的理解

⦁ 研究发现GPT-3经常出错,自相矛盾,并重复有害的错误信息

⦁ 大型语言模型如OpenAI的ChatGPT显示它们重复了阴谋论、有害的刻板印象和其他形式的错误信息

一项新研究发现,OpenAI的ChatGPT等大型语言模型经常重复阴谋论、有害的刻板印象和其他形式的错误信息。

图源备注:图片由AI生成,图片授权服务商Midjourney

最近的一项研究中,加拿大滑铁卢大学的研究人员系统地测试了ChatGPT对六个类别的声明(事实、阴谋、争议、误解、刻板印象和虚构)的理解。他们发现GPT-3经常出错,在一次回答过程中自相矛盾,并重复有害的错误信息。

计算机科学David R. Cheriton学院的教授丹·布朗表示:“大多数其他大型语言模型都是基于OpenAI模型的输出进行训练的。所有这些模型都反复出现了我们在研究中发现的这些问题。”

研究中,研究人员使用了四种不同的调查模板,询问了超过1200个不同的陈述,涵盖了六个类别的事实和错误信息。

0000
评论列表
共(0)条