剑桥词典公布2023年度词汇:AI改变了“幻觉”的定义
# 划重点:
1. 📚 剑桥词典宣布2023年的年度词汇是“幻觉”,并赋予其与人工智能技术相关的新含义。
2. 🤖 人工智能工具如ChatGPT引起了2023年对AI技术的强烈兴趣,但随之而来的是人们对AI生成文本不可靠的认识。
3. 🧠 AI“幻觉”已经在现实世界产生影响,涉及虚构法律案例等。
剑桥词典宣布2023年的年度词汇是“幻觉”,并且这个词汇因人工智能技术而得到了新的定义。传统上,“幻觉”是指某人似乎感觉到不存在的事物,通常是由于健康状况或药物使用,但现在它还与人工智能产生虚假信息有关。
图源备注:图片由AI生成,图片授权服务商Midjourney
今年,像ChatGPT这样的人工智能工具引起了对AI技术的强烈兴趣。然而,正如一些人艰难地认识到的那样,AI生成的文本并不总是可靠的。剑桥词典的新定义指出,“当人工智能(即具有类似人脑某些特质的计算机系统,如以一种看似人类的方式产生语言的能力)幻觉时,它会产生虚假信息。”
Wendalyn Nichols,剑桥词典的出版经理指出:“人工智能能够快速处理大量数据,提取特定信息并整合它。但你要求它变得更有创造力时,它更容易误入歧途。” 她总结道:“人类的专业知识可能比以往任何时候都更重要,以创建大型语言模型可以接受的权威和最新信息。”
人工智能的“幻觉”已经以一种自信而可信的方式产生了实际影响。一家美国法律公司在使用ChatGPT进行法律研究后在法庭上引用了虚构的案例,而谷歌AI聊天机器人Bard的推广视频则在James Webb太空望远镜的事实上犯了错误。
剑桥大学的AI伦理学家Henry Shevlin表示:“将‘幻觉’一词广泛用于类似ChatGPT等系统的错误,提供了一个迷人的瞥见,展示了我们是如何将人工智能拟人化的。” 他继续说:“‘幻觉’是一个富有表现力的动词,暗示了一个体验与现实脱节的主体。” 这种语言选择反映了对感知的微妙而深刻的转变:AI而不是用户在“幻觉”中。虽然这并不意味着广泛相信AI有感知能力,但它强调了我们准备将类人属性赋予AI的态度。
- 0000
- 0000
- 0000
- 0000
- 0000