OpenAI 希望 GPT-4 解决大规模内容审核难题:可取代大量人类审核员
OpenAI 坚信其技术能够帮助解决技术领域最困难的问题之一:大规模内容审核。OpenAI 声称,GPT-4 可以取代成千上万名人工审核员,准确率几乎相当且更加一致。如果这是真的,技术领域中最具有毒性和精神压力的任务可以被外包给机器完成。
在今天发布的一篇博客文章中,OpenAI 声称已经在使用 GPT-4 来制定和完善自己的内容政策、标记内容和做出决策。OpenAI 安全系统负责人 Lilian Weng 告诉 Semafor 说:「我希望看到更多人以这种方式运营他们的信任、安全和审核工作。这是我们在如何利用人工智能解决对社会有益的真实问题上迈出的一大步。」
根据 OpenAI 的详细介绍,这项技术依赖于通过一项指导 GPT-4 在进行审查判断时的政策,并创建一个包含可能违反政策的内容示例的测试集。然后,政策专家会对这些示例进行标记,将每个没有标签的示例提供给 GPT-4,并观察模型的标签与他们的判断是否相符,并从中改进政策。
OpenAI 在文章中写道:「通过比较 GPT-4 的判断和人类的判断之间的差异,政策专家可以要求 GPT-4 解释其标签背后的推理过程,分析政策定义中的歧义,消除困惑,并相应地在政策中提供进一步的澄清。我们可以重复这些步骤,直到对政策质量满意为止。」
与传统的内容审核方法相比,OpenAI 认为有三个主要优势。首先,它声称人们对政策的解释各不相同,而机器在判断上是一致的。这些审核指南可能长达一本书,而且经常变化。而人类需要大量培训才能学习和适应,OpenAI 认为大型语言模型可以立即实施新的政策。
其次,据称 GPT-4 可以在几个小时内帮助制定新政策。起草、标记、收集反馈和完善的过程通常需要数周或几个月的时间。第三,OpenAI 提到了持续接触有害内容(如虐待儿童或酷刑视频)的工人的福利问题。
在近 20 年的现代社交媒体和更多年的线上社区繁荣之后,内容审核仍然是在线平台面临的最困难的挑战之一。Meta、Google 和 TikTok 依赖于大量人类审核员来查看可怕且经常造成心理创伤的内容。他们中的大多数位于发展中国家,工资较低,为外包公司工作,并且由于缺乏心理健康护理而面临心理健康问题。
然而,OpenAI 本身也在很大程度上依赖点击工作者和人工劳动。成千上万的人,其中许多人来自肯尼亚等非洲国家,进行内容注解和标记。这些文本可能令人不安,工作压力大,而报酬较低。
虽然 OpenAI 将其方法宣扬为新颖和革命性,但人工智能多年来一直被用于内容审核。马克·扎克伯格对完美自动化系统的设想并没有完全实现,但 Meta 使用算法来审核绝大部分有害和非法内容。YouTube 和 TikTok 等平台也依赖类似的系统,因此OpenAI 的技术可能会吸引那些没有资源开发自己技术的小公司。
每个平台都公开承认,在大规模内容审核方面完美是不可能的。无论是人还是机器都会犯错,虽然错误的百分比可能很低,但仍然有数以百万计的有害帖子会被漏过,同样也会有许多无害内容被隐藏或删除。
特别是在误导、错误和具有攻击性但并非非法的灰色领域,对于自动化系统来说是一个巨大的挑战。即使是人类专家也很难对此类帖子进行标记,而机器经常出错。
最后,OpenAI 可能有助于解决自己的技术加剧的问题。ChatGPT 等生成式人工智能或公司的图像生成器 DALL-E 使得大规模制造虚假信息并在社交媒体上传播变得更加容易。尽管 OpenAI 承诺使 ChatGPT 更加真实,但 GPT-4 仍然会生成与新闻相关的虚假信息和错误信息。
该公司在博客文章中写道:「语言模型的判断很容易受到训练过程中可能引入模型的不良偏见的影响。」「与任何人工智能应用程序一样,结果和输出需要通过让人类参与其中来仔细监控、验证和完善。」
- 0000
- 0000
- 0000
- 0001
- 0001