500多名AI专家联合签署公开信,呼吁出台反深度伪造法律
**划重点:**
1. 💬500多名人工智能领域专家签署公开信,敦促出台对AI生成的冒充或深度伪造的严格法规。
2. 🚨 公开信呼吁全面刑事化深度伪造儿童性虐待材料,强调政府应在整个供应链上实施义务以阻止深度伪造的传播。
3. 🌐 这不是对此类法规的第一次呼吁,欧盟多年来一直在讨论,并在本月早些时候正式提出。专家们或许受到欧盟的决心以及一些具体威胁的驱使而发声。
数百名人工智能领域的专家签署了一封公开信,敦促政府对人工智能生成的深度伪造进行严格监管。这封公开信由500多名人工智能领域的人士签署,强调深度伪造对社会构成了日益增长的威胁,政府应该在整个供应链上实施义务,阻止深度伪造的传播。
图源备注:图片由AI生成,图片授权服务商Midjourney
这封信要求对深度伪造的儿童性虐待材料进行全面刑事化,无论所描绘的人物是真实的还是虚构的。对于任何创建或传播有害深度伪造的情况,都呼吁实施刑事处罚。开发人员被要求在其产品中阻止有害深度伪造的制作,并在预防措施不足的情况下予以处罚。
公开信的签署者中包括Jaron Lanier、Frances Haugen、Stuart Russell、Andrew Yang等人,涵盖全球多个领域的数百名学者。有趣的是,其中一个来自OpenAI的签署者,一些来自Google DeepMind,但截至文章发布时,来自Anthropic、Amazon、Apple或Microsoft的签署者都没有,除了Lanier,他在那里的职务是非标准的。
这并非对此类法规的首次呼吁。实际上,多年来在欧盟一直在讨论这个问题,并于本月早些时候正式提出。文章提出,或许是欧盟的决心和一些具体威胁的推动,激发了这些研究人员、创作者和高管们的呼吁。
可能是由于《儿童在线安全法案》(Kids Online Safety Act,KOSA)在逐渐被接受,但对这类滥用的保护措施不足。又或者是AI生成的欺诈电话的威胁,可能影响选举结果或欺骗天真的人们财产。亦或者是昨天宣布的AI任务组,没有特定议程,只是可能撰写关于一些基于AI的威胁及其可能受到立法限制的报告。
人工智能社区有足够的理由在这个问题上表达自己的看法,呼吁采取行动。然而,公开信能否引起注意,尚无法预测。就像之前呼吁“暂停”AI发展的臭名昭著的信件一样,可能没有人真正关注,但这封公开信显然更为实际。如果立法者决定着手处理这个问题——尽管在选举年份,国会分歧严重,这是一个不太可能的事件——他们将有这份名单来了解全球人工智能学术和开发社区的立场。
- 0002
- 0000
- 0001
- 0001
- 0000