科技公司担忧,澳大利亚新标准或削弱AI保护在线安全能力
划重点:
1. 澳大利亚新发布的在线安全标准,被科技公司如微软、Meta等指责可能影响AI系统保护儿童安全和防范恐怖主义材料的效能。
2. 标准针对生成式人工智能(generative AI)潜在的滥用潜力,但微软等公司表示其侦测有问题内容的能力可能受损。
3. 技术公司担心新标准可能使AI训练受限,降低其对儿童虐待和恐怖主义材料的精准侦测,强调AI在内容审查中的关键作用。
澳大利亚近期发布的新在线安全标准引起了科技公司的担忧,特别是微软、Meta和Stability AI等。这些标准旨在规范生成式人工智能(generative AI)等技术,以防止其被滥用,但科技公司担心这可能对其AI系统的保护在线安全的能力产生负面影响。
根据去年监管机构发布的两项旨在保护儿童安全的强制性标准草案,澳大利亚的eSafety专员朱莉·英曼·格兰特(Julie Inman Grant)提出,服务提供商应在技术上可行的情况下检测和删除儿童虐待材料和恐怖主义材料,同时阻止和威慑这类新材料。这些标准覆盖了多种技术,包括网站、云存储服务、短信和聊天应用,还包括高影响的生成式人工智能服务和开源机器学习模型。
图源备注:图片由AI生成,图片授权服务商Midjourney
在对这些标准进行的咨询中,WeProtect Global Alliance等一百多个政府和七十家公司的非营利联盟强调了eSafety试图解决的问题的本质。他们表示,开源AI已经被用于制作儿童虐待材料和深度伪造,而提议的标准涵盖了正确的平台和服务。
然而,微软、Meta和Stability AI等科技公司则表示,他们的技术正在开发中,已经设置了防范措施,以防止其被用于不当目的。微软警告说,草案中的标准可能限制其用于侦测和标记儿童虐待或恐怖主义材料的AI安全模型的效力。微软表示,确保AI模型和安全系统(如分类器)能够被训练来检测和标记这类内容,需要让AI接触这类内容,并建立评估流程来衡量和减轻风险。
Stability AI同样警告说,AI将在在线内容审查中发挥重要作用,过于宽泛的定义可能使确定必须符合拟议标准的内容变得更加困难。
Meta公司表示,虽然其Llama2模型配备了安全工具和负责任的使用指南,但在工具下载后很难执行防护措施。Google建议在标准中不包含AI,而是将其完全视为当前政府对在线安全法和基本在线安全期望进行审查的一部分。
最终版本的标准将在今年晚些时候提交国会审议。英曼·格兰特在一份声明中表示,这些标准不会要求行业破坏或削弱加密,监视文本或无差别地扫描大量个人数据。她正在考虑对此进行澄清的可能修订。
- 0000
- 0006
- 0000
- 0000
- 0000