微软工程师向美国官员和公司董事会发警告:AI图像生成器存在潜在风险
**划重点:**
1. 🤖 微软工程师发警报:公司的人工智能图像生成器工具可能轻易生成冒犯和有害图像。
2. 📄 工程师致信美国监管机构和微软董事会,敦促采取行动,揭示产品安全隐患。
3. 🌐 问题源于Designer工具,可能生成包含不当内容的图像,引发安全和道德争议。
一名微软工程师近日向美国监管机构和公司董事会发出警报,指称公司的人工智能图像生成器工具存在潜在的冒犯和有害图像生成风险。工程师Shane Jones称自己是一名举报者,并在上个月与美国参议院工作人员会面,分享了他的担忧。
根据Jones的信函,他花费了三个月的时间尝试解决他对微软的 Designer工具的安全顾虑。该工具可以根据书面提示生成新颖的图像,其技术基于微软密切合作伙伴OpenAI的DALL-E3图像生成器。Jones在信中指出, Designer存在一个最令人担忧的风险是在生成图像时添加有害内容,即使用户的请求是良性的。
图源备注:图片由AI生成,图片授权服务商Midjourney
Jones在信中列举了其他有害内容,包括暴力、政治偏见、未成年饮酒和药物滥用、滥用企业商标和版权、阴谋论以及宗教等。他曾多次要求公司将该产品从市场撤下,直至安全,或者至少更改智能手机上的年龄评级,以明确产品适用于成熟观众。
微软回应称致力于解决员工对公司政策的关切,并赞赏Jones在研究和测试最新技术以增强安全性方面的努力。微软建议他使用公司的内部报告渠道调查和解决问题。Jones向微软董事会的信中要求启动独立调查,以查明微软是否在向消费者销售产品时隐瞒已知风险。
Jones强调,虽然核心问题出现在OpenAI的DALL-E模型上,但使用OpenAI的ChatGPT生成AI图像的用户不会遇到相同的有害输出,因为两家公司在其产品上覆盖了不同的保护措施。他补充道:“许多 Designer的问题已经在ChatGPT的安全措施中得到解决。”
自2022年起,一系列引人瞩目的AI图像生成器相继登场,包括OpenAI的DALL-E2。这引发了公众对微软和谷歌等科技巨头发布自己版本的商业压力。然而,技术缺乏有效的保护措施,使其存在着一些危险,包括用户轻松生成政治人物、战区或非自愿裸露等有害“深度伪造”图像。此前,谷歌因其Gemini聊天机器人展示的种族和族裔刻板印象而暂停了其生成人物图像的能力。
微软表示,已建议Jones使用内部渠道解决问题,但他表示早前向OpenAI提出问题未果,因此才公开发表对OpenAI的信。他向华盛顿州的州检察长和美国参议院商务委员会介绍了自己的担忧。 Jones在信中强调,问题的核心在于OpenAI的DALL-E模型,而使用OpenAI的ChatGPT生成AI图像的用户则不会遇到相同的有害输出,因为两家公司在其产品上覆盖了不同的保护措施。
- 0000
- 0000
- 0000
- 0000
- 0002