Stability AI 首席执行官敦促立法者保持 AI 开源
文本到图像生成器 Stable Diffusion 背后的公司 Stability AI 的首席执行官Emad Mostaque正敦促美国立法者保持 AI 开源,并概述了他们可以采取的五个措施来防止 AI 危害。
Emad Mostaque 写信给参议院隐私、技术和法律司法小组委员会,该委员会最近召集OpenAI 首席执行官 Sam Altman 参加国会听证会。Stability AI 也是白宫邀请的公司之一,让公众评估他们的 AI 模型。
在一封信中,Mostaque 表示人工智能带来的机会“意义重大” 。但是“当你考虑人工智能监督的未来时,我们鼓励小组委员会大力促进人工智能的开放性,这些技术将成为我们数字经济的支柱,公众能够监督它们的发展至关重要。”
他表示,开源模型和数据集提供的透明度将提高人工智能安全、促进竞争,并将“确保美国在关键人工智能能力方面保持战略领导地位。”“草根创新是美国最大的资产,开放模式将使这些工具交到整个经济体的工人和公司手中。”
Mostaque 建议采取以下步骤来监督 AI:
1. 模型越大,滥用、改编或武器化的风险就越大。但它们可以被检测到,因为这些模型需要“大量”计算资源来进行训练和推理。当他们的服务用于大规模或计算密集型训练和推理时,要求云计算提供商报告。
2.对于开发某些类型的“高能力和高适应性”人工智能模型的组织可能构成严重风险,为其提供操作安全和信息安全指南。
3. 用户应该知道他们是否在与人工智能交互。因此,应用程序开发人员应披露此类行为,并在收集数据进行 AI 训练之前征得用户同意。对于对用户影响较大的 AI 应用程序,例如金融、医疗或法律领域的应用程序,监管机构可能会在评估标准、可靠性、审计或保证和可解释性方面考虑“稳健的性能要求”。
4. 制定社交媒体平台和人工智能服务及应用提供商应采用的内容真实性标准。这些验证应成为其内容推荐和审核系统的一部分,以减少在线错误信息。
5.美国应在三个领域增加投资:与研究人员、开发人员和公司合作的人工智能模型评估框架;公共计算和试验台资源,以支持人工智能的公共研究和公共评估;资助或获得一个公共基金会模型,该模型受公众监督,受过可信数据的培训,并可供全国各地的组织使用。
- 0000
- 0000
- 0001
- 0000
- 0000