为什么全球监管可能无法阻止危险的人工智能
划重点:
- 🌍 全球政府正在努力限制人工智能的风险,但一些专家对控制这一技术表示怀疑。
- 🤔 一些人对人工智能可能带来的威胁的灾难性场景持怀疑态度,但也有观察家认为这些场景被夸大了。
- 🛡️ 尽管国际社会在人工智能安全方面展现了新的统一态度,但目前的提议法规可能不足以限制风险。
全球政府正致力于寻找限制人工智能风险的方法,但一些专家对这一技术能否被控制住持怀疑态度。
上周在英国举行的人工智能安全峰会汇集了美国、中国、欧盟、英国和其他25个国家的代表。与会者就阻止扩散虚假信息和造成严重伤害等问题达成了一致意见,无论是出于故意还是意外。然而,这些崇高的目标可能并不切实际。
图源备注:图片由AI生成,图片授权服务商Midjourney
人工智能的范畴非常广泛,包括专家系统、传统机器学习以及最近出现的生成式人工智能等各种技术。这使得制定适用于所有这些技术和各种潜在应用的法规变得困难,因此很难制定适用于所有情况的规定。
在峰会上,政策制定者强调了对人工智能研究的重要性,主要关注确保安全性。他们在《布莱奇利宣言》中一致表示这一点。与此同时,一些人工智能领域的顶尖专家警告称,这一技术可能会导致人类灭亡,或者仅仅是大幅减少就业机会。然而,其他观察家认为这些末日场景要么被夸大了,要么是一种营销手法。
《布莱奇利宣言》强调了各方共同努力来识别人工智能安全风险,并基于科学理解这些风险。宣言还建议制定适合每个国家特定情况的规则,并促进政府之间的合作和开放。
此外,各个国家的政府也在采取措施限制人工智能。在峰会之前,拜登总统发布了一项关于人工智能发展的行政命令,强调政府、企业和大学之间的合作,以指导人工智能评估、促进创新、保护就业机会和确保消费者隐私。
然而,一些怀疑论者对这些提议法规的限制风险不够表示质疑。一位人工智能监管专家指出,拜登的行政命令要求联邦机构制定并实施人工智能保障措施,同时鼓励私营部门采纳这些措施,但缺乏具体细节。他补充道,这些法规并未直接限制私营部门,也没有解决普通公民与人工智能技术互动的方式。此外,这些法规也未涉及学术机构中人工智能的发展,也没有将学术界纳入有关人工智能风险的对话中。因此,这些提议法规尚未能够妥善应对人工智能中固有的严重风险。
人工智能的全球覆盖范围也是控制它的挑战之一。一位科技公司的首席执行官将人工智能监管的挑战比作限制核武器的挑战。他指出,尽管一个国家或国际社会内部的人工智能受到监管,但敌对国家仍可能继续发展,即使他们签署了不发展的协议。类似地,不法开发者也可以制造黑市人工智能产品。这就像在伊拉克和伊朗进行多年的 “打地鼠” 式搜寻核项目一样,只是计算机要容易隐藏得多。
对于版权材料的问题,该首席执行官表示,政府监管应重点关注使用 robots.txt 文件。这些由网站管理员制作的文本文件用于指导搜索引擎机器人如何浏览其网站页面,应包含在人工智能的编程中,以排除对受版权或其他保护的材料的使用或训练。
制定人类伦理的广义轮廓也是一项具有挑战性的任务。当前的人权法为对人工智能倡议提供了挑战的基础。然而,需要将这些抽象权利以具体的法规形式准确翻译出来,以制定明确的规定。
制定更好的人工智能法规需要不断评估和重新评估新的进展和技术。这一过程必须是持续的,人工智能监管专家Kordestani 指出,可能需要新的立法或国际条约来限制新的训练方法或新的应用。
“政府应与公司合作,以确保创新不受到扼杀,竞争优势得以保持,同时确保人工智能的安全开发和使用,” 他补充道。“同时,更多学术界人士需要参与并受到尊重,以确保我们从道德角度确保公众的安全 - 确保平等获得,讨论数据伦理和社会偏见,并就技术变革面前的人类存在意义提出有价值的问题。”
人工智能的一个危险在于不怀好意的人会开发用于邪恶目的的人工智能。为了使事情更加安全,我们需要不断制定更好的国际人工智能发展规则。“但我相信,至关重要的是建立这些多利益相关者之间的对话,包括公众、私营部门和学术界,以不断适应和解决随着时间推移出现的危险和不怀好意的行为,” 他补充道。“对人工智能的警惕但灵活的监管可以防止普通公民暴露于人工智能对我们的工作、治理和日常生活可能构成的大部分危险之中。”
科技公司 Modulus 的首席执行官Carlsson 表示,与其专注于特定技术,不如将监管针对特定用例。例如,他指出,更有效的做法是监管汽车安全,而不是希望对所有内燃机都制定通用规定,从而使汽车更安全。因此,制定法律以防止深度伪造用于欺诈行为比提出要求对使用生成式人工智能生成的内容添加水印的法律更有价值。
“尽管这意味着法规将始终赶不上用例的发展 - 因为新的人工智能用例不断被发明出来 - 但这是不可避免和适当的,” 他补充道。“然而,这意味着我们需要一种能够快速适应、设计、执行和更新法规的监管结构。不幸的是,就像每一项技术一样,人工智能的潜在问题和风险与人工智能几乎没有关系,而与人类的因素密切相关。”
- 0000
- 0000
- 0001
- 0000
- 0001