AI专家称应在公司董事会中包括公众成员以保护社会
🔍 **划重点:**
1. AI公司发展强大的人工智能系统时,应在董事会中纳入独立成员,代表“社会利益”。
2. 专家Yoshua Bengio表示,随着技术的迅速进步,AI公司需要公众成员监督,实现“民主治理”。
3. Bengio对OpenAI的管理层动荡表示关切,呼吁实现“适当的防护措施”,并关注人工智能安全和发展速度。
人工智能(AI)技术的现代奠基人之一,2018年图灵奖得主Yoshua Bengio教授表示,正在发展强大人工智能系统的公司应在其董事会中聘请独立成员,代表“社会的利益”。
Bengio在接受《卫报》采访时表示,随着技术的迅速发展,AI公司需要公众成员的监督,以实现“民主治理”,确保技术的进步不会对公众构成威胁,并防止滥用以扩大权力。
图源备注:图片由AI生成,图片授权服务商Midjourney
他关切地提到OpenAI(ChatGPT的开发者)管理层的变动,并指出“民主过程”对于监控人工智能领域的发展至关重要。在OpenAI首席执行官Sam Altman辞职并复职等管理层动荡之后,Bengio认为需要一种能够及时监测AI发展的方式。
Bengio曾于3月份与包括Elon Musk在内的数千名高科技界人士签署了一封公开信,呼吁暂停最强大AI系统的开发,对此,他表示担忧:“我担心的是…并不会有减速。将会在适当的防护措施缺失的情况下,迅速推进,更加侧重于与其他竞争者的比赛和赢得比赛,而不是保护公众和公共安全。”
除了OpenAI的管理层变动外,Bengio还表达了对于全球AI安全峰会上政府与AI公司之间达成的自愿协议的关切。他指出这一过程更有利于公司,因为它要求政府找出模型存在的问题,而不是由公司证明其技术是安全的。
Bengio强调,他更支持一种模式,即公司有责任向监管机构证明其系统是可信的,类似于制药公司对其产品进行临床研究的要求。他表示:“这不是政府进行临床研究,而是制药行业。然后,他们必须提供科学证据,如统计评估,证明‘有很高的概率该药物不会有毒性’。因此,政府审查该报告和过程后说,是的,你可以继续商业化。”
作为Bletchley峰会的与会者,Bengio被宣布为首次“AI科学现状”报告的主席,预计该报告将在明年五月的韩国人工智能峰会之前发布,他希望该报告每六个月发表一次,重点关注人工智能的安全性。
对于一个可能逃避人类控制的系统出现的时间表,Bengio给出的估计是5到20年。他强调,政府应该在这1%的可能性中保护公众免受潜在危险,同时对美国总统乔·拜登关于人工智能的行政命令表示欢迎,认为这是推动行业“更好监管”的“非常好的事情”。
Bengio对人工智能的治理提出了严肃的看法,强调了监管的必要性,以确保技术的发展符合社会利益并不会对公众构成潜在威胁。
- 0000
- 0001
- 0000
- 0000
- 0000