OpenAI CEO:马斯克教会我深度技术投资的重要性 但对生活在火星上没有兴趣
站长之家(ChinaZ.com) 5月25日消息:OpenAI 联合创始人兼首席执行官 Sam Altman 当地时间周四在伦敦大学学院(University College London)拥有 985 个座位的地下礼堂发表演讲,排队等候进入礼堂的人们从门外一直排到楼梯上,延伸至街道,并蜿蜒延伸了整个街区的大部分距离。
前进的队伍经过一群手持标语牌的年轻人,他们要求 OpenAI 放弃发展人工智能的努力,即开发能够在大多数认知任务上与人类一样有能力的 AI 系统。其中一位抗议者在扩音器中指责 Altman 有救世主情结,并为了个人自负而冒着破坏人类的风险。
把 Altman 称为救世主可能有些过分。但在礼堂内,Altman 受到了摇滚明星般的欢迎。演讲结束后,他被粉丝们团团围住,要求与他合影并征求关于创业公司建立「护城河」的建议。「这正常吗?」一位惊讶的记者问一个 OpenAI 的新闻发言人,当我们站在围绕着 Altman 的拥挤人群中。「在我们此行的大部分地方都是这样,」发言人说。
Altman 目前正在进行 OpenAI 的「世界之旅」,访问从里约热内卢和拉各斯到柏林和东京的城市,与创业者、开发者和学生交流 OpenAI 的技术以及人工智能的潜在影响。Altman 以前也进行过这样的世界之旅。但今年,由于搭载人工智能聊天机器人 ChatGPT 的病毒式普及,后者已成为历史上增长最快的消费软件产品,这次旅行有了胜利之旅的感觉。Altman 还将与关键政府领导人会面。在参加 UCL 演讲后,他将与英国首相里希·苏纳克(Rishi Sunak)共进晚餐,并将在布鲁塞尔与欧盟官员会面。
从 Altman 的演讲中我们学到了什么?除了其他内容外,他认为马斯克使他相信深度技术投资的重要性,他认为先进的人工智能将减少全球不平等,他认为教育工作者对 OpenAI 的 ChatGPT 担忧与之前几代人对计算器的担忧相类似,并且他对居住在火星上没有兴趣。
Altman 曾在美国参议院作证时呼吁政府对人工智能进行监管,并最近合著了一篇博客文章,呼吁建立一个类似国际原子能机构的组织来全球监管先进人工智能系统的发展。他表示,监管机构应该在美国传统的对新技术监管采取自由放任的方式和欧洲更主动的立场之间取得平衡。他表示希望看到人工智能的开源开发蓬勃发展。「有人呼吁停止开源运动,我认为这将是一种真正的遗憾,」他说。但他警告说,「如果有人破解密码并建立了超级智能,无论你如何定义它,对此制定一些全球规则都是合适的。」
Altman 表示:「对于可能产生超级智能的最大规模系统,我们应该将其至少与我们对待核材料一样认真对待。」他还警告说,由于像 OpenAI 公司的 ChatGPT 机器人和 DALL-E 文本到图像工具这样的技术,制造大量误导信息变得轻而易举。Altman 对此表示更担忧的是,生成式人工智能被用来扩大现有的虚假信息传播活动,他指出这种技术还可以创造个性化定制的虚假信息。他指出,OpenAI 和其他开发专有人工智能模型的公司可以建立更好的防范措施,但开源开发可能会破坏这一努力,因为它允许用户修改软件并移除防护措施。尽管监管「可能会有所帮助」,Altman 表示人们需要成为更加批判性的信息消费者,将其与 Adobe Photoshop 首次发布时人们对数字编辑照片的担忧进行了比较。「对于这些新技术也将发生相同的事情,」他说。「但我们能越早地教育人们对此有所认识,因为其情感共鸣会更高,我认为会更好。」
Altman 对人工智能的前景提出了比过去更乐观的看法。尽管一些人推测生成式人工智能系统会通过压低普通工人的工资或导致大规模失业,使全球不平等加剧,但 Altman 表示他认为情况恰恰与此相反。Altman 指出,先进的人工智能将提高全球经济增长和生产力,有助于减少贫困并创造新的机会。他表示:「我对这项技术感到兴奋,因为它可以弥补过去几十年中缺失的生产力增长,并且超越它。」他提出了他的基本观点,即世界的两个「限制因子」是智力成本和能源成本。如果这两个成本大大降低,他说,它应该更多地帮助贫困人口而不是富人。「这项技术将使全世界的人都得到提升,」他说。
他还表示,他认为有一些版本的人工智能超级智能是可以被控制的。他说:「我过去对朝向超级智能的看法是,我们将会构建这个非常强大的系统,这个系统本质上是非常危险的。」他指出,他现在看到的是一种路径,即我们构建越来越强大的工具,世界上使用了数十亿次、数万亿次的副本,帮助个体人类变得更加高效、能够做更多事情;一个人的产出量可以大大增加。超级智能的出现不仅是我们最大的单一神经网络的能力,而且还涉及到我们正在发现的所有新科学,我们正在创造的所有新事物。」
在回答有关他从不同导师那里学到了什么的问题时,Altman 提到了马斯克。「从他那里学到的东西,就是了解到有些事情是可以做到的,你不需要忽视研发和技术,这对我非常有价值,」他说。
他还回答了关于人工智能是否能够帮助人类在火星上定居的问题。「看,我没有去火星居住的愿望,那听起来很可怕,」他说。「但我很高兴其他人有这个愿望。」他表示,首先应该发送机器人去火星,帮助改造该行星,使其更适合人类居住。
在礼堂外,抗议者们继续高喊抗议 OpenAI 首席执行官的口号。但他们也停下来与好奇的与会者进行深入的讨论。
「我们试图提高人们对人工智能对人类构成的威胁和风险的认识,这些威胁和风险包括就业和经济、偏见、虚假信息、社会两极分化以及僵化,但也稍微长远一点,但并不是非常长远的一些存在威胁,」在 UCL 攻读政治科学和伦理学的 27 岁研究生阿利斯泰尔·斯图尔特(Alistair Stewart)说道。他是抗议 Altman 演讲的组织者之一。
斯图尔特引用了最近一项关于人工智能专家的调查,发现 48% 的专家认为,高级人工智能系统存在 10% 或更高的人类灭绝或其他严重威胁的可能性。他表示,他和其他抗议 Altman 演讲的人呼吁在研究人员解决「对齐」问题之前,暂停开发比 OpenAI 的 GPT-4 大型语言模型更强大的人工智能系统。所谓的「对齐」是指找到一种方式,防止未来的超级智能人工智能系统采取可能对人类文明造成伤害的行动。
这一呼吁与包括马斯克和许多知名人工智能研究人员和企业家在内的成千上万名签署人发表的一封公开信的呼吁相呼应,该信于三月底由未来生命研究所(Future of Life Institute)发布。
斯图尔特表示,他的团队希望提高公众对人工智能威胁的认识,以便施压政治家采取行动并对该技术进行监管。本周早些时候,一群名为 Pause AI 的团体也开始在谷歌 DeepMind 的伦敦办事处前抗议,DeepMind 是另一个先进的人工智能研究实验室。斯图尔特表示,他的团队与 Pause AI 没有关联,尽管两个团体在很多目标和目的上是一致的。
- 0000
- 0003
- 0000
- 0000
- 0001