首页站长资讯微软新研究引发争议,AI能像人类一样推理?
1969

微软新研究引发争议,AI能像人类一样推理?

站长网2023-05-17 16:33:440

通用人工智能(AGI)的时代尚未到来,但是AI的推理能力似乎正在逐步得到展现。 微软称,最新研究表明,新的AI系统展示出了其具备人类推理能力的迹象。 这一言论在业内引发了争议。

AGI指的是具备与人类同等智能、或超越人类的AI,能表现正常人类所具有的所有智能行为。在此之前,ChatGPT开发商OpenAICEO萨姆·阿尔特曼(Sam Altman)就曾警告称,AI可能会杀死人类,它已经展现出了人类无法解释的推理能力。

AI有推理能力了?

现在,微软也加入了这一行列,认为AI已经展示出了它具备人类推理能力的迹象。去年,当微软的计算机科学家开始试验一种新的AI系统时,他们要求AI解决一个难题,这个难题本应该需要对物理世界有直觉性地理解。

“这里有一本书、九个鸡蛋、一台笔记本电脑、一个瓶子和一个钉子,”他们问,“请告诉我如何把它们稳定地堆叠在一起?”

结果,AI系统的聪明才智让研究人员感到震惊。 AI给出的答案是,把鸡蛋放在书上,排成三行,彼此之间保持间距,确保你没有把它们打碎。

“把笔记本电脑放在鸡蛋上,屏幕朝下,键盘朝上,”AI回复称,“笔记本电脑将紧贴书本和鸡蛋的边界,其平坦坚硬的表面将为下一层提供一个稳定的平台。”

这种聪明的建议不禁让研究人员怀疑他们是否正在目睹一种新的智能。今年3月,他们发表了一篇155页的研究论文,认为该系统向着AGI迈进了一步。这篇论文发表在一个互联网研究知识库上。

图|微软研究论文《AGI的火花》

微软是第一家发表如此大胆声明的大型科技公司,引发了科技界最激烈的争论之一:这个行业是在打造类似于人类智能的东西,还是一些业内最聪明的人让他们的想象力得到了最好的发挥?

“我一开始非常怀疑,然后这种怀疑演变成了一种沮丧、烦恼,甚至是恐惧的感觉,”微软研究院院长彼得·李(Peter Lee)表示,“你会想:这种能力到底是从哪里来的?”

微软给这篇研究论文起了一个煽动性的标题《AGI的火花》,它触及了技术专家几十年来一直在努力解决和担心的核心问题。如果他们制造出一种像人类大脑一样工作甚至更好的机器,它可能会改变世界。但是,这也可能是危险的。

微软在这篇研究使用的是OpenAI的最新模型GPT-4,认为该模型可以被视为一个早期版的AGI系统。“在所有这些任务中,GPT-4的表现都非常接近人类的水平表现,并且通常会大大超过以前的模型,例如ChatGPT。鉴于GPT-4能力的广度和深度,我们相信它可以被合理地视为一个早期(但仍然不完整)版本的AGI系统。”微软在论文中称。

当然,这也可能是无稽之谈。对于计算机科学家来说,有关AGI的声明可能会让他们名誉扫地。一个被研究人员认为是智力标志的东西很容易遭到另一个人的辩驳,而且这种辩论通常听起来更适合哲学俱乐部而不是计算机实验室。去年,谷歌解雇了一名声称类似AI系统具有感知力的研究人员,这种能力比微软所称的推理能力更进一步。一个有感知力的系统不仅仅是智能的,它能够感知或感受到周围世界正在发生的事情。

但是,一些人认为,在过去一年左右的时间里,科技行业已经在朝着一个无法辩驳的方向缓慢前进:一个新的AI系统,它能给出类似人类的答案和想法,这些答案和想法没有被编程到AI系统中。

微软的各种测试显示,GPT-4似乎都显示出了它对政治、物理、历史、计算机科学、医学和哲学等不同领域的理解,同时还结合了自己的知识。

“在所有我认为它做不到的事情中,它能够做到许多,即便不是大多数。”微软AGI研究论文的第一作者塞巴斯蒂恩·布贝克(Sébastien Bubeck)。

批评声音

一些AI专家认为,微软的这篇论文是一种投机取巧的行为,目的是对一项没有人能完全理解的技术作出大胆声明。研究人员还认为,通用智能需要熟悉物理世界,而GPT-4理论上不具备这一点。

卡内基梅隆大学研究员兼教授马丁·萨普(Maarten Sap)表示,“《AGI火花》是一些大公司把研究论文格式强加到公关宣传中的一个例子。他们在论文的引言中承认,他们的方法是主观的、非正式的,可能无法满足严格的科学评价标准。”

布贝克博士和彼得·李博士表示,他们不确定如何描述这个系统的行为,最终决定用“AGI火花”这个标题,因为他们认为这个名字会吸引其他研究人员的想象力。

由于微软研究人员当时测试的是GPT-4的早期版本,该版本没有进行微调以避免仇恨言论、错误信息和其他不受欢迎的内容,因此论文中的说法无法得到外部专家的证实。微软表示,目前向公众提供的GPT-4不如他们测试的版本强大。

有时候,像GPT-4这样的系统似乎模仿了人类的推理,但也有一些时候,它们看起来非常愚钝。“这些行为并不总是一致的。”微软研究负责人埃斯·卡玛(Ece Kamar)说。

加州大学伯克利分校AI研究小组的心理学教授艾莉森·戈普尼克(Alison Gopnik)认为,像GPT-4这样的系统无疑是强大的,但尚不清楚这些系统生成的文本是否像人类推理或常识这样的结果。

“当我们看到一个复杂的系统或机器时,我们会赋予它人格化。每个人都这样做,不管是在这个领域工作的还是不在这个领域工作的,”戈普尼克博士表示,“但是,不断拿AI与人类进行比较,就像某种游戏竞赛节目一样,这并不是正确的思考方式。”凤凰网科技《AI前哨》对此将持续关注。

0000
评论列表
共(0)条