山姆-奥特曼被炒的真正原因:是Q星吗?

内容简介:

上个月openai的“宫变”,董事会逼迫现任的CEO 山姆 奥特曼下台。

这篇文章解释了一种可能性:openai内部可能出现了对人类有威胁的人工智能—通用人工智能(AGI)。

通用人工智能(AGI):又称为强人工智能,它有人类的理解力和自主意识,是一种理论上的AI,也是人类的理想。

专门人工智能(Narrow AI):又称为弱人工智能,能处理特定的任务,但是它的能力仅限于训练数据的范围。不能在未经训练的领域做事。ChatGPT属于专门人工智能。

原作者Thomas Smith,发布于medium。叶赛文编译。


正文

今年早些时候,OpenAI的CEO萨姆·奥特曼在Reddit上发了一个五个字的帖子,引起了科技界的轰动:“AGI已在内部实现。”

AGI是指人工通用智能,是AI研究的终极目标。真正的AGI将是一种类似大脑的智能,能够进行推理、创造性思考,甚至可能具有意识。

奥特曼关于实现AGI的帖子是个大新闻 — 这就像顶尖科学家发布“核聚变有效”或唐纳德·特朗普发布“我不参选”一样重要。

不过,奥特曼后来说这只是个玩笑。但围绕他最近被解职的争议使人们对此产生了疑问。

据报道,在奥特曼被解职之前,OpenAI的董事会被警告说有一个重大突破。泄露的文件显示,这一发现与一个代号为”Q星”的新模型有关。

OpenAI真的实现了AGI吗?Q\星是什么,它对AI的未来意味着什么?让我们来探索一下。

基础数学的重要性

我们所知道的关于Q*(发音为Q星)的信息大多基于路透社的报道。这家新闻机构采访了几位OpenAI的匿名消息来源,并获得了关于这一新突破的内部文件,包括一封秘密信件,寄给了公司董事会的顶级科学家。

报道揭示,Q星在内部引起轰动,因为它能做到之前没有大型语言模型能做到的事情:基础数学。

乍一看,这似乎没什么大不了。自20世纪50年代以来,简单的计算器就能进行基础数学运算。但是,通过大型语言模型(或者Q星可能使用的任何架构)实现这一里程碑,实际上是个巨大的突破。

斯莫伦斯基的解决方案确实有效

当我在约翰霍普金斯大学学习认知科学时,我的导师是名叫保罗·斯莫伦斯基(Paul Smolensky)的教授。他曾和一位竞争对手学者就认知的本质进行了令人震惊的(至少在学术界是这样)热烈辩论。

这场争论愈演愈烈,以至于他的对手发表了一篇标题为《为什么斯莫伦斯基的解决方案不起作用》的论文,几年后又发表了一篇《为什么斯莫伦斯基的解决方案仍然不起作用》的论文。

真是尴尬。

那么,斯莫伦斯基解决方案(Smolensky’s solution)是什么呢?基本上,他试图解释人类大脑——我们知道它由相互连接的神经元组成——是如何能够进行象征性推理的,比如进行数学运算。

象征性推理通常需要二进制计算机——一种能够接收信息并系统地处理它的计算机,产生一个单一的、确定性的、正确的答案,这个答案永远不会变。

但大脑并不是这样工作的。它们基本上是一团杂乱的电线。那么,它们是如何像计算机一样行动的呢?

斯莫伦斯基提出,人类大脑确实是一团杂乱的电线,我们利用这些连接的自由流动本质来进行不需要精确度的事情,比如创造性推理,甚至是视觉。

然而,当我们需要进行象征性推理时,斯莫伦斯基提出我们的杂乱电线能够以某种方式实现一个象征性的“虚拟机”。

基本上,我们的神经元可以在需要时调用一个能够使用符号并得出确定性答案的虚拟计算机。

关键是,这个虚拟计算机仍然运行在相互连接的神经元这样的同一神经硬件上。然而,它能够像二进制计算机一样行动,执行传统神经网络难以正确完成的操作。

Q星和Q大脑

如果路透社的报道是正确的,它表明OpenAI可能已经创建了这样一个混合系统,使用硅和计算机芯片代替神经元和生物电线。

Q星据报道能够进行象征性推理——即使目前只是在非常低的水平上——这表明它可能已经成功开发了斯莫伦斯基所提出的那种连接主义“虚拟计算机”。

就像人类大脑一样,这将赋予新模型以直观和创造性的方式进行推理的能力(使用其“一团杂乱的电线”,就像今天的大型语言模型(LLMs)所做的那样),但也能够切换到象征性推理模式,解决具有单一正确答案的问题,如数学问题。

因此,进行基础数学运算的能力并不真正是OpenAI突破的关键所在。相反,一个基于神经网络的模型据说已经发展出这种能力,这表明该模型在模仿人类大脑的基本能力方面迈出了重大一步。

这种飞跃可能是让OpenAI的董事会感到恐惧的原因。如果Q星已经在更类似大脑的架构方面迈出了重要一步,这表明随着它的扩展,它可能会发展出与人类大脑类似的其他能力。

对于AI末日论者来说,这足以让他们失眠——或者是导致一位受欢迎的CEO被惊慌地解职。

不会导致世界末日

与那些末日论者的担忧相反,Q星可能不会导致世界末日。即使该模型实现了之前仅限于人类大脑的突破,这并不意味着它超级智能、有意识,甚至达到AGI的水平。

如果报告是正确的,这意味着OpenAI可能又在创建有用AI方面迈出了一大步,领先于竞争对手。

一个能够以直观和象征性的方式进行推理的模型,在自然语言处理、药物发现和数学等领域将是极为重要的。这些领域需要创造力和逻辑的结合,目前的LLMs在这方面还难以做到。

例如,理解语言需要理解含义,但也需要掌握确定性的基础知识,如语法。

今天的LLMs可以基于统计数据理解语言,预测给定文本中可能存在的词汇。但它们并没有真正理解所有人类语言所拥有的底层象征性逻辑,或者导致意义的相互联系网络。

如果Q星确实能够融合象征性和直观推理,它可能能够将文本分解成其构成的语法部分,完全理解上下文,然后创造出与其训练数据没有统计关系的全新文本或想法。这将赋予它巨大的创造力。

同样地,一个既能理解蛋白质折叠等过程的确定性数学,又能理解人体功能的更直观方面的系统,可能会以极快的速度发明出新的、有用的药物。

即使Q星存在,它可能还需要一段时间才能准备好面向公众。就像这样的系统可能会革新药物发现或创意写作一样,它也可能擅长发明生物武器或制造令人信服、难以察觉的宣传。OpenAI需要在Q星等类似系统公开之前,解决这些风险。

然而,如果关于Q星的报道是准确的,它们表明奥特曼在他那充满谜团的Reddit帖子中暗示AGI时,并不只是在故作神秘。

AGI可能还没有到来,但像Q星这样的系统将是朝着功能更像人类大脑的AI迈出的巨大一步。这将使它成为朝着能够像我们人类一样推理和创造的通用智能迈出的巨大一步。

全站侧栏

近期文章

发表评论