473|山姆·奥特曼罕见长文:不怕AI强,就怕AI不正常

精挑细淘,得到头条。我是李南南。

这周,OpenAI联合创始人山姆·奥特曼的一篇长博客刷屏了。这篇文章的标题是《智能时代》。全文翻译成中文,不到1900字,信息量其实不算很大。但因为说的人是奥特曼,在AI领域身份举足轻重,因此媒体报道得很多。

原文在网上很容易查到,咱们就不重复了。假如只抓住一个重点,请你记住一个词,叫ASI,也就是,人工超级智能,也叫超级智能。

这个词为什么重要?因为这也许意味着AI领域的议题正在发生转变。我们可以把AI领域的议题分成三个阶段,ChatGPT之前,是AI阶段。AI,也就是人工智能。当时人们对它的设想是,能够完成一些人类的特定任务。注意,是特定任务。在这个时期里,AI和自动化之间的界线是很模糊的,很多人都把自动化当成了人工智能。比如,自动洗碗机、自动驾驶、自动加湿器,这些本质上是自动化,而不是严格意义上的智能化。

而第二个阶段,是ChatGPT爆火之后,也就是2022年底到现在。人工智能领域的核心议题变成了AGI,也就是,通用人工智能。意思是,能够具备人类的普遍思维能力,并且在各方面都很接近人类的人工智能。

而第三阶段,就是现在,也就是奥特曼这回说的ASI,超级智能。意思是,在任何任务、任何领域、任何专业,都远超人类能力的人工智能。

用奥特曼文章中的原话说,我们距离超级智能可能只有几千天。也许实际时间会更长,但我坚信我们将会达成这个目标。

其实,ASI和AGI,这两个概念是有很多重合的部分的,也经常有人把这两个词混用。但是,奥特曼这回把ASI直接拿到明面上,并且专门写了一篇长文,这个事还是值得留意一下的。

那么,奥特曼具体说了些什么呢?昨天,快刀青衣老师在得到App的《AI学习圈》里专门做了解读。接下来,咱们就结合快刀青衣老师的观察来说说。

关于这回奥特曼的文章,有这么两个重点。

第一,奥特曼坚定地认为,AI一定会加速发展,人类能力将因此显著提升。在接下来几十年里,我们能做那些被祖父母视为魔法的事情。

这个观点乍一听好像不新鲜,但我们得知道,这话是对谁说的。在AI领域,存在两个观点流派。一个叫降临派,他们的主张是,应该坚定地发展AI。所有设想中可能出现的问题,一定会随着AI的发展,被自然而然地解决。另一派叫超级对齐派。他们认为AI可以走得慢点,但是,必须跟人类的步调保持一致。假如AI发展太快,就得停下来等等人类。

而山姆·奥特曼,算是降临派的代表人物。他这回的文章除了表达自己的观点,也是在向另一个派别喊话。当然,这回奥特曼的文章,依然有不少人提出了反对意见,比如,有位科技媒体的记者,叫萨拉·佩雷斯,她就说,奥特曼有点夸大其词,人工智能并不像奥特曼说的那么切实有效。

但是,回到奥特曼本身的观点,他确实是有一套自洽的逻辑,叫,你担心的很多AI引发的问题,都需要靠发展AI解决。这就类似于,你不敢登高,解决办法不是远离登高,而是尽量多登高。登高次数多了你的问题就解决了。

比如,有人担心AI多了会抢走人类的工作。但奥特曼说,AI除非不发展,要想造福人类就必须得多。假如AI变成一种非常有限的资源,可能会引发战争,并且在很大程度上成为富人的工具。这个思路再延伸一步,很多人怕AI代替自己,但按照奥特曼的视角,在AI面前,你跟你的老板是平等的。他可以炒了你雇AI,但你也可以炒了他,然后成立自己的AI公司。毕竟,雇AI要比雇人简单多了。

用奥特曼的话说,未来每个人都可以拥有一个自己的人工智能团队,里面有各领域的虚拟专家。他们共同协作,创造出我们能够想象出的任何事物。我们的孩子将拥有个性化的虚拟导师,我们可以开发任何人能够想象的软件,等等。

总之,奥特曼认为,AI能够带来普遍的繁荣,前提是,它必须得足够多,成本得足够低。借用他的原话,他相信未来将会是光明的,只是现在无人能用文字准确地描述它,但智能时代的一个特征就是,巨大的繁荣。当然,奥特曼也提到了AI可能带来的问题。但总体上,他还是非常乐观的。

第二,深度学习有效。这其实是在肯定目前的技术路径。我们都知道,这一轮AI的底层支撑,是大模型,从早期的大语言模型,到后来的多模态。总之,这个技术路径的基本逻辑就是,AI是可以像人一样通过学习实现成长的。你给AI学习的东西越多,它就越厉害。

用奥特曼的原话说,深度学习取得成功,随着规模的扩大,可以预见它会变得更好,我们为此投入了更多资源。无论我花多少时间思考这一点,我都无法真正内化它的重要性。

总之,在奥特曼看来,目前的AI发展,至少以OpenAI为代表的大模型以及深度学习路径,从技术、社会、文化,任何一个层面上看都是正确且可行的。

好,奥特曼这回的原话,以及原话前前后后的背景信息,咱们算是交代完了。接下来,跳出这篇文章,我们说说延伸的思考。

咱们主要回答一个问题。AI看起来明明挺好用的,为什么每回提到AI,总有人担心呢?其实,假如看奥特曼前前后后的发言,以及这个领域其他专家的观点,我们能发现一件事。他们真正担心的,不是AI强,而是AI不正常。

注意,强和正常,这是两个维度。

比如,你让AI去做曲别针,它费劲巴力,一天才做出来100个,你可以说这个AI不够强,它很弱。但是,它是正常的。

但是,假如你让AI做曲别针,它效率极高,而且穷尽一切手段,先用光了地球上的金属,紧接着杀死所有人类,从人类身体里提取元素做曲别针,最后开始毁灭其他星球做曲别针。没错,这个AI很强,但是它,不正常。

注意,这个曲别针的思想实验可不是我随口编的。它来自一位牛津大学的哲学教授,叫尼克·博斯特罗姆。而且特别巧的是,山姆·奥特曼说的ASI超级智能,最早提出这个概念的人之一,就是这位博斯特罗姆。他之前还写过一本书,书名就叫《超级智能》。

山姆·奥特曼和博斯特罗姆都认为,AI真正的隐患不在于它强,而是它不正常。就像电影里,我们可以把角色分成三类,好人、坏人、不正常的人。最可怕的其实是第三种。

站在这个视角,我们就能明白很多AI领域正在做的事了。这些事的目标不是为了证明AI强,而是为了证明AI正常。

比如,今年上半年,全世界的第一次AI选美举办。参赛的选手都是AI数字人,四个评委里面,也有两个是AI。其实,用AI做出漂亮的数字人,这个技术早就不新鲜了。而这个活动的初衷之一,不是为了证明AI有多强,而是想论证它是正常的。从审美到价值观,跟人类大体一致。

再比如,前段时间,还有人讨论AI的善恶。关于这个问题,咱们可以开个脑洞。

之前作家倪匡曾经写过一个故事,叫《合成》。说的是一对科学家夫妇,两个人是社会上的楷模。学识极高,而且人品很好,经常参加慈善活动。

这对科学家夫妇就想,假如世界上多一些好人,那么世界岂不是更美好?怎么让人变好呢?这对科学家认为,可以通过改造人的大脑。于是,为了验证这个猜想,他们就抓了一个流浪汉,给这个流浪汉做了开颅手术,并且仿照自己的大脑,去改造这个流浪汉的大脑。最终,手术很成功,这个流浪汉的大脑被改造得和科学家一模一样。

但是,到这步,问题出现了。这个流浪汉非但不善良,而且非常狡诈残忍,还偷偷杀了人。

这是实验失败了吗?难道流浪汉的大脑没有被改造得和科学家一样吗?并不是。问题恰恰出在,手术太成功了。流浪汉的大脑真的和科学家一模一样,问题就出在这。

你看,假如一个科学家,能为了自己的研究去抓一个无辜的人,并且强迫这个无辜的人做开颅手术,你觉得这个科学家到底是善良还是残忍呢?而这个流浪汉,只是在复制科学家大脑的同时,也复制了这份残忍。

这个故事虽然是虚构的,但是,我觉得它很像是关于人工智能的一个思想实验。假如人是仿照自己大脑的方式,构建了人工智能。那么人工智能是好是坏,可能就不受控制。就像我们经常用在教育领域的一句话,孩子不会成为你想要的样子,他只会成为你的样子。同样,假如人工智能有人品这一说,那么它是好是坏,取决于人类这个物种本身是好是坏。

好,关于这个话题,咱们先说到这。抛开思想实验的部分,回到现实,假如你想了解更多AI领域的前沿进展,掌握更多切实有效的AI技巧,在这里,还是向你推荐快刀青衣老师在得到App的《AI学习圈》。这也是我目前最依赖的,学习AI知识的渠道,推荐你也来看看。

好,以上就是今天的内容。《得到头条》,明天见。

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top