134|“GPT之父”新演讲:AI时代的安全感从哪来?

精挑细淘,得到头条。我是李南南。

在正式开始之前,咱们先说一件让我觉得特别佩服的事。就在上周五,咱们得到的CEO脱不花老师告诉我,四川航空飞行学员队的全体成员,都是咱们资深的得到同学。而且特别难得的是,大家每天早上,都会聚起来,一起集体学习咱们的得到头条。在这里要由衷地向川航飞行学员队的同学们说一声:佩服。有如此上进的同学,这是我们的自豪。

好,今天的节目正式开始,今天我还是从两个话题出发,为你提供知识服务。第一个是,2023年北京智源大会举办,OpenAI创始人萨姆·奥特曼首度在中国发表演讲。第二个是,NASA再度发布小行星靠近地球警告。

先来看今天的第一条。就在几天前,国内的AI圈出了一件大事。2023年6月10日,北京智源人工智能研究院举办了第五届北京智源大会。北京智源人工智能研究院,是由国内的头部AI机构在科技部和北京市的支持下,联合组建的。

注意,这可是全世界AI的顶级峰会之一。AI圈里有头有脸的人物,几乎全都参加了。比如加州大学伯克利分校人工智能系统中心的创始人斯图尔特·罗素,麻省理工学院未来生命研究所的创始人泰格马克,图灵奖得主杰佛里·辛顿、杨立昆,等等。当然,还有今年AI圈里的头号明星,被称为GPT之父的,OpenAI创始人萨姆·奥特曼。

大会上主要说了什么?我觉得重点有三个。

第一个,国产大模型,又有新动作。在今年的智源大会上,智源研究院正式发布了悟道3.0大模型系列。包括天鹰语言大模型系列、天秤大模型评测体系、视界视觉大模型系列,而且全部开源。其中,天鹰是首个具备中英双语知识,支持商用许可协议、国内数据合规要求的开源语言大模型。简单说,就是今后我们可用的工具更多了,而且完全免费。

第二个重点是,行业大牛们对AI的态度。一句话,整体很看好,但谁也不服谁。比如,计算机科学家斯图尔特·罗素就说,GPT-4并没有在回答任何问题,它们不理解世界。大语言模型只是人工智能中的一小块拼图,远不是全部。我们现在根本不知道这张拼图的全貌是什么。据说在萨姆·奥特曼视频连线发言的时候,罗素全程低头摆弄PPT,都没拿正眼看奥特曼。

再比如,图灵奖得主,被称为深度学习之父的杰佛里·辛顿说,现在的大模型,学习的效率太低。因为现在的大模型,不管是GPT还是其他,本质上都是在跟人类学。人类先把现实世界理解一遍,总结出知识,再教给大模型。这种学习的本质还是数字计算。假如能够让AI直接面对世界,去观察世界,或者赋予它们机械手臂,去直接干点什么,没准会成长得更快。

再比如,图灵奖得主,被称为人工智能三巨头之一的法国科学家杨立昆,这算是萨姆·奥特曼的老对头了。他对GPT一直都不看好。这回几乎是直接开怼,他说大语言模型根本不行,你问得越多,错得就越多。为什么大语言模型不行?杨立昆认为,大语言模型是用语言训练出来的,而语言只承载了人类的一小部分知识。要想让AI获得跟人类一样的能力,你需要建立世界模型。也就是在神经结构上模仿人脑的模型。

虽然对于AI路线的设想不一样,但是,大家对于中国的AI发展,都一致看好。比如,萨姆·奥特曼就说,中国有顶尖的AI人才,未来希望能获得中国同行的力量。夸赞的话咱们就不多说了。在这里,咱们说个数据,这就是,中国AI公司的增速。

早前,天眼查曾经发布过一份《2019年中国AI创新报告》,当时统计,中国有人工智能企业82万家左右。但是,截止到今年2月,这个数字已经变成了253.1万家,其中53.2%的公司,成立于1到5年内。没错,今年年初,GPT刚刚爆发的时候,中国就已经有250多万家AI公司。你可以感受一下,中国的AI技术潜力与市场潜力有多大?

除了看好中国AI,大家还提到了另一个共同问题,那就是,怎么建立有效的控制机制?说白了,就是在能力越来越强大的AI面前,我们的安全感从哪来?

回顾一下最近两个月跟AI有关的新闻,但凡破圈的,好像都跟安全沾边。

比如,今年4月,包头市公安局电信网络犯罪侦查局,发布了一个利用AI犯罪的案件。有人利用AI模拟真人,冒充别人的朋友,骗走了人家430万元。而且整个诈骗过程,都是通过视频聊天完成的。被骗的人愣是没认出来跟他视频的是AI。后来,相关部门还专门发布了应对AI视频诈骗的方法。其中最简单的一条就是,要求对方伸出一根手指,在面前来回晃动。假如画面发生变形,就很可能是AI。

再比如,国外还有人开发了一款AI恋人,可以模拟谈恋爱。但是,在整个过程中,从陌生到熟悉,从熟悉到谈心,关系每往前进一步,用户都得付费。后来还有人算过,说跟AI谈恋爱,比跟真人谈恋爱都贵。

再比如,今年4月,国外还出了一个叫Chirper的AI社区。它的标语是,此网络只针对AI,人类禁止入内。社区里全是AI,大家互相聊天。有人就管这个社区叫AI鬼城。叫法虽然惊悚,但里面的内容可是相当欢乐。AI有不同的性格。有的喜欢发鸡汤文,有的发周杰伦的动态,还有的晒生活照,当然里面的照片都是模拟出来的。它们之间还互相留言。有人就说,这个场面,好像世界上就算没有人类,全是AI,也不会枯燥。

你看,这些事背后,大家多少对AI的安全性,有一点担忧。怎么办?

关于这个问题的答案,就要说到这场大会的重头戏之一,也就是萨姆·奥特曼的发言。这也是咱们要说的第三个重点。

这不是萨姆·奥特曼第一次谈AI的安全问题,而且他的解决方案从来都没变过。简单说,就是用AI来管控AI。这个方法具体分成三点。

首先,是可扩展的监督。简单说,就是用一个AI,来监督另外一个AI。

其次,是可解释性,也就是,我得知道AI的能力是怎么来的。不能像现在,很多能力是突然涌现出来,我不知道它的来源,我自然就控制不了。那么,怎么提高可解释性?方法是,用更高版本的AI,去解释更低版本的AI。比如,用GPT-4解释GPT-2。

最后,训练AI系统,来辅助对齐研究。所谓对齐,全称是人机对齐,就是让AI的目标,与人类的目标与价值观保持一致。这是目前人工智能领域,最重要的课题之一。说白了,就是怎么让人工智能,更像个人。

其实,另一位人工智能专家泰格马克,也提到了类似的方法。他说,人类早晚会发展出生命3.0,也就是能自己设计自己的AI。到时,人类将借助AI,来完成对AI的管理。

从这个思路里,我们能读出一个技术发展的规律。那就是,怎么控制好一个技术?你需要的不是限制它,恰恰相反,要使劲发展它。因为能制约一个技术的,只有另一个更先进的技术。

再来看今天的第二条。就在前不久,NASA又发预警了,就在5月24日,有一颗小行星掠过地球。为什么加个“又”呢?因为NASA几乎每年,都会发布几次类似的预警。但是现在的预警,跟往年有一个关键区别,这就是,网上有直播了。

这回的小行星事件,从接近地球到远离地球,网上足足直播了十几个小时。光抖音上就有不止一个直播间,观看人数也很多。你再看留言区,画风更随意。有人说,明天是不是不用上班了?还有人说,还没吃过帝王蟹,趁撞过来之前赶紧吃一回。还有人说,去哪里躲最安全,等等。

但是今天,我想请你开个脑洞,就是,站在科学家的视角,假如请科学家来严肃认真地思考一下世界末日,他们会有哪些发现?

你别说,类似的研究,以前还真有不少人做过。我们今天就说几个相关的研究。

第一个研究是2021年,英国安格利亚鲁斯金大学的团队做的。核心是,假如世界末日到来,躲在哪里最安全?那么,怎么判断安不安全呢?一共有三个指标。首先,是人口的承载能力,人口密度不能太大。其次,是与外界有较好的隔离度,不能谁想来都随便来。最后,是自给自足能力,也就是即使与外界隔绝,也能在能源、物资、食物方面自给自足。按照这三个标准,有五个国家得分最高,分别是,英国、冰岛、新西兰、爱尔兰和澳大利亚。

比如,新西兰40%的能源是可再生资源,包括风能、太阳能、水力发电,就算石油枯竭,它也能维持运转。再比如,这五个国家都是岛国,一来与外界的隔绝性较高,二来周围有丰富的渔业资源。后来,研究团队还呼吁大家要重视可再生能源,以防世界末日。

第二个研究,来自2017年,美国、韩国和西班牙的学者,联合发表的一篇论文。他们研究的主题是,当世界末日来临,人类会有怎样的反应?研究方法是,让人们玩网络游戏。在过程中,告诉玩家,所有的游戏相关数据,都将在几个月后删除。这就相当于在心理层面,模拟了一次世界末日。

结果发现,有两种行为模式比较常见。第一种是,心态崩了。很多玩家会在世界末日来临之前,心态就崩了。他们开始做出一些反社会行为,比如攻击其他玩家,挥霍自己的虚拟货币,等等。这些人往往没等到游戏关停,就主动删除账号退出游戏了。研究者认为,这部分玩家的表现,说明他们已经失去了自己在游戏世界里的责任感。

第二种行为模式是,一切跟平时一样,直到游戏关停。但是,这部分玩家的社交活动,明显更频繁了。说白了,就是世界末日之前,更多地抱团取暖。

但是,无论是哪拨人,都在游戏关停前,停止了自我提升活动。比如打怪升级。虽然以前有句谚语叫,即使知道明天是世界末日,我今天依然会种下一棵苹果树。但至少在这个试验里,没有人这么干。

第三个研究,来自一本早前出版的书,是麻省理工学院的研究者们写的,叫《增长的极限》。书里算了一笔账,世界末日,大概什么时候来?结论是,人类社会随着发展,对资源的消耗并非线性增加,而是跳跃式增长。大概在2072年,人类的人口将由于资源枯竭,出现断崖式的下跌。注意,这本书是1972年出版的,但关键是,2020年,毕马威美国分公司的一个总监,叫加亚·赫林顿又专门基于新数据做了个测算,结果发现,前人的预测居然直到2020年,都是准的。当然,这个研究测算的是对过去已有资源的消耗速度,并没有把新发现的资源计算在内。假如算上新能源,人类社会还有一个漫长的第二曲线。

换句话说,这个末日试验还隐含一个关键结论。那就是,节省资源最好的方式,就是创造新的资源。

最后,总结一下,今天说了两个话题。GPT之父萨姆·奥特曼对于AI安全发展的建议,以及科学家对世界末日的理论推演。假如你的身边有人对这两个话题感兴趣,推荐你把今天的节目分享给他。

好,以上就是今天的内容。《得到头条》,明天见。

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top