哲学家眼中的人工智能未来

哲学家赵汀阳在他的新书《四种分叉》中,讨论了超级人工智能和人类未来的问题,非常宏大,但会给人启发。在接受《澎湃新闻》采访时,赵汀阳说,计算机思维是人的思维的一部分,是由人的思维派生出来的一种特殊算法系统。“计算机思维在本质上就是人的逻辑和数学思维,不过,目前的一些新进展似乎试图让计算机具备人的其它思维能力,比如自由联想、感知、学习甚至想象力之类,如果成功的话,那就越来越像人了。二者根本的差异在于,目前的计算机思维不可能对自身系统的整体性进行反思。反思自身系统是人的最高级能力。”

赵汀阳对人工智能的发展持有一种相对不乐观的态度。在《四种分叉》中,赵汀阳推导出超级人工智能彻底无视人类的价值体系,从而敌对人类的黯淡未来。赵汀阳说,如果人类能够形成集体理性,阻止人工智能研究上的越界冒险,人类就能阻止这种未来。 关键的界限是两个:第一,“人工智能的发展应该限于特殊的或专业的人工智能,不能发展具有全面综合能力的人工智能”,也就是人工智能专家所说的通用人工智能;第二,“不应该发展具有等价于人类反思能力的人工智能,即不能把人工智能设计成为能够对自身系统整体进行反思的全权自主智能。”赵汀阳说:“只要缺乏对自身系统整体的反思能力,人工智能就不会把自身升级为人类无法控制的超级智能存在。” 

只要人工智能没有发展成超级智能存在,那么人工智能就只是人类使用的工具。但是,如果仍然是一小部分人掌握着人工智能的利器,以目前的人性水平,结局仍然不会乐观。它可能带来三种结果:第一种是《未来简史》作者尤瓦尔·赫拉利讨论过的,手握人工智能的人类演变成“神人”,而其他人变成无用之人,是“专制的最后胜利”;第二种是控制人工智能的强者们互相争霸,人类像曾面对核战争威胁那样面对人工智能战争威胁,这是“帝国主义逻辑的可能结局”;第三种是最理想的状况,人工智能为所有人服务,而不是只为部分人。

特斯拉CEO埃隆·马斯克是人工智能威胁的主要提倡者之一。他的理由也是两个:第一是担心反对人类的超级人工智能出现;第二是担心人工智能技术会被类似于谷歌和Facebook这样的大公司垄断,所以他主张人工智能技术应该是开源的。虽然一个是科技企业家,一个是哲学家,但马斯克和赵汀阳的担心有类似之处。

| 周一到周日,每天零点更新,全年无间断 |

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top