人工智能如此厉害,这个世界还会好吗?

2017-10-23 · 作者:崔飞良

[导读]阿尔法狗完胜人类,人工智能如此厉害,未来机器人会有思想吗?未来人工智能会毁灭人类吗?

129707837.png

去年阿尔法狗与韩国职业九段棋手李世石几场的人机大战,亮瞎了多少人的眼,哪怕你是一个纯24k钛合金狗眼。今年在中国乌镇围棋峰会上,阿尔法狗以30的总比分战胜排名世界第一的柯洁再次惊艳人们的眼球,不禁让人想到了一场全球人工智能革命即将到来。未来并不遥远,至少今天改变了一个成语:狗眼看人低——至少在围棋上,我认为人和阿尔法狗实在是不可同“眼”而语。所以问题来了,人工智能如此厉害,这个世界还会好吗?

其实探讨这个世界还会好吗,不应该是一个科学上的问题,而是一个哲学上的问题。尽管这个问题是由科学的人工智能引发的,但是人工智能始终离不开他的上帝——人类。不管人工智能的未来如何,这个世界始终是人类创造的。由此观之,虽然我不是一个大家,但我看出了大哲学家梁漱溟认为这个世界是会好的。

不可否认,任何一个科学技术最初的初衷都是为了服务人类。因此人工智能越发达,人类的生活就会变得越来越美好。这无疑是最大的利,就像一卡通、银联、手机支付等让人们的生活越来越便捷、轻松一样。但人工智能未来的发展,最直接的影响将导致大多数人下岗失业。只要脑洞再大开一点点,我们还可以想到将来智能的机器人会控制人类。这些后果和服务人类的初衷又是背道而驰的,不过这不是人类主观意愿上的背道而驰。如果因为大量人员的失业就不开发人工智能,那么这个世界固然还是美好的。如果担心机器人会控制人类就不发展人工智能,那么人类现在就已经被机器人控制了。比如每天人生活里离不开的手机、电脑、洗衣机、空调等。

如今人类越来越依赖人工智能了,但人工智能会不会威胁人类呢?这不是一个科幻小说,不是科学与技术能够解决的,但是哲学能回答这个问题。

1950年人工智能之父图灵写了一篇论文《计算机器与智能》,他提出如果电脑能在5分钟内回答由人类测试者提出的一系列问题,并且其超过30%的回答让测试者误认为是人类所答,则电脑通过测试。即是说机器通过了这个测试,意味着机器是会思考的,我们就应当承认它是有思想。有思想的机器人,多么可怕。正如流氓不可怕,就怕流氓有文化;机器人不可怕,就怕机器人有思想。因为一旦机器人有了思想,它一定会威胁人类的。

上个世纪80年代,美国哲学家约翰·希尔勒提出了一个中文房间的实验,以此来推翻人工智能过强的主张。其实验是在房间里有一个不会说中文的人,即他不能够用中文去思考。但他拥有某些特定的工具,他甚至可以让在房间外面以中文为母语的人以为他能流利的说中文。其实人工智能就是这样工作的,它们无法真正的理解接收到的信息,但它们可以运行一个程序,处理信息,然后给人类一个智能的印象。因此中文房间的实验又充分说明了人工智能不是真的思考,机器人是不会有思想的。

然而,21世纪的人工智能有了根本性变革。现代的人工智能最重要的特征是有了学习能力,即机器能根据以往的经验来不断优化自己的算法。通过学习,优化算法,人工智能变得越来越聪明了。所以未来的人工智能可以轻松通过图灵试验的测试,不过人工智能有了学习的能力就可以说它们真有思考了吗?或者说,它们依然还是哲学家的中文房间呢?

7427ea33bc741812ae1159.png

仔细想想,发现有一个名言:人类一思考,上帝就发笑。如果有了学习的能力都不是思考,人工智能也会偷笑。这不是玩笑。如果这个世界有人能够接近上帝的智慧,这个人必须是机器人。人工智能的中文房间假象毕竟只是哲学家的想象,真相是算法。

算法又是什么呢?一般数学不好的人,难以理解算法之神奇。不过这也不重要,重点看疗效。即是算法能够做什么,可以解决什么问题。其实人工智能的疗效就不用广而告之了。它要么不做,要么做到最好。行行出状元是对人工智能算法最好的总结。所以它能做的事情和解决的问题太多了。譬如最近热门的无人驾驶汽车、人脸识别。将来更是不得了,一部分公务员、教师,餐饮店员银行等各种服务员,股票投资、分析师,护工、保姆、农民工等职业都会被人工智能所替代,甚至有人还会和机器人谈情做爱。

历史学家赫拉利在《未来简史》里说:人生99%的选择,都是算法的结果。人的感觉、情感、欲望也不过是进化而成的算法。不过人工智能的算法和人的算法又是不同的。人的算法有好有坏,而人工智能的算法只有好的。人工智能的算法好比是人类制定的制度。一个好的制度可以使坏人变成好人,一个坏的制度使好人变成坏人。然而一个制度是好还是坏,却是由好人或者坏人来下定论的。因为一个制度从一开始被人制造出来,其目的毕竟是好的,起码最初的意愿不会往坏处去想——否则就不用等到使坏人变成好人了和使好人变成坏人了再来给制度下定义是好或是坏。于是一个制度最后让好人变成坏人了,我们就说它是一个坏的制度。所以说人工智能的算法本来是没有坏的。如果坏了,也是人坏了。从这个角度来看,难道又意味着人工智能是没有思想?

物理学家霍金预言,2040年人工智能犯罪率将大于人类。因为机器人的利用率越来越高,所以将来独立做案的恐怖袭击事件会大幅上升。如果机器人被非法份子利用了,成为自杀炸弹类的武器,将带来难以预料的后果。而最严重的后果,莫过于人工智能将毁灭人类。即使霍金的预言成真,只能说明了人类的毁灭,却不能证明人类是被人工智能毁灭的,更不能证明人工智能有了思想。

2017101美国拉斯维加斯赌场发生枪击事件,造成了58人死亡500多人受伤。这是美国历史上伤亡最惨重的枪击案。有多少人暗暗庆幸自己不是生活在枪支泛滥的美国,而又有多少人认为一个国家的枪支合法化是发生这样恐怖袭击事件的罪魁祸首。因此我们要取缔枪支的合法,但是我们要搞明白一件事:发生枪击案到底是枪在犯罪还是人在犯罪?这不是古代战国时期公孙龙的白马非马论,答案是显而易见的。枪支如此,霍金预言的人工智能也是如此。没有思想的人工智能是不会犯罪的,犯罪的是人。所以说人类不会被人工智能毁灭,是人类自己毁灭了人类。

8b251a4b55f84498b837bd1529f07c85_th.jpg

其实人工智能不会毁灭人类,是因为它必须建立在有了思想的基础之上。图灵测试对人工智能思考的认知有很大的启发。但是人工智能就算通过了人类100%的提问,我们也不应该就推断机器人会产生一个毁灭人类的思想。不过本人认为可以在图灵测试的基础上,改进一个测试方法,就是对人工智能测谎。人类通过对人工智能的测谎,既进一步测试了人工智能是不是真有思想,又能推断机器人会不会毁灭人类。因为一个会说谎的机器人,才真正是有思想的机器人,才有了毁灭人类的动机。

20171019,国际学术期刊《自然》杂志网站公布了一个突破人类思维束缚的报告。一个从零学起,在无任何人类输入的条件下,能够迅速自学围棋的阿尔法元,以100:0的战绩击败了阿尔法狗。之前人类用了几个月的时间去训练阿尔法狗才战胜了人类围棋世界冠军,而阿尔法元仅自学用了3天的时间就击败了阿尔法狗。不过这样的人工智能除了说明它自学的能力强外,还说明了什么呢?难道还应该说明将来人工智能会毁灭人类吗?正如柯洁所说,对于阿尔法狗的自我进步来讲,人类太多余了。尽管人类在地球上苟且偷生,但这个世界的游戏规则毕竟还是由人类制定的。因此我们对人工智能,需要树立一个正确的科学发展观。

今年有一部热播的电视剧《人民的名义》,剧里多次提到了小说《天局》。其说的是有一个棋痴,幻想自己与老天爷下棋,最后他用自己的生命作为棋子才终于胜天半子。正如电视剧里的祁同伟不甘心自己的命运被别人掌控一样,人类要掌握自己的命运,所以我们也要胜天半子。即使人工智能好比是一个数学家的世界三大难题之一歌德巴赫猜想,但是这个猜想在一个小说家的精神世界上就可以解决了。

不容置疑,未来的人工智能是天之骄子。如果人类幻想自己以下棋的方式去跟人工智能斗智斗勇,人类则会输得很难看了,甚至说死无葬身之地。

总而言之,我无比坚信。无所不能的不是上帝,而是人类。


如果喜欢文章,可以打赏作者。

打赏

+1
加载中...

相关推荐

评论文章

全部评论(0)

格式jpg品质60图片即可

推荐文章