王东岳的中西哲学启蒙课MP3音频全集

我们下面看人类武器的发展,大家知道人类文明的过程就是武器升级的过程。所谓武器就是人类自己集团性残杀自己的这么一个工具。它早年是冷兵器,以后变成枪炮之类的,以后变成坦克、飞机这样的装甲武器,以后变成核武器,一层一层升级。


大家一定要知道,人类的武器和战争升级有一个很奇怪的现象,就是上一次战争末使用的那个武器,一定是下一次战争一开端就使用的武器。


我给大家举例子,日俄战争以前,1904年-1905年,日俄战争在中国东北打响,日俄战争以前重机枪发明,每分钟一挺重机枪打出去六百发子弹。当时武器界的军事专家们认为这个武器没有任何实用价值,消耗太多的能源资源,消耗太大的火药和铜,所以认为它毫无意义。结果在日俄战争的时候,俄国人在旅顺口的阵地上摆了几挺重机枪,都不瞄准对象扫射,建立火力网。一个机枪朝这个角度打,一个机枪朝这个角度打,而且高次都发生分离,谁都不瞄准敌人,只建立一个火力网,导致在旅顺一个山坡上死伤日本军队五万人以上,这是日俄战争的已使用的武器。


随后就是第一次世界大战最主要的武器机枪、火炮,以至于战争双方谁都不敢抬头,大家都挖战壕对峙,长达四年的建壕战。第一次世界大战临近结束,坦克和飞机出现。


大家知道最初出现的坦克为什么叫坦克?大水箱的意思。每小时行进速度只有五公里,极为笨拙。飞机最早是木制飞机,飞行员各自掏出手枪互相射击,就这么糟糕的武器。第一次世界大战后期出现,大家想想第二次世界大战刚一开局是什么?希特勒的闪击战,坦克集团化,飞机在上面形成立体战争,形成第二次大战的开局。


大家再想第二次世界大战是怎样结束的?美国给日本扔两颗原子弹结束的,所以我们可以料定,下一次世界大战刚一开始,就是大家互扔原子弹。请大家注意,很多人认为包括现在军事界有一个理论叫“恐怖平衡”,说是大家谁都不敢扔原子弹,用了原子弹没有赢家,因此以后不会有大战争。


别搞错,我给大家看一个例子,1898年,波兰一个银行家叫Ivan Bloch,作为业余军事学家写了一本书,书名叫《未来战争的技术经济和政治诸种方面》。


请注意1898年,他准确的预言后来第一次世界大战的建壕战,并且说明如果将来要发生战争,一定是持久消耗战,并且由此引发社会政治革命。大家看他预测得有多准,第一次世界大战是堑壕战,是持久消耗战,并且引发一系列社会革命——俄罗斯十月革命、德国魏玛革命。然后他在当时1898年预言,他说由于重机枪火炮出现,将造成恐怖平衡,我所预言的那一场战争将永远不会发生。结果仅仅不到二十年,第一次世界大战发生,它说明什么?


恐怖平衡不成立。历史上曾经就有过恐怖平衡的说法,结果恐怖不平衡,所以人类很快将面临核大战的格局。如果把地球上现在各国的核武器都扔出来,将造成整个地球核冬天,也就是爆炸的和灰尘将覆盖整个大气圈。即使你远离战场,你也逃不掉放射性污染的结局。


想想这个战争的前景是什么?所以孟子说“春秋无义战”,如果让我说,叫“天下无义战”,我们人类总觉得某些战争我们是正义的。大家要知道蚂蚁是有战争的。你读一下达尔文的书,你看着蚂蚁战争,你会说哪个蚂蚁是正义的,哪个蚂蚁是不正义的吗?


它只不过是一个生物学现象,人类的战争只不过是这个生物学现象更暴烈的发生。不管玩多少新概念,道德概念,什么正义不正义,其实“天下无义战”。它只能摧毁人类,而且确实行将摧毁人类。


要知道物理学家早都说过,如果得到浓缩铀,在上个世纪末,一个懂物理的人可以在街上买零件,就组装原子弹,所以核不扩散根本不成立,别说今天印度、巴基斯坦、朝鲜、伊朗要搞核武器,将来弄不好,人人手里有一个核弹,就像过去的高技术收音机之类的东西,今天中学生在家里就组装了,是一样的道理。所以人类危乎殆哉。


我们再看由科学技术引发的与文明并行的系统性危机。


我在前面一再讲科学创新,科学进步,每一步都是戕害。这些我现在都不愿意再重复,我把它这些话题都省略掉。我现在只谈一个问题,科学技术对人类造成的达到今天这个程度造成的可怕危局,我只谈三个例子:


第一,人工智能。今天关于人工智能机器人,它的发展究竟对人类是有利的还是不利的形成强烈争论。我先说一下人工智能研究方面或者预言方面,最著名的一个人叫库兹韦尔,他写过一本书,叫《奇点临近》。我建议大家有空读一下。


库兹韦尔预测,他说人类的人工智能技术经历三个阶段:第一,弱人工智能。我们今天就是弱人工智能状态,比如你的手机,你的汽车导航,这都是弱人工智能。他说随后进入强人工智能,所谓“强人工智能”就是机器的智能和人等一和人拉齐,叫强人工智能。再下一步叫超人工智能,就是机器的智能远远超过人。


库兹韦尔说,人类技术的生长是指数增长,对数学熟悉的人,你知道在坐标系上指数增长是怎样的一个曲线?因此他预测,人类从弱人工智能达到强人工智能,将在2045年达到,最多2065年达到,请大家注意,离我们现在只剩几十年。


他说按照指数增长强人工智能一旦达成,也就是机器一旦达成跟人的智能效率一样高的时候,它将只需要三个半小时就进入强人工智能。速度如此之高,这个指数增长就跟你叠一个纸,你越叠越厚,越叠越厚,等你最后这一叠顶到天上,所以它后面发展速度越高。


强人工智能是一个什么状态?机器人自己缔造更高智能的机器人,将会把人类跟机器的智能差距拉开十几个乃至几十个台阶。我简单说一下,智慧台阶,鸡比蚂蚁高一个台阶,猪和狗比鸡高一个台阶,猴子比猪狗高一个台阶,人比猴子高一个台阶,它居然在几个小时把它的智能拉开比人高几十个台阶。


它看你连猪狗都不如,也就是它在想什么你都不知道。这叫超人工智能。它居然是强人工智能在2045年到2065年之间达成后三个半小时将达成的效果。关于强人工智能对人类是一个什么威胁?


西方学界分成两派,65%的学者包括库兹韦尔,乐观派,认为人类从此进入永生和控制整个宇宙的时代,非常乐观。他说这是一个新的起跳的基点。35%,包括比尔盖茨,马斯克·霍金在这35%中,是悲观派。可是大家要知道,不管是乐观派还是悲观派,他们都是贸猜,他们都没有任何根据,他凭什么乐观,他凭什么悲观?


我们怎样评价它将是悲观还是乐观?我们必须有一个基础理论作为终极尺度。当递弱代偿原理这把尺子打造出来的时候,我可以断定它是悲观结局,也就是机器人一定对人类的存在构成巨大威胁。有人写文章非常生动,讲这种威胁可能怎样实现。


我引用他的故事,他说即使你给机器人下的是善意的指令,它也照样消灭你。这就好比你对头发并没有恶意,可你剃头把头发消灭,比如你给机器人下了一个指令,只是让它画画,最高效率的画画,它很快就会把地球上的纸张用完,它怎么办?它立即大规模借用地球上一切有机资源,包括人体造纸,它把你全做成纸了,它没有恶意,它是完成你的一个善意指令,可你玩完了。


有人很幼稚的说,机器人是我们自己制造的,我们把它插销拔掉,它不是就没电了吗?请你搞清楚,机器人可能在三秒钟就建一个新能源,它要拔你的电,而不是你拔它的电。有人说机器人是我们的造物,怎么会损害我们?请想想你是哪来的造物?


你是灵长目的造物,结果你把猴子现在快消灭光了,你何曾对你的祖先尊重过?大家想想,这个危机如果库兹韦尔预测得准,我们将在几十年以后,面对一个我们根本无法处理的天敌,比我们拿着火炮猎枪打猪还要简单。


想想那个危局是个什么局面?我再举个例子,我都不说生物工程人,基因编辑婴儿等等。我们只看生物技术的发展,今天在世界上成千个实验室在做单细胞基因工程和基因组建。大家知道任何单细胞就是我们所说的菌类,只不过细菌分致病菌和非致病菌。


我们人体的免疫系统是因为对地球上现存的病毒和细菌,有了几千年、几万年、几十万年甚至上百万年的接触,我们的免疫系统对它有效。大家知道,欧洲人发现新大陆,到美洲消灭印第安人,其实真正集团化用战争方式消灭印第安人,人数非常之少,而后来印第安人90%以上灭绝,主要原因是欧洲人带去了美洲不存在的细菌:  天花、鼠疫、霍乱等等。这些细菌在美洲原来是没有的,所以当地人没有这个免疫能力和免疫反应屏障,这造成印第安土著90%灭绝。


请想想我们现在整天在实验室里做的那个单细胞细菌工程,它在做什么?它在做地球上原本不存在的细菌,万一你做出来了一个居然是致病菌,你不小心试管打破了,冲到下水道了,它开始在地球上繁衍,而它居然是致病菌。它是自然界不存在的人造致病菌,换句话说,整个人类的免疫系统对它全然无效,它会带来什么结果?


灭绝性大瘟疫,不知道在哪一刻会突然发生。这是生物学家今天非常紧张的一件事情。这是生物技术。


爱智思享会微信

微信交流学习群:1198602971
【加入爱智思享会王东岳哲学社群】
【下方打赏获取东岳先生讲座全集】