英国专家梳理出了可能致人类灭绝的五大生存危机

21.07.2014  12:55
  英国牛津大学人类未来研究所的研究员安德斯·桑德伯格近日在美国《大众科学》网站撰文,为我们梳理出了可能致人类灭绝的五大生存危机。
  可能致人类灭绝的五大生存危机
  本报记者 刘 霞 综合外电
  
  
  
  
  
  人类未来的命运如何?人类会灭绝吗?这些问题或多或少都曾在我们的头脑中闪现过,但大多数人并没有对此进行深入探究,只是一笑而过。不过,还是有些人对此进行过深入的思考。
  比如法国籍犹太裔预言家就曾预言1999年是世界末日;英国科幻小说家赫伯特·乔治·威尔斯则发明了一种预测学并在其最著名的著作之一—《时间机器》中,详细描述了人类在公元802701年的境况,那时的世界产物富饶充裕,人类划分成了两种截然不同的生物。一种是娇小脆弱的埃洛伊人,悠闲地生活在地面上的豪华宫殿中,养尊处优、饱食终日,由于长期不劳作、不思考,智力和体力退化。另一种则是凶悍粗野、形如狐猴的莫洛克人,生活在黑暗的地下世界,整日在隆隆的机器旁劳作,养肥埃洛伊人供自己使用。
  除此之外,其他作家或出于戏谑、或出于警告,也描述了各种各样的人类未来以及可能让人类灭绝的生存危机。
  不管未来如何,我们都知道,人类始终面临着一些生存危机。这些生存危机不仅仅是巨大的灾难,而是有可能终结人类历史的灾难。
  过去数个世纪,我们已经发现或制造出了一些生存危机,但人们对其态度各异。比如上世纪70年代初发现的“超级火山”就让科学家们惊恐不已。据媒体报道,美国黄石国家公园就是一座沉睡了64万年的超级火山,其在过去210万年中,总共爆发过3次。科学家自1923年起,开始纪录火山隆起速度,单是过去3年每年就上升了7.6厘米,前所未见,恐怕会发生史上第4次爆发。若真的爆发,美国将有2/3的地区无法居住,航空交通瘫痪,数百万居民无家可归,植物也可能消失殆尽,会对人类造成灾难性的影响。
  而在“曼哈顿计划”之前,核战争也被认为是不可能出现的。
  有些危机我们根本无能为力,比如星系爆炸产生的伽玛射线暴等,伽玛射线暴发现于1967年,数十年来,人们对其本质了解得还不很清楚,但基本可以确定是发生在宇宙学尺度上的恒星级天体中的爆发过程,是宇宙中最剧烈的爆炸,如果强伽射线暴距地球在1000光年之内的话,辐射威力将足以摧毁臭氧层,对地球上的生命造成毁灭性的影响。
  而有些危机我们却可以扭转,例如,随着卫生系统或设备、疫苗、抗体的使用,瘟疫就从天谴转变为公众健康问题。未来可能还会出现此类大危机;而有些目前看起来很严重的危机,随着人类理解的不断深入,未来有可能消失。
  以下是有可能让人类灭绝的五大危机。
  一、核战争
  尽管迄今为止,只有两个核武器在战争中使用:二战期间,美国在广岛和长崎分别投下一颗原子弹;而且,核原料的囤积也从冷战期间的高峰值开始下降,但并不能因此认为核战争不会爆发,实际上,它并非不可能发生。
  不过,尽管两个超级大国之间全面的核战争会直接或通过其产生的后续影响导致数亿人丧生,但这并不足以使其成为一个生存危机。另外,核战争产生的放射物的危害也常常被过度夸大,这些放射物的确有可能导致当地人死亡,但从全球来看,还是一个有限的小问题。
  钴弹被科学家们看成是一种假象中的末日毁灭武器,其放射物所到之处无人幸免,但这种武器很难制造,且制造成本极其高昂。从实际的角度而言,它们几乎可以看成不可能出现。
  真正的威胁是核冬天。核冬天理论认为:当使用大量核武器,特别是对城市这样的易燃目标使用核武器,会让大量的烟和煤烟进入地球的大气层,使整个世界持续数年进入冰冷而干燥的冬天。原因在于:当核爆炸时,巨大的能量将大量的烟尘注入大气,有的还高达12公里以上进入平流层。由于核爆炸所产生的烟尘微粒有相当大部分直径小于1微米,它们能在高空停留数天乃至一年以上,对从太阳来的可见光辐射有较强吸收力,而对地面向外的红外光辐射的吸收力较弱,导致高层大气升温,地表温度下降,产生了与温室效应相反的作用,使地表呈现出如严寒冬天般的景观,称为核冬天。
  现代气候模拟表明,这种情况会阻碍全球农业的发展,持续时间可能长达数年,如此一来,数亿人可能会被饿死,最终只剩下少数幸存者,而这些幸存者可能又躲不过其他威胁,比如疾病的侵袭。主要的不确定性在于煤烟的表现:不同的煤烟产生的后果也截然不同,而且,我们目前还没有很好的方法对此进行评估。
  二、生物工程流行病
  从历史的情况来看,自然产生的流行病杀死的人比战争夺去的生命还多。然而,这种自然产生的流行病不太可能成为我们的生存威胁:有很多人对病原体有抵抗能力,而且,幸存者的后代的抵抗力会变得更强。另外,进化本身也不喜欢那些让其宿主灭绝的寄生虫,这也是为什么梅毒从致命的杀手变成慢性、系统性传播疾病的原因。
  但不幸之处在于,我们现在可以使疾病变得更严重。其中最著名的一个例子是将一种外部基因引入鼠痘(老鼠的天花病毒)内,这会使鼠痘变得更致命,而且,已经接种天花疫苗的人也会感染。最近对禽流感的研究也表明,一种疾病的接触传染性可以被显著提升。
  就现在的情况看,有人故意散播这种灾难的可能性很低,但随着生物技术变得越来越强大而且越来越便宜,或许有人会使疾病变得更致命。
  研究表明,生物武器和传染病爆发造成的死亡数量看起来呈幂律分布:大多数攻击造成的伤亡很少;但少量的攻击杀死了很多人。鉴于目前的情况,出现一种由生物恐怖主义引发的全球性传染病的风险似乎很低,但不要忘了,这是生物恐怖主义:政府杀死的人数远远多于恐怖主义用生物武器杀死的人数,第二次世界大战期间,日本的生物战可能就杀死了40多万人。而且,随着生物技术突飞猛进的发展,非常难对付的病原体可能更容易被设计出来。
  三、超级智能
  智力是一种非常强大的工具,正是解决问题和群组协调能力的些许增加使我们让其他猿类望尘莫及。对于人和生物体来说,聪明的确是一大优势,因此,科学家们一直在绞尽脑汁,试图提高个人和群体的智力,他们的研究成果从增强认知的药物到人工智能软件等,不一而足。
  由软件制造而成的智能系统可能很快会获得令人害怕的能力。原因在于,它能以不同于生物智能的方式升级:它能在运行速度越来越快的计算机上使用;零件能被分配到更多的计算机之上,不同的软件经过测试、升级并整合新算法后,其性能会获得重大的跃升。
  科学家们已经提出,当软件变得非常善于制造更好的软件时,可能就会出现所谓的“智能爆炸”(剑桥数学家杰克·古德和密码破译学家贝莱特谢力·派克曾为英国《新科学家》杂志撰写过一篇论文称,人类将在不久的将来建成超智能机器人,而这也是最后的发明,因为人工智能将导致“智能爆炸”。)要是这样一种技术上的跃升成为现实,智能系统(或者人们告诉它们做什么的系统)和其他系统的潜在能力将有天渊之别。
  但问题在于,聪明的实体都非常善于实现自己的目标,一旦这个目标设置得很不好,这些超级智能系统或许会使用其智力,给人类造成灾难性的后果。我们不能想当然地认为,智能系统自身就会表现得体或者遵纪守法,实际上,已经有研究结论证明,某些类型的超级智能系统如果真实存在,它们并不会遵守道德法则。
  四、纳米技术
  纳米技术是对拥有原子或分子精度的物质的控制技术。纳米技术本身并不危险,相反,它可以应用于很多领域,大力推动这些领域的发展。问题在于,纳米技术与生物技术一样,其能力不断增强的同时,其被滥用的危险也与日俱增,而这种滥用很难防范。
  问题并不在于众所周知的“灰蛊”。“灰蛊”是科学家们假想的由纳米技术制造的机器人,其能不断地自我复制,最终失去控制,消耗掉整个地球的资源,进而造成人类的灭绝。但这种纳米机器需要非常复杂而精细的设计,制造成本非常让人望而却步。但除此之外,在极具破坏性的科学技术的树上,还有更多唾手可得的果实。
  最显而易见的风险是,原子精度的制造非常适合快速且廉价地制造出武器等产品。在一个任何政府都能“打印”出大量自动化或半自动化武器装备的世界里,军备竞赛可能会变得更快。
  武器也可能是极其微小且精确的事物:比如像神经毒气一样的“智能毒品”,或者无所不在的让人无条件服从的监视系统等。
  我们现在还无法判断未来的纳米技术可能会造成的存在危机,但因为纳米技术能给予我们所想要的一切,所以,其极具破坏性。
  五、未知的威胁
  最使人不安的可能性是,还存在一些非常致命的事物,但我们对此毫不知情。比如,我们现在还未曾发现外星人的踪迹,是因为生命或智能动物非常罕见还是因为智能生命已经被灭绝?如果未来出现一个所谓的“大筛选(Great Filter)”,届时,其他文明会提到我们吗?
  无论威胁是什么,它或许都是一些即使你知道它在哪儿也几乎无法避免的事物,不管你是谁或者你做了什么。对任何此类威胁,我们毫无头绪,但它们的确存在。
  而且,某些事情我们还不知道,并不表示我们不能对此进行推理。在麻省理工学院的物理学家马克斯·泰格马克和牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆出版的一篇著名的文章中,他们表示,根据地球的相对年龄,某些风险每年出现的几率为十亿分之一。
  有些人或许很奇怪,为什么气候变化或陨星撞击并没有出现在这份列表上。这是因为,气候变化不管多么让人惊恐,都不可能使整个地球变成一个寸草不生的地方。陨星或许能让我们消失殆尽,但这种几率也特别小。哺乳动物平均存活了大约100万年,因此,自然灭绝率为每年百万分之一。与核战争的威胁相比,这种威胁要低很多。
  人类目前所做的一切既可以将我们从生存危机中解救出来,也可能制造新危机,因为正是人类自己的活动塑造了这个星球未来的面貌,即使我们远远无法控制自然灾难,我们正在研发的各项技术或许能未雨绸缪,帮助我们应对甚至纾缓这些危机。
  现在,已经有些科学家行动起来,开始专注于人类生存危机的研究了。据英国《每日邮报》2012年11月25日报道,剑桥大学在800年校庆之际,与皇家宇航员罗德·瑞斯以及世界顶尖宇宙学家联合建立了“终结者”存在威胁研究中心,主要是针对智能机器人对人类造成的生存威胁,除此之外,研究主题还包括气候变化、核战争和违规生物技术的快速发展会怎样威胁人类自身的存在。