6月5日消息,霍金是当代著名物理学家, 他的很多言论都十分超前,能够看到比我们更远的地方。霍金预言人类文明或将和恐龙一样迎来大灭绝,除了移民人类将无法幸免。
霍金称,人类或将毁于以下3种方式中的一种。人工智能和人类之间的冲突占首要原因,之外人们一直担心的外星人入侵的可能性反而比较小。
1.人工智能
霍金一直以来都对人工智能(AI)相当担忧,甚至认为AI是人类历史上最严重的错误。他认为人工智能的潜力无限,完全有可能超越人类的智慧水平,摆脱人类的控制。霍金曾直言不讳地说:AI的全面发展将导致人类的终结!
霍金的这个观点不无道理,获得了很多精英人士的支持,其中现实版钢铁侠埃隆·马斯克就曾声援称:AI是人类生存最大的威胁!
霍金对AI的威胁最到位的一句评价是——人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。
霍金预言终结人类三大方式 人工智能成首要威胁2/page]2.人类冲突
霍金认为,就算人工智能没有毁灭人类,人类文明或许会自取灭亡,终结于自身内部的冲突。人类自私、贪婪和无节制的扩张,科技的进步也创造出了可以毁灭人类的武器。
地球上的生命遭遇毁灭性灾难的风险正在不断增加,比如突如其来的全球性核战争、基因工程病毒或者是其它我们还未想象到的危险。其中,全球性的核战争在人类文明间形成了一种恐怖而诡异的威慑,最让人担忧。
面对这样的威胁,霍金认为太空探索与移民是解决之道。毕竟地球资源有限,将人类的生存空间和资源向外太空确实是延续人类文明的必由之路。然而,短期内这是一个难以实现的目标,霍金对现状不无担忧地表示:在一个政治、社会和环境混乱的世界,人类又该如何维持未来的100年呢?
3.外星文明
外星文明或许并不像我们想象的那么友好。霍金曾经称:如果外星人造访地球,我认为结果可能会和哥伦布首次造访美洲大陆很相似,这对土著人来说可不是一件好事。先进的外星文明可能是一个游牧文明,征服并殖民他们所能触及的星球,利用星球上的资源建造新的飞船,从而不断持续他们在宇宙中扩张的步伐。
或许正如《三体》中所描述的一样,宇宙本来就是黑暗的。生存是文明的第一需要;文明不断增长和扩张,但宇宙中的物质总量保持不变。纵观历史,人类文明之间为了生存和发展都经常大动干戈,更何况是不同星球的文明之间。悲哀的是,相对于先进的外星文明,我们可能真的只是一群虫子!
另外,很多人觉得霍金一些支持外星探索的行为与他的这一警告自相矛盾了。其实不然,霍金的目的并不是去给高级文明通风报信,而是去寻找适合人类生存的新家园。
以上就是霍金给人类的3大警告,人们在发展自己科技的时候,必须明白科学是把双刃剑,他们成就人类,也能毁灭人类。

2025上海国际个人保养博览会 ——构建健康新生态,引领抗衰新纪元
正确打飞有助于改善枣蟹?爱廷玖达泊西汀片助力快男延时
中国首家“藻饮”店亮相北京,引领健康饮品新风尚
东软:智能化时代 数据价值化助力医疗服务同质化进程
智慧平台,健康呼吸!慢阻肺患者早筛早治新希望
以“轻生活”为钥,解锁健康新密码
开学季呼吸道“告急”?映美雾化器强势救场!
早X背后的“隐形推手”是?爱廷玖达泊西汀片为爱延时