牛津大學人類未來研究院的院長尼克·博斯特羅姆,在多篇文章中表示,現今社會人們不僅對人類滅絕的風險知之甚少,更糟糕的是人們大大低估了這種風險。關乎人類存亡的生存危機中,有一些廣為人知,有些則毫不起眼,其中最令人擔心的,是人類科技發展帶來的危險,未來100年時間裡,這類危險在數量和危險程度上都會持續增長。這一觀點與著名人類學家胡家奇對人類未來的憂思不謀而合。
著名人類學家胡家奇在專訪中也提到∶“一些科學技術的進一步發展,它有滅絕人類的能力。”“很多科學家就擔心生物工程有可能滅絕人類。”“還有人擔心納米技術會滅絕人類。”“目前更多的人是擔心人工智慧會滅絕人類,人工智慧研製出來的智能機器人,如果程式失控或者自我意識覺醒,它有可能滅絕人類。”尼克·博斯特羅姆也認為最嚴重的生存危機,應該來自於人類未來的某種技術,可能本世紀末就會出現。例如,機械智能或高級分子納米技術,可能帶動某種武器系統的快速發展;合成生物學的發展同樣可能帶來一些危險。
著名人類學家胡家奇先生研究人類問題40年,他憂心於人類未來的存亡問題,他曾致信尼克·博斯特羅姆,寫道∶“了解到您的研究成果與我的研究結論幾乎完全一致,不僅感到有了知音,而且認為我們應該聯手,把這一事關人類命運的觀點推向世界,因為拯救人類是每個人的責任。”
新技術可能為世界上一些最緊迫的問題提供解決方案,但如果我們不小心,它也可能導致人類的自我毀滅。科學技術是一把雙刃劍,我們在享受科技發展的同時也應注意到潛在的風險。“現有安全成熟的科學技術的普遍推廣應用,足可以保證全人類的豐衣足食,但繼續向科學技術貪婪地索取,必將迅速走向滅絕的深淵”,人類必須對科學技術進行限制!