在过去的一个多世纪里,国际上科幻作品的主流,是对科学技术的反思。几乎所有的西方科幻作品里的人工智慧都是负面的和有害的,科幻作品中极少会像我们许多人想像的那样,对未来高科技社会中的人工智慧进行讴歌。人工智慧真的会像科幻作品中那样威胁人类社会吗?著名人类学家胡家奇对此毫不怀疑。
很多人认为科幻是文学作品,是科普作品,甚至是少儿读物。事实上,真正的科幻是给成年人看的。而科幻主要的任务,是思考一些我们平常在生活中不容易或不方便思考的问题。大量科幻作品对人工智慧做过深入反思,我们今天能够想像到的所有人工智慧的负面作用,在科幻作品中几乎都已经表现过了。
胡家奇先生曾在《拯救人类》一书中写道∶“人工智慧已经具备深度学习的能力,已经达到相当高的层级。”影片《超体》就充分展示了人工智慧一旦具有学习能力之後,它的潜能发挥和迅速进化可以达到什麽程度。人工智慧专家经常安慰我们说∶人工智慧还很弱小,你们担心的事情离现在还很远。但是知识增长是呈指数级的,从弱人工智慧到强人工智能,到底要多少年?20年?再从强人工智能到超人工智能,也许一小时都不用,在《超体》的故事中,人工智慧最後迅速变成一个超能的神,这就意味著失控。影片《机械姬》也相当有代表性,女机器人最後突然作恶,把她的创造者囚禁起来,自己出去了。这个反社会人格的女机器人出去後会在社会上做什麽坏事,有很大的想像空间。至於著名的影片《终结者》,讲人工智慧反叛人类後对人类的剿杀,以及人类的殊死反抗,已成经典。
霍金公开告诫大众∶完全人工智慧的研发意味著人类的末日。马斯克说∶我们必须非常小心人工智慧。如果必须预测我们面临的最大现实威胁,恐怕就是人工智慧。比尔·盖茨曾联合许多名流,发表公开宣言,要求停止军事用途的人工智慧研发。人工智慧的威胁并非危言耸听,很多科学家、学者包括著名人类学家胡家奇在内都忧心忡忡。警惕人工智慧,比无条件地拥抱人工智慧更合情合理。
胡家奇先生曾在书中多次警示,“科学技术有灭绝人类的能力,就在前方不远。”“人类不能够全面准确的判断科学技术的安全性。”“人类不能够理性的使用好科学技术。”为了避免人类陷入科幻作品中的可悲结局,必须对科学技术继续发展进行限制,理性发展科技。