科幻小说常常警示我们,要畏惧那些我们无法掌控的智能机械。事实上,我们真正需要害怕的,是那些需要我们控制但我们还没能力把握的智能机器。
从爱国者导弹到特斯拉汽车,再到Airbus喷气式飞机,自动化系统如今已造成不少人员伤亡。它们并没有恶意,只是在灾难到来之前,我们没能及时把设备从“被动监控”切换到“主动控制”而已。
究竟什么时候该提起警惕?有时候,一天里有23小时59分钟都是无需在意的,唯独那么1分钟是致命的关键。2003年,自动化的爱国者导弹防御系统出现失误,击落了两架友机。这一切发生的太快,以至于我们还没来得及阻止,就已经结束了。
2009年,法国航空447号航班由里约热内卢飞往巴黎。一名年轻的副驾驶正操控着飞行设备,机长这时将飞机交给自动化驾驶系统,并把位置让给了另一位年长的副驾驶,准备稍微打个盹。突然,空速指示器被冻住了。这原本只是一个小故障,但它导致了自动驾驶仪数据的缺失,人工智能系统继而陷入“两眼一抹黑”的境地。
于是,自动驾驶系统脱轨了,并将指挥棒立马交回驾驶员手中。由于切换来的突如其来,驾驶员们甚至还没做好准备。各种警报声响起,恐慌不断弥漫,驾驶员来不及判断究竟发生了什么,更没意识到他们此时的大脑空白将引发怎样的后果。直到飞机失速、坠落并消失于汪洋大海,驾驶员们都没能找出正确的应对措施。
最终,447号航班上的228人无一幸免。这是自动驾驶系统的错么?但系统完全是按照设定程序运作的。这是驾驶员的错么?机组人员明显缺乏态势感知,但是,当一个人连续几个小时都处于休息状态时,我们又如何能期待他高效地解决突发危机?
人们总爱通过自动化设备拯救自己的不足,殊不知这是把自己推向了另一个深渊。法航447便是人工智能和人类智慧共同导致的一场灾难,在这次事件中,人们就没能成功接下智能设备递出的指挥棒。除此之外,还有一种情况也会产生难以想象的后果,那就是自动化系统没有在必要时候卸下控制权,而人类也反应迟钝地听从设备的安排。
打个比方,最近新出的步枪自动瞄准系统能帮助士兵成功击中目标,然而,一旦系统失去控制,我们又习惯性地相信瞄准设备的判断,会不会有可能出现误伤甚至误杀的情况呢?
不要妄想装备人工智能后,就可以不用大脑了。我们是人工智能的主人,不是它们的奴隶。愚蠢的头脑配上高级的自动化系统,只会产生可怕的灾难。我们需要的是相互信任、依赖的人工智能机器。在使用人工智能的同时,我们还得保证人的参与度,保持人的创造性和判断力,这样方能减少犯错的可能性。