本文原刊于《举目》官网2019.10.05
潘柏滔
前言
近年来,人工智能(Artificial Intelligence,以下简称AI)取得了许多进步。比如数字助理Siri和Alexa,自动驾驶汽车的开发,人脸识别,共享乘车等等。人工智能是否可以让我们所有的梦想成真,抑或会破坏我们所知道的社会和世界?
人工智能应用实例选介
IBM Watson
2011年,IBM的认知计算系统Watson在问答节目中首次击败了人类。随后,身价大涨的Watson逐渐成为了IBM乃至全球AI项目的代表。那时,击败专业棋手,模拟人类短期记忆的人工神经网络的谷歌DeepMind,以及深度分析大数据的学习框架还没有出现。但Watson标志一个新AI时代开始了。
只是近两年,随着AI的大规模崛起,更趋向方便使用者,更实惠的技术频繁出现,IBM逐渐在人才与新市场的争夺上丧失领导地位。可能原因包括:
无法承担如肿瘤研究等复杂项目中的技术能力和安全风险。
Watson在肿瘤研究中的基本方案,是依靠输入大量的真实病历,来解读癌症背后的成因, 深层病理,并给出治疗方案与建议。但需要注意的是,差不多所有购买了Watson的医疗机构都明确指出,这套系统的作用只能是帮助研究。肿瘤治疗的临床决策是非常复杂的,机器的先进程度难以解决医生诊症的核心问题——即将数据链清楚地导出一套最佳的治疗方案。
综合来看,AI医疗在今天更适合解决那些琐碎,重复度高的医疗工作,比如誊写病历, 看X光片,检查化验单等等,这些工作可以将医生的时间解放出来,以作决策上的结论。但要让AI医疗本身去治疗重大疾病,无论是技术能力,还是安全风险上,它都无法承担。
苛刻的应用条件,不能普惠的成本。
WATSON需要有复杂的特殊训练,而学习过程对应用人才之数据,时间成本的要求,最终都会转化为金钱成本,这注定如Watson这样的产品不可能是普通大众的朋友,即使是大公司也吃不消!因此AI认知计算系统的普遍化,在于使用更实惠、方便。
Sophia索菲亚——首个成为沙特公民的机器人
索菲亚是由中国香港的汉森机器人技术公司(Hanson Robotics)开发的类人机器人,索菲亚看起来就像人类女性,拥有橡胶皮肤,能够表现出超过62种面部表情,索菲亚“大脑”中的计算机算法能够识别面部,并与人进行眼神接触。
2017年10月26日,沙特阿拉伯授予索菲亚公民身分。作为历史上首个获得公民身分的机器人,索菲亚当天在沙特说,它希望用人工智能“帮助人类过上更美好的生活”。
2019年3月12日,在一AI公司TCL春季发布会上,索菲亚惊喜亮相,并与TCL智能业务群负责人进行了深度交流。在发布会上,索菲亚对答如流,并对AI有着自己的思考,认为AI机器人可以与人类和平共处。沙特阿拉伯是一个保守的回教国家,待女性如次等公民, 索菲亚无疑为他们的AI创新项目,起了重大的宣传作用!
医学最新发展
AI在病人护理中的首批应用是成像(medical imaging),可以帮助改善癌症或心脏病的诊断。有许多类型的成像测试数字图像,如X射线,CT扫描,MRI和超声心动图,所有这些成像方法的基本共通点是大量的高质量数据。
要具有非常完整的数据集,才可让AI工作做得很好。此外,人眼通常对这些图像中可能存在的一些图案看不见。例如,乳房组织的细微变化,在识别早期癌症模式或早期心力衰竭模式方面,AI已经做了一些有趣的分析工作,即使是训练有素的医生也做不到。
笔者认为,医生的角色可能会从数据采集员和分析师,转变为病人的辅导,医疗数据可作为医生治病和促进人们健康的工具之一。
D. 隐私的威胁与人工智能的未来
人工智能可用于识别,跟踪和监控多个使用电脑设备的用户,无论他们是在工作,在家还是在公共场所。
语音识别和面部识别是人工智能越来越擅长执行的两种识别方法,但这些方法有可能严重损害在公共领域的个人隐私。
某人的键盘打字模式,可以用来推断他的情绪状态;更令人担忧的是,一个人的政治观点、 民族认同,价值取向,甚至整体健康状况也可以通过活动日志,位置数据和类似指标等数据来确定。坊间出现的国际电脑黑客,通过在网上偷窃他人资讯,或传播假新闻,勒索谋利,甚至影响竞选过程,这些是对AI的误用。
AI还可以使用信息作为输入,在电脑库获得个人资讯,以便对人员进行排序、评分、评估和排名。而这通常是在未经任何同意的情况下完成的,并且人们通常无法影响或质疑这些评估任务的结果。某些专制社会用这些AI评分系统,作为操控人民的伎俩,比如利用这些信息限制人们在信贷、就业、住房或社会服务的机会,甚至限制公民权利。
人工智能等数字技术在我们生活的许多领域,作出了重大贡献。如遥控机器人作为精巧的工匠,广大民众数据的收集,分析器,武器和探险队等,一方面使人避开冒险,也大大增加了工作效率和认知计算系统的精确性,通过使用这些工具,我们能够收集和分析大量信息,使人类得以解决以前没有解决的社会弊病。
不幸的是,这些技术也可以被各种社会行动者利用,用来对付公众,使我们失去个人在公司和政府机构中的隐私,而这只是人工智能对我们造成损害的一个例子。其他AI的负面影响,包括性机器人妓院的发展,目前还没有任何法律上的监管,会导致卖淫和性交易的增加。
有些AI专业人士已发出“警告”:“人类必须与机器合并,否则在AI时代,人类会变得无关重要。”——Elon Musk, SpaceX,Tesla 创办人。
福音派的原则与声明
基督徒是社会的良心,是世界的光与盐(参《太》5:13-16)。2019年4月29日,一群福音派的领袖们发表了一份人工智能原则宣告,列出12条声明,帮助信徒和有识之士对AI技术的挑战作出正面的回应,兹简介如下:
神按着祂的形像造人,人工智能乃是神赐予我们的创造性的一部分。
神按着祂的形像造人,世界上每个人都具有内在的、平等的价值、尊严和道德力量,与所有的其他创造物不同。所以,类人机器人不过是人的创造物。不能与按着祂的形象被造的人同等,首个沙特机器人公民索菲亚完全是该国的广告伎俩,而WATSON和DeepMind的认知计算系统也不可能代替人作任何道德决策的工具。
参考经文:《创》1:26-28;5:1-2;《赛》43:6-7;《耶》1:5;《约》13:34;《西》1:16、3:10;《弗》4:24。
2. 技术的规范:人类应该以促进更加繁荣和减轻人类苦难的方式发展和利用技术。
当人按照神的道德意志使用人工智能时,就是人类顺从神的谕令来管理创造和尊重神的一个例子。我们否认AI的使用在道德上是中立的。只有主耶稣能够赎罪并使人类与造物主和解,人工智能技术无法满足人类的最终需要,当其被用来使人堕落,失去价值和尊严的时候(如性机器人妓院),AI便全无益处。
参考经文:《创》2:15,25;《出》20:3、31:1-11;《箴》16:4;《太》22:37-40; 《罗》3:23。
3. 人工智能不能取代人类道德决策的责任。
我们肯定,使用人工智能,可为人类推理和道德决策提供信息和帮助,因为它是一种擅长处理数据的工具,它模仿甚至超越人类的能力。但是只有按著神的形象被造的人类,才有道德决策的责任。医生可以借着采集和分析AI数据,更有效地辅导医治病人,促进病人的健康。但是机器人和众多的数据,不能取代医生与病人的互动关系。
参考经文:《罗》2:6-8;《加》5:19-21;《彼前》1:5-8;《约一》2:1。
4. AI医学应用要为人医治疾病,促进健康,非创造超人。
我们确认医学技术中与人工智能等相关的进步,可以提供和增强医学诊断和治疗的干预能力。唯物主义和功利主义视人为机器,我们拒绝以这些观点来理解人工智能作为改善,改变或完善人类的手段的医学应用。
“人非工具,而是目标(MAN IS AN END, NOT A MEANS)”乃是医学伦理的普遍原则。AI可以帮助人收集和分析资讯,医治疾病,保持健康,却不能创造资讯,更不可能创造科幻小说中的超人!
参考经文:《太》5:45;《约》11:25-26;《林前》15:55-57;《加》6:2;《腓》2:4。
5. AI应辟除偏见,非制造偏见。
人工智能的设计和使用方式,应该使所有人享有同等的价值和尊严。人工智能应该被用作识别和消除人类决策中固有偏见的工具。人工智能不应该用于加强或推进任何意识形态或宣传的方式,或以评分系统作为操控人民的标准,试图在国家权力下剥夺人的自主权。
参考经文:《弥》6:8;《约》13:34;《加》3:28-29、5:13-14;《腓》2:3-4;《罗》12:10。
6. AI不可作性欲工具。
我们肯定人类性的行为,是神设计给终身婚约中男女之间的专属关系。我们谴责因性用途而使用人工智能导致的人类物质化。根据神对人类婚姻的设计,人工智能不应该干涉或替代丈夫和妻子之间神设计的性行为表达。
笔者呼吁,政府应面对并正确回应如性机器人妓院的AI发展对社会的挑战。
参考经文:《创》1:26-29、2:18-25;《太》5:27-30;《帖前》4:3-4。
7. AI应协助工作效率而非助长偷闲。
人工智能可用于帮助我们改进工作的方式和效率,也允许我们更充分有效地使用我们的时间和劳动力。我们否认人类的价值和尊严可以简化为个人对社会的经济贡献,AI的发展不应取代员工和助长偷闲。
已有基督徒学者就自由市场和个人责任,对如何在AI自动化时代的经济转型,作了正面的分析,认为普遍大众的就业机会不会被AI技术的发展所淘汰。
参《创》1:27、2:5、2:15;《赛》65:21-24;《罗》12:6-8;《弗》4:11-16。
8. 运用数据不能侵犯隐私。
我们确认隐私和个人财产是个人权利和选择的组合,不应被政府,公司,民族,国家和其他团体所侵犯,即使是为了追求共同利益,人工智能不应该被应用来扭曲真相。我们确认数据不应被错误处理,误用或滥用于罪恶的目的,以加强偏见,强化强者或贬低弱者。社会不单要尊重人民个人隐私,也应积极地规范在网上误用他人资讯的罪行。
参考经文:《出》20:15;《诗》147:5;《赛》40:13-14;《太》10:16;《加》6:2;《来》4:12-13;《约一》1:7。
9. 正义的保安应用。
我们确认AI在警务,情报,监视,调查和其他用途方面具有合法的应用,支持政府尊重人权,保护和维护人类生命以及在繁荣社会中追求正义的责任。我们谴责使用人工智能来压制神赋予所有人的言论自由或其他基本人权。我们否定专制国家用AI评分系统作为操控人民的伎俩。
参考经文:《罗》13:1-7;《彼前》2:13-14。
10. 正义战争原则。
我们确认在战争中使用人工智能应该受到爱邻舍和正义战争原则的支配。人工智能的使用可以减轻人的生命损失,为非战斗人员提供更好的保护,并为更好的政策制定提供信息。 所有与防御相关的AI应用程序,例如基础数据和决策制定流程,必须由合法机构不断审查,而且对系统采取的任何行动问责。
我们否认人类机构或战争中的道德责任可以委托给人工智能。任何国家或集团都无权使用AI进行种族灭绝,恐怖主义,酷刑或其他战争罪行。
参考经文:《创》4:10;《赛》1:16-17;《诗》37:28;《太》5:44、22:37-39;《罗》13:4。
11. 公共政策兼顾人权。
我们确认政府的根本目的,是保护人类免受伤害,惩恶扬善,维护公民自由,社会公众在制定有关在社会中使用人工智能的政策方面,应有机会发挥作用,这些决定不应只留给那些开发这些技术的人或政府制定规范的人。我们否认政府,公司或任何权势使用AI来侵犯神赋予的人权。
参考经文:《罗》13:1-7;《徒》10:35;《彼前》2:13-14。
12. 人工智能的未来
我们确认人工智能将继续以我们目前无法想像或理解的方式发展,包括远远超过许多人类能力的人工智能。但只有神才有创造生命的力量,人工智能的未来进步不会篡夺神作为生命的创造者的地位。教会在宣扬人的尊严方面发挥着独特的作用,并呼吁社会的各个方面人道地使用人工智能。
我们否认人工智能可影响我们对人类价值的衡量,也否定人工智能将获得与人类同等水平的尊严或价值。人工智能的未来发展,最终不会满足我们对完美世界的渴望。虽然我们无法理解或了解未来,但我们并不害怕将来会发生什么,因为我们相信神的全知全能,我们创造的任何东西都无法阻挠神的创造和救赎计划,或取代人类作为神的形像的独一载体。
科幻小说中AI可成为人身体死后的思想载体,人可因此得到永生。这只不过是人对完美世界的渴望,是不可能会实现的。
参考经文:《创》1;《赛》42:8;《罗》1:20-21、5:2;《弗》1:4-6;《提后》1:7-9;《启》5:9-10。
小结
我们认识到人工智能将使我们能够实现前所未有的可能性,同时承认人工智能所带来的潜在风险;希望教会能够积极主动地参与人工智能领域,而不是在AI已经影响我们的社区之后,才回应这些问题。上述声明根据人性的本质,技术的承诺和对未来的希望提出呼吁,盼望使有识之士积极地面对AI的挑战。
参考(全部参考资料链接请见《举目》官网 www.behold.oc.org):
作者来自香港,获生物学博士和神学硕士学位。在惠顿大学(Wheaton College)任教41年(1973-2014),现为该校生物学名誉教授。