设万维读者为首页 广告服务 联系我们 关于万维
简体 繁体 手机版
分类广告
版主:红树林
万维读者网 > 五 味 斋 > 帖子
回答老拳同学的:人工智能,自由意识和量子意识
送交者: 职老 2016年03月14日17:08:27 于 [五 味 斋] 发送悄悄话

首先老拳对人工智能的目标函数下的价值计算及其建立解释科普的不错,看来是真懂了,特别是下面这段:

“但是对于象下围棋一类的问题,自己每一步都有N种可能的走法。自己每走一步,对方又有N种可能的走法。因此博弈每一方的对策集合,虽然理论上仍是有限的,但却是个天文数字,且又是个离散的集合。既不能用解析的方式(即连续函数)来表述,更无法用枚举的方式,将所有对策穷尽。所以只能将以往的经验作为整个对策集合的子集合输入机器。从这个子集合开始,让机器在实践中不断积累更多的对策及每一个对策的收益值(胜算概率),从而不断扩充对策集合和集合上的收益值,并不断修正收益值的估算(胜算概率)。这就是人工智能所谓的动态“学习”过程。然而,万变不离其衷,最后仍可归结为前文描述的决策过程。”

那么,就人类的学习过程中是否真的如此呢?除了专业选手训练,现在大企业的员工和管理层面的决策培训外,其实人类的很多学习是建立在非决策基础上的,也就是说:选点并不单一。其实根据量子学原理,未来决定了现在,那么单一性选点其实并不是坏的过程,人类历史的进程其实就是量子化的单一选点,也就是师师第4盘所说的:白78挖是当时的(走向胜利的)唯一选择。也就是说决策论和博弈论的第一假设就是竞争基础下的有利原则。这个原则其实在细胞里面也是这样存在的, 现在的研究表明,一个细胞信号的传递,大约要进过数十层面的传递,大约上白个蛋白参与的网络结构,同时有正负反馈的参与,特别是磷酸化和去磷酸化,所以当一个外援性药物进入细胞内,其作用并不是单一方向的,而是多层面的,和体内内源性物质存在竞争的多层面过程,非常类似下棋的过程:细胞的信号树在不断的积累每层的收益值,并不断修正药物在开始第一步引起的改变的收益的估算=正作用概率,这个其实就是药物在细胞内动态的让细胞学习改变的过程。

所以,老拳同学假设:机器智能无法被人类输入产生消灭人类的决策而可能以意外事件为基础上的自由意识和随机意识的可能性判断并假推了生物进化和机器进化的不可悖论性,也就是说:如果假设人类是进化来的,机器也存在这样类似的进化,或者说如果你用熵增加来否认机器进化,同时也就否认了人类进化,如果是随机事件作为意外事件的基础。

在这里,大家其实还是有一个误区,就是认为量子事件和随机事件是等同的,摸不准原理就是随机事件的表征,至少老拳是这样理解的:

注意我说的是纯物理性随机变化(用职老的话来说是根植于量子层次的不确定性),而不是同常计算机蒙特卡洛模拟试验中用到的随机序列。后者是给顶序列生成函数所生成的,毫无任何“随机”性的伪随机序列。只是这个序列的各个数值合在在一起恰好符合均匀分布的性质(即分布很“均匀”),所以可以通过它产生各种需要的概率分布序列(比如正态分布,指数分布等)。纯物理性随机变化是来自物理器件的随机不稳定性(比如一个逻辑开关元件的一个电位本来应该是“0”却莫名奇妙产生”1”)”

但实际上,量子事件和随机事件并不等同,所以量子层面最大的特点并不是不确定性,而恰恰是量子纠缠下的确定性,也叫做宇宙同时性的要求,所以表面上看量子似乎可以产生所谓的“意外”,但实际上梦特卡洛模拟实验中的随机序列,虽然是顶序函数产生的,其本质却是在固定层面下的真实随机序列,也就是说这个均匀分布正好表示了量子真正的随机函数的特点:并不是真正的随机量子。也就是说:宇宙同时性其实制约了量子所谓的随机性,换句话说:那种所谓的随机不稳定性因为量子的存在,反而稳定了。

这个问题怎么思考呢?其实这样考虑就好了:下棋其实并不是真正随机的,也就是说,是有选择的;在一个被智能控制的时空里面,比如细胞内的各种充满智能设计的蛋白,一个有意义的随机事件并不是真正随机的,也就是说:量子的随机性被制约了,明白了这个就知道如果在进行药物研究的时候,我们可以控制细胞内部产生信号的模式:从非量子化向量子化进行--量子化传递的细胞内隔室形成,浓度梯度和时间成正比----细胞膜是围棋的角,细胞浆是边,细胞核是草肚皮,从而选择药物产生的信号传递的最后产出。就这点而言,量子化意识的产生并不是随机和意外的,而是预订的,这个也就是DNA和RNA量子密码下的隐含变量的概念:虽然物理上微观粒子可能存在随机分布,而一旦量子化,其分布就符合某种数学模式了。

就此而言,人工智能的产生并非不能超越人类,因为人工智能仍然是人类的智能,但不过是未来人类的智能,无论是自由意识还是量子意识,都不是随机意识,因为人类和人工智能都实际处于一个叫做:数学灵界MATH SPIRIT的范围内,是预订的,是被公式化的,是数字化的世界。

那么,决定这一切智慧的初始是什么呢?也叫做:初始智慧,其本质是完美的好的,是艺术也是规律,更是哲学,且必须是神学。如果没有这个初始意识,一切的决策,一切的竞争,一切的意识,都其实并将不妇存在。

————————————————————————
附着老拳的蚊帐:

最近李世石和阿发狗的人机大战在中文网站上被热议。阿发狗的出色表现更是让人始料不及。许多人因此引发出人工智能最终将征服(奴役或毁灭)人类的惊呼。

最近李世石和阿发狗的人机大战在中文网站上被热议。阿发狗的出色表现更是让人始料不及。许多人因此引发出智能机器人最终将征服(奴役或毁灭)人类的惊呼。

本人对人工智能了解甚少。但根据本人的理解,智能机器人无非是在接获各种通过传感器外部信息数据的输入后作出各种判断和决策。而这种判断和决策一定是建立在人类理性思维基础之上的,所以也一定和决策论(包括博弈论)和决策模型有关。

大凡决策论,简而言之通常包含两大部分。第一个部分是所有可供决策者选择的对策或策略的集合。第二部分是目标函数(objective function)。它给每个对策赋予一个收益值(pay-off),从而确立了决策者的价值取向和目标。所以目标函数也称收益函数或效用函数(utility function)。决策论的任务是如何寻找最佳策略,使得目标函数的收益值最大化。决策者的“理性”也就在于此:他/她采取的策略有明确的目的性。这个目的性就体现在目标函数的最大化上。判断一个人的行为是盲目的还是理性的,就在于他/她的行为是否在一定程度上符合或接近某种目标函数的最大化。如果根本找不到一个目标函数来刻划他/她的行为,那么我们可以称他/她的行为是盲无目的的。说得难听点,他/她就是个不可理喻的疯子。

当然,每个人的价值取向很不相同。张三的目标函数不等于是李四的目标函数。张三不能因为李四的行为不符合张三自己的目标函数最大化原则,就称李四是盲目的,或骂李四是个疯子。反之亦然。虽然很多问题上,人们有共同的价值趋向(比如各种投资策略都是为了尽可能多的赚钱),但在其它很多社会实问题上,不能用单一的目标函数刻画所有理性人的行为模式。

通常的决策模型中,目标函数和对策集合都是给定的。因此,剩下的就是个如何找到最佳策略这个纯粹的数学计算问题。计算的难易程度拒绝于对策集合及建立在这之上的目标喊函数的复杂程度。比较具有挑战性的计算问题是所谓的动态决策问题(dynamic programming)。其中每个对策都分好几个步骤, 每个步骤都会有一个动态的收益值。最后的目标函数是将所有动态的收益指综合在一起。

但是对于象下围棋一类的问题,自己每一步都有N种可能的走法。自己每走一步,对方又有N种可能的走法。因此博弈每一方的对策集合,虽然理论上仍是有限的,但却是个天文数字,且又是个离散的集合。既不能用解析的方式(即连续函数)来表述,更无法用枚举的方式,将所有对策穷尽。所以只能将以往的经验作为整个对策集合的子集合输入机器。从这个子集合开始,让机器在实践中不断积累更多的对策及每一个对策的收益值(胜算概率),从而不断扩充对策集合和集合上的收益值,并不断修正收益值的估算(胜算概率)。这就是人工智能所谓的动态“学习”过程。然而,万变不离其衷,最后仍可归结为前文描述的决策过程。

如果你同意人工智能可以用上述决策模型来概述,那么我想可以回答这个问题了:人工智能最终是否会奴役甚至毁灭人类?

首先,如果人类给机器输入的目标函数就是尽可能多的屠杀人类。并让机器人在实践中不断学习不断积累杀人策略,并使其成功概率最大化,那么以机器的高效和精准,虽然每一步人类自己也能算到,但机器很快会得先手,抢在人类找出最佳对应策略之前,灭了人类。

其次, 人类给机器输入的目标函数即便不是直接杀人或奴役人类,但屠杀人类或奴役人类能很好地服务于这个目标函数,成为机器人策略集合中的次佳甚至最佳策略, 那么只要机器人在实践中有机会接触“杀人”或“奴役人”这个选项,并积累出“杀人”或“奴役人”这些选项能很好地服务于给定的目标函数这个经验作为其最佳策略,那么同样机器人很快就会占先手战胜人类。

所以,人类在发展人工智能时要深谋远虑,注意避免给机器设定能给人类带来灾难的目标函数。即便无法彻底排除这样的目标函数,也要设法不让机器人有机会接触到能服务于这些目标函数的危害人类的选项,彻底杜绝这样的机会让机器通过学习积累出杀人大法。

接下来的问题是,如果人类有效地做好了以上的保护措施,人工智能会否否仍然最后奴役或毁灭人类?

要回答这个问题,首先要回答,如果人类根没有给机器人有关的目标函数,机器为什么要征服(奴役或毁灭)人类?你也许说机器人也许会发现,屠杀人类是保证机器人生存的最佳方法。 那么我就要问你,谁给了机器人最大程度保证生存这样一个目标函数?没有这个目标函数,机器人为什么要最大程度保证自己的生存?机器人像人类一样天生怕死吗?

这就牵涉到在给定目标函数之外的价值取向问题。机器人会在人类给定的目标函数之外,发展出和原既定目标函数无关的自己的独立价值取向或目标函数吗?机器人会因此独立演变成“邪恶”的种类吗?要回答这个问题首先要搞清楚,机器人不按原程序社定,独立发展出一套价值取向和有关的最佳策略的源动力是什么?

按照目前人类对世界的认知,这种不按牌理出牌“出乎意料”的变化的来源只能有两种:自由意志和纯粹的物理性随机变化。

前面说过,每个人的价值取向不同。虽然,作为服务于一个更高的目标的手段的中间目标函数可以从这个更高的目标理性推出,但这个最终的目标函数是无法用理性和逻辑来推演的所以决策论里大都是将目标函作为给定的外在设置(After all, there is no account for tastes)。人为什么会有不同的价值趋向?归根结底,在于人有“自由意志”这个无法用更原始的哲学概念来定义的概念。

自由意志的概念首先出自第四世纪基督教神学家奥古斯丁,用来解释善恶和人类原罪的起源这个基督教神学中至关重要的命题。按照这套理论,上帝在造人时给了每个人一个独立的“位格”(即“person”)。这个独立的位格包含完全独立和自主的自我意识(即“我”)和同此紧密相关的独立的自主的意志,即所谓“自由意志”。但人类误用了“自由意志”,违背上帝的旨意,从而产生了“原罪”以及由此衍生出的各种“邪恶”。但全知全能的上帝预先知道人类会误用自由意志而犯罪,所以一开始就预备了救赎之道:即通过耶稣基督和十字架挽回被误用的自由意志完成救赎。这就是基督教神学和教义的高度概括和总结。(自由意志的概念后来又在康德等先哲的著作里有了更进一步的论述。)

现在的问题是:人类能赋予机器人既定程序以外的真正的位格和自由意志吗?相信大多数人都会认为不可能。如果不可能,那么,机器人会自发产生自由意志吗?答案似乎也是否定的:机器在产生自由意志前都是按既定程序跑。既然只能按既定程序跑,就无法产生自由意志,除非在另一种情形下:即通过纯粹物理性的随机变化,有点象进化论那样逐步演化出一套独立的价值取向(包括企图征服人类的“邪恶”取向)和随之搭配的高度理性化的策略集合。

注意我说的是纯物理性随机变化(用职老的话来说是根植于量子层次的不确定性),而不是同常计算机蒙特卡洛模拟试验中用到的随机序列。后者是给顶序列生成函数所生成的,毫无任何“随机”性的伪随机序列。只是这个序列的各个数值合在在一起恰好符合均匀分布的性质(即分布很“均匀”),所以可以通过它产生各种需要的概率分布序列(比如正态分布,指数分布等)。纯物理性随机变化是来自物理器件的随机不稳定性(比如一个逻辑开关元件的一个电位本来应该是“0”却莫名奇妙产生”1”)

那么,纯粹的物理性的随机变化会让机器人逐步积累进化到独立于既定程序之外的高度智慧和理性甚至“自由意志”吗?我不想直接正面回答这个问题,因为它最终牵涉到个人的信仰判断。但我想讲一段小经历。数年前,我和一个朋友在上班的通勤火车上相遇。这位朋友是根本不信上帝的,但对人工智能很感兴趣。在火车上他和我绘声绘色地描述这人工智能的各种图景,可谓眉飞色舞,妙趣横生。我问他,要是机器人最后发展到驾驭甚至征服人类的地步怎么办?他摇了摇头斩钉截铁地说:不可能。我问:为什么?他说:这根本违背熵增原理。如果没有外界智慧的引导,但靠随机而无序的变化积累,机器人是不会自发进化成能具有高于人类智慧的物种的。我忍不住反问:按照进化论,高度智慧的人类不就是从一堆毫无次序的原子碰撞中逐步进化来的吗?为什么机器人就不可以呢?



0%(0)
标 题 (必选项):
内 容 (选填项):
实用资讯
回国机票$360起 | 商务舱省$200 | 全球最佳航空公司出炉:海航获五星
海外华人福利!在线看陈建斌《三叉戟》热血归回 豪情筑梦 高清免费看 无地区限制