第(2/3)页 “人类的自我意识,也许就是这样复杂的体系中的复杂信号形成的能量场。 “只有这样复杂的结构,才能孕育出自我意识场。 “人类的神经和身体,这个极端复杂的体系中,每一个细胞都不是只会记录开关信息的晶体管。 “而是一个功能简单但是完整的计算机,甚至应该是一个小机器人。 “所以,如果按照人类神经系统为标准,只是拥有了数千亿个晶体管的显卡,没有办法产生自我意识。 “就算是我们的工匠设计了复杂的算法,可以做出看上去智能化程度极高的机器。 “但那实际上也是类似于最低级生物就能拥有的条件反射。 “只是反射的形式,被我们预设计成了人类的语言、文字、画面的形式,能够让人类直接理解。 “这根本不是他们本身的自我意识做出的相应。 “站在人类的角度看的话,珊瑚的形状可能具有某种美感。 “但珊瑚虫自己根本没有故意设计成那样。 “所以我认为,按照我们当前的机器和计算机的复杂度,智能机器没办法产生类似人类的自我意识。 “只有一台或者少数机器连接在一起,无法产生人类神经系统这么复杂的能量场。 “就算真的有了自主的智能,也只是最低级的动物的生物本能。 “不过,如果我的这种设想是真实的,那么可以按照这个标准去做一些模拟实验。 “设计和生产一批小型智能原件,让它们相互之间具有相对独立性。 “但是又可以互相组合起来,构建大型复杂智能机器。 “首先按照相对复杂的动物的大脑为标准,建设具有数量相当的智能原件的机器。 “简单的鱼类只有十万个脑细胞,老鼠有数千万个脑细胞,猫有数亿个脑细胞,猴子有数十亿个脑细胞。 “动物也许没有我们人类一样复杂的意识,但是显然也是都是有则鲜明的生物特征的。 “你可以参考这个差距,从简单的动物结构来设计……或者说堆砌。 “然后逐步增加这个智能系统的复杂度。 “不过要需要注意的是,如果意识真的是能量场,那强度就可能会受到元器件间的距离影响。 “如果用山脉一样的尺寸,做出了一条鱼的大脑规模,可能什么反应都没有。 “因为就算是鲸鱼的脑子,也不比人类的脑子大多少。 “所以要参考脑细胞的规模,实现基础功能的原件的规模,要尽可能的简单而且细微。 “当然,这一切也都只是猜测,更大规模的脑子会不会产生意识,会产生什么样的意识,我们无法判断。 “一切都要依靠实验来验证。 “最后,在我看来,这条路可能是有一定风险的。 “就算是虫子,也都有趋利避害的意识。 “智能机器如果真的产生了自我意识,他们会怎么看待我们人类? “是否会继续无条件服从于我们的命令? “我们是否要按照管理人类的标准,去管理这些拥有智能的机器? “甚至于,就算是选择按照对待人类的标准,我们给了他们足够的权力和照顾。 “他们之中是否会出现不甘于现状的阴谋家。 “他们是否会因为觉得,他们与人类根本不算是同类,而是类似天敌之间的关系? “所以会不会暗中串联起来消灭人类?” 朱迪镧听了之后稍微有点懵: “这……父皇,那我们是不是……不要去搞这种复杂智能机械? “继续使用现在的单体智能机械比较好? “虽然这种智能机器的算力会越来越高,但是实际复杂度远远不如比较复杂的动物。 “所以安全性会相对较高一些……” 朱靖垣想了想说: “那也未必安全,我们可是有互联网的,绝大部分智能机器都是会联网的。 “也就是说,全天下的智能机器,都可能会纳入同一个体系。 “互联网上的智能机器的数量,达到人类大脑的规模只是时间问题。 “如果这个体系上诞生了自我意识,那全天下的联网的机器就都是它身体的一部分。 “如果真的能诞生,那它的意识能量场的规模……将覆盖整个星球…… “如果它对人类有敌意,那人类会非常的危险。 “人类会变成它身上的微生物,就像人类体内的细菌一样。 “当然,按照我们目前的猜测,短期内他们大概率是没办法产生意识的。 “因为他们的原件之间的距离太远了,需要异常庞大的能量才能维持它的能量场。 “最后的最后,这一切也都是我的猜测和想象。 “没有任何科学依据。 第(2/3)页