首页 / 历史军事 / 大明1805 / 章节正文阅读

第六一九章 机器智能与自我意识的猜想(2 / 3)

作品:《大明1805

“所以我们也有某种猜测,人类这种复杂到极点的结构,并不是不必要的,而是真正有必要的设计。

“人类的自我意识,也许就是这样复杂的体系中的复杂信号形成的能量场。

“只有这样复杂的结构,才能孕育出自我意识场。

“人类的神经和身体,这个极端复杂的体系中,每一个细胞都不是只会记录开关信息的晶体管。

“而是一个功能简单但是完整的计算机,甚至应该是一个小机器人。

“所以,如果按照人类神经系统为标准,只是拥有了数千亿个晶体管的显卡,没有办法产生自我意识。

“就算是我们的工匠设计了复杂的算法,可以做出看上去智能化程度极高的机器。

“但那实际上也是类似于最低级生物就能拥有的条件反射。

“只是反射的形式,被我们预设计成了人类的语言、文字、画面的形式,能够让人类直接理解。

“这根本不是他们本身的自我意识做出的相应。

“站在人类的角度看的话,珊瑚的形状可能具有某种美感。

“但珊瑚虫自己根本没有故意设计成那样。

“所以我认为,按照我们当前的机器和计算机的复杂度,智能机器没办法产生类似人类的自我意识。

“只有一台或者少数机器连接在一起,无法产生人类神经系统这么复杂的能量场。

“就算真的有了自主的智能,也只是最低级的动物的生物本能。

“不过,如果我的这种设想是真实的,那么可以按照这个标准去做一些模拟实验。

“设计和生产一批小型智能原件,让它们相互之间具有相对独立性。

“但是又可以互相组合起来,构建大型复杂智能机器。

“首先按照相对复杂的动物的大脑为标准,建设具有数量相当的智能原件的机器。

“简单的鱼类只有十万个脑细胞,老鼠有数千万个脑细胞,猫有数亿个脑细胞,猴子有数十亿个脑细胞。

“动物也许没有我们人类一样复杂的意识,但是显然也是都是有则鲜明的生物特征的。

“你可以参考这个差距,从简单的动物结构来设计……或者说堆砌。

“然后逐步增加这个智能系统的复杂度。

“不过要需要注意的是,如果意识真的是能量场,那强度就可能会受到元器件间的距离影响。

“如果用山脉一样的尺寸,做出了一条鱼的大脑规模,可能什么反应都没有。

“因为就算是鲸鱼的脑子,也不比人类的脑子大多少。

“所以要参考脑细胞的规模,实现基础功能的原件的规模,要尽可能的简单而且细微。

“当然,这一切也都只是猜测,更大规模的脑子会不会产生意识,会产生什么样的意识,我们无法判断。

“一切都要依靠实验来验证。

“最后,在我看来,这条路可能是有一定风险的。

“就算是虫子,也都有趋利避害的意识。

“智能机器如果真的产生了自我意识,他们会怎么看待我们人类?

“是否会继续无条件服从于我们的命令?

“我们是否要按照管理人类的标准,去管理这些拥有智能的机器?

“甚至于,就算是选择按照对待人类的标准,我们给了他们足够的权力和照顾。

“他们之中是否会出现不甘于现状的阴谋家。

“他们是否会因为觉得,他们与人类根本不算是同类,而是类似天敌之间的关系?

“所以会不会暗中串联起来消灭人类?”

朱迪镧听了之后稍微有点懵:

“这……父皇,那我们是不是……不要去搞这种复杂智能机械?

“继续使用现在的单体智能机械比较好?

“虽然这种智能机器的算力会越来越高,但是实际复杂度远远不如比较复杂的动物。

“所以安全性会相对较高一些……”

朱靖垣想了想说:

“那也未必安全,我们可是有互联网的,绝大部分智能机器都是会联网的。

“也就是说,全天下的智能机器,都可能会纳入同一个体系。

“互联网上的智能机器的数量,达到人类大脑的规模只是时间问题。

“如果这个体系上诞生了自我意识,那全天下的联网的机器就都是它身体的一部分。

“如果真的能诞生,那它的意识能量场的规模……将覆盖整个星球……

“如果它对人类有敌意,那人类会非常的危险。

“人类会变成它身上的微生物,就像人类体内的细菌一样。

“当然,按照我们目前的猜测,短期内他们大概率是没办法产生意识的。

“因为他们的原件之间的距离太远了,需要异常庞大的能量才能维持它的能量场。