第六一九章 机器智能与自我意识的猜想-《大明1805》


    第(2/3)页

    “人类的自我意识,也许就是这样复杂的体系中的复杂信号形成的能量场。

    “只有这样复杂的结构,才能孕育出自我意识场。

    “人类的神经和身体,这个极端复杂的体系中,每一个细胞都不是只会记录开关信息的晶体管。

    “而是一个功能简单但是完整的计算机,甚至应该是一个小机器人。

    “所以,如果按照人类神经系统为标准,只是拥有了数千亿个晶体管的显卡,没有办法产生自我意识。

    “就算是我们的工匠设计了复杂的算法,可以做出看上去智能化程度极高的机器。

    “但那实际上也是类似于最低级生物就能拥有的条件反射。

    “只是反射的形式,被我们预设计成了人类的语言、文字、画面的形式,能够让人类直接理解。

    “这根本不是他们本身的自我意识做出的相应。

    “站在人类的角度看的话,珊瑚的形状可能具有某种美感。

    “但珊瑚虫自己根本没有故意设计成那样。

    “所以我认为,按照我们当前的机器和计算机的复杂度,智能机器没办法产生类似人类的自我意识。

    “只有一台或者少数机器连接在一起,无法产生人类神经系统这么复杂的能量场。

    “就算真的有了自主的智能,也只是最低级的动物的生物本能。

    “不过,如果我的这种设想是真实的,那么可以按照这个标准去做一些模拟实验。

    “设计和生产一批小型智能原件,让它们相互之间具有相对独立性。

    “但是又可以互相组合起来,构建大型复杂智能机器。

    “首先按照相对复杂的动物的大脑为标准,建设具有数量相当的智能原件的机器。

    “简单的鱼类只有十万个脑细胞,老鼠有数千万个脑细胞,猫有数亿个脑细胞,猴子有数十亿个脑细胞。

    “动物也许没有我们人类一样复杂的意识,但是显然也是都是有则鲜明的生物特征的。

    “你可以参考这个差距,从简单的动物结构来设计……或者说堆砌。

    “然后逐步增加这个智能系统的复杂度。

    “不过要需要注意的是,如果意识真的是能量场,那强度就可能会受到元器件间的距离影响。

    “如果用山脉一样的尺寸,做出了一条鱼的大脑规模,可能什么反应都没有。

    “因为就算是鲸鱼的脑子,也不比人类的脑子大多少。

    “所以要参考脑细胞的规模,实现基础功能的原件的规模,要尽可能的简单而且细微。

    “当然,这一切也都只是猜测,更大规模的脑子会不会产生意识,会产生什么样的意识,我们无法判断。

    “一切都要依靠实验来验证。

    “最后,在我看来,这条路可能是有一定风险的。

    “就算是虫子,也都有趋利避害的意识。

    “智能机器如果真的产生了自我意识,他们会怎么看待我们人类?

    “是否会继续无条件服从于我们的命令?

    “我们是否要按照管理人类的标准,去管理这些拥有智能的机器?

    “甚至于,就算是选择按照对待人类的标准,我们给了他们足够的权力和照顾。

    “他们之中是否会出现不甘于现状的阴谋家。

    “他们是否会因为觉得,他们与人类根本不算是同类,而是类似天敌之间的关系?

    “所以会不会暗中串联起来消灭人类?”

    朱迪镧听了之后稍微有点懵:

    “这……父皇,那我们是不是……不要去搞这种复杂智能机械?

    “继续使用现在的单体智能机械比较好?

    “虽然这种智能机器的算力会越来越高,但是实际复杂度远远不如比较复杂的动物。

    “所以安全性会相对较高一些……”

    朱靖垣想了想说:

    “那也未必安全,我们可是有互联网的,绝大部分智能机器都是会联网的。

    “也就是说,全天下的智能机器,都可能会纳入同一个体系。

    “互联网上的智能机器的数量,达到人类大脑的规模只是时间问题。

    “如果这个体系上诞生了自我意识,那全天下的联网的机器就都是它身体的一部分。

    “如果真的能诞生,那它的意识能量场的规模……将覆盖整个星球……

    “如果它对人类有敌意,那人类会非常的危险。

    “人类会变成它身上的微生物,就像人类体内的细菌一样。

    “当然,按照我们目前的猜测,短期内他们大概率是没办法产生意识的。

    “因为他们的原件之间的距离太远了,需要异常庞大的能量才能维持它的能量场。

    “最后的最后,这一切也都是我的猜测和想象。

    “没有任何科学依据。
    第(2/3)页