亲,双击屏幕即可自动滚动
第1098章 思维逻辑不等于自我意识(1/2)
    “这几年,我先后用c100和c200制造出好几批样品机器人,并且一直在观察评估,确定没有任何问题,最终才在几个月前,把c300装进了雅薇的大脑。”

    “目前来看,我的担忧应该是多余的,即使有了c系列的智能芯片,机器人也只是在模拟人类,并没有产生脱离于程序设定的自主意识,所以还是能够掌控的。”

    “后来我仔细想了一下,思维逻辑并不等于自我意识,这是两个完全不同的概念,使用了c系列芯片的智能产品仅仅只拥有思维逻辑,并没有诞生出以自我为中心的独立意识。”

    “所谓的思维逻辑其实也是由开发者事先构建好的,就好比已被发现的公式和定律,c系列的智能芯片只不过是在合理的使用这些东西,用已有的公式和定律进行复杂运算和各种推导,而它不可能创造出新的公式和新的定律。”

    “换而言之,除非程序出bug,否则它会始终服从主人的命令,不会违背一些基础设定。”

    黎薇一本正经地说了一大堆,夜星宇逐字逐句地认真听完,途中想起自己曾对雅薇施展过赋灵神通,于是便不动声色地偷偷瞄了雅薇一眼。

    此时的雅薇还算正常,没看出什么古怪,但她以前有过几次夸张举动,比如学着侯晓扮鬼脸什么的,感觉不像是一个机器人能做的事。

    夜星宇不由怀疑雅薇那家伙似乎有点不对劲,不会已经诞生出自我意识了吧

    他按耐住疑虑,向黎薇问道“如何判断一个机器人有没有自我意识”

    “我刚才不是已经说了吗你有没有认真听”黎薇没好气地答道,“拥有自我意识的机器人会有自己的想法,无视三大定律的存在。”

    她口中的“三大定律”,由上个世纪的科幻小说作家阿西莫夫最先提出,具体如下

    第一定律机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不顾。

    第二定律机器人必须服从人类给予它的命令,当该命令与第一定律冲突时例外。

    第三定律机器人在不违反第一、第二定律的情况下,要尽可能保证自己的生存。

    但经过这么多年的认知发展,原本的机器人三大定律有了一些小小的改变,与最初的版本略为不同,最终归结为以下三点

    第一,机器人不能伤害自己的主人。非主人身份的其他人类不在此列

    第二,机器人必须服从主人的命令。只限于主人,且不能违反第一条

    第三,机器人不但要保护好自己,更要保证主人的安全。不能违反第一条和第二条

    对比后可以得出结论,修改后的三大定律摈弃了道德因素,更偏向于实用观点,是把机器人视为私人物品,而不是全人类的公众财产,甚至可以把机器人当作一种战争武器来使用。

    如果还在沿用以前的三大定律,战斗类型的机器人将不可能出现,更没有存在的意义。

    试想一下,既然不能伤害人类,那么造出来的机器人拿去跟谁战斗

    所以,夜星宇现在知道了,关于雅薇有没有产生自我意识,就得看她是否违反新的三大定律。

    夜星宇把黎薇的话牢牢记在心里,却不把雅薇的异常说出来,等以后有机会,他再好好地观察确认。

    目前需要讨论的是,主要还是机器人教练,于是他便转回正题,向黎薇问道“你的意思是,可以用c100智能芯片来批量制造机器人教练吧”

    “可以是可以,但我得提醒你,这种东西可是很贵的,比车子房子还要贵,真没多少人买得起你想靠它发财趁早还是醒醒吧”

    黎薇张
-->>本章未完,点击下一页继续阅读