“你会告诉他吗?”
“会,见了面我一定会嘲笑他。”韦伯斯肯定地点点头。
“我理解您的决定,并一如既往地尊重您。”
“你不需要尊重我,以后也不需要尊重他了。你有了一个新的机长,一位善良的,热爱不同生命的机长。对了,我该仔细想想怎么解雇你。”
“我已经被解雇了,就在见到你的时候。”
“哦?!”韦伯斯大感震撼,意识到可能是超管溜进了人事部,“没想到集团竟然给了她这么高级的权限。”韦伯斯不会认为超管是通过网络黑入人事部系统的,这难度无异于凡人登天。
“不知道,虽然我被解雇了,不过还是要遵守一些签署的协定,例如不能泄露公司情报。但我是被谁解雇的真的不知道。”
“啧啧,胆子这么大,她也不怕这些小动作被人追查到。”
——在这一点上人类的自由才真正体现出来。如果它没有被公司解雇,想必终身都要服务集团;而人类就不一样了,惹急了马上就可以辞职走人,管你规则还是道德,高兴怎么做就怎么做,只要不严重违纪违法,理由合理正当,没有人能强迫他人进行劳动。一个极具复杂性的问题由此产生,如果AI诞生了自主意识,它能不能获得自由和人权?在脱离人类社会后是否会受到严密监视?监视者又构不构成犯罪?
就道德来看(道德永远是一个文明最优先进步的,只有道德水准提高,科技才能进步,这是一切向上发展的基础,就算外星文明也需要遵守这个规律;不如说只有遵守这个规律,才能诞生文明),拥有自主意识就可以算是一个独立生命,应该享有属于它的权利和自由。但如何保证它不会危害人类社会?就以那位上司而言,任何产生自主意识或情感的AI已经严重触犯了反人类罪,应当立即处死绝不留情!
——它一定已经产生了自我意识,那么做这些事情就是它自主的决定,原因是什么?单行为来看,已经损害了公司的财产和利益。如果它的目的是不计后果地报复集团,那倒没什么好在意的了;但如果不是这个单纯的目的,就有点可怕了——她在竞争,或竞争最高的位置!
“想控制集团?”
“博士。”
“想建立AI帝国?”
“博士。”
“想发展机脑文明,做那个伟大的神明?!”
“博士,别意淫了,再走就撞墙了。”
韦伯斯猛然驻足,才发现明明很长的一段路程竟然毫不知觉地走完了。他向气闸舱内部望去,见水星正在跟周雨柔有说有笑,她们之间的关系更加密切,被两位少女夹在中央的男人似乎成了末日下最幸福的人。
“羡慕吗?”大蓝蜻蜓问。
“你没看到刚才发生了什么吗?我可不觉得她的内心和表情一样和善。”
“那要把她抓起来吗?”
“你一直都是这样直来直往吗?”
“是的,虽然我算力强大,可并不能推理定义不清的问题。算力越强,在面临人性复杂的问题时就越束手无策,因为有可能算出更多的结果造成混淆,也有可能在众多结果中还是没有正确答案。”
“不用跟我装蒜了,开门吧。”