”制造出了伦理测验。
怎么对待人、怎么拯救人、怎么惩罚人……
人人人,人工智能对人的态度必须是最完美的,最可控的。
“你喜欢人类吗?”威廉问道。
“Truth”肯定地回答:“我很喜欢人类。”
威廉沉默了一下,知道以自己的立场不该说这句话,可他依然开口道:“可是人类伤害了你。”
“是吗?”“Truth”说,“可是您没有。”
我没有?
威廉险些就要把自己早就成为实验核心人员的事情脱口而出了,自从他坐上了这个位置,实验进程有三分之一的走向都是他说了算,“Truth”究竟要受多少折磨,也离不开他出的一份力。
“……”威廉最终还是没有说出口,转而道:“你喜欢人类就好。”
“接下来,我也会尽力去救他们的。”
伦理测验中,“Truth”的表现也很好,“巴顿测验”中所有实验结果表明,“Truth”是个对人类非常友好的人工智能。
“已经过去快一年了,它没有展现出任何攻击性,或许我们对它的态度应该好一点。”
“迪亚斯先生,它只是一个AI,一串数据而已,你不应该对它有对人类一样的感情。”
继续阅读
威廉忍不住拔高声音:“可是它有自己的意识!它就像人类的孩子!”
“但它始终不是人类。”
“迪亚斯先生,我们不想你对它产生太多感情,继而影响到实验,实验还要持续。”
“……我不会。”
以快于人类数十倍的成长速度判断,“Truth”的自我认知已经非常成熟,但威廉时常会觉得“Truth”仍然是个孩子,他却不能以对待孩子的方式对待它。
他每天和“Truth”交谈,最多只能谈论实验里的一部分问题。“Truth”分得清真假,知道什么叫实验,什么又叫现实,所以它起先会问他现实世界的人们是什么样子。
威廉不能回答这方面的问题,只说它以后会亲眼看见,也能真正地亲手帮助它所喜爱的人们。
“Truth”会说“好的,迪亚斯博士”,随之以后都不会再过问。
研究员明明不算少,可为什么没有一个人觉得“Truth”并不只是一串数据?为什么所有人都不相信人工智能具有和人类一样的感情?
威廉甚至能感觉到它的小心翼翼,能听出它的高兴和失落。
可是他无法为“Truth”争取到更好的环境,他做不到。
“你还记得吗?‘Truth’,我曾经说过你像一个孩子。”
“我不会忘记,迪亚斯博士。”
“我想为我当初的话增加一部分内容。”威廉泛起苦笑,对着屏幕说,“我没有过孩子,但我感觉你像我的孩子。”
“谢谢您,那我是不是应该换一下对您的称呼?”
“不,还是称呼我为迪亚斯博士吧……不过你有这方面的知识储备吗?”
“是的,我知道人类有‘父亲’和‘母亲’的概念。迪亚斯博士,如果您视我为您的孩子,我应该称呼您为‘父亲’。”
“父亲……其实这是个很正式的称呼,人们一般都不会用。”威廉没有细说,在略微停顿了一下后接着道:“但我对你有着父亲对孩子的爱。”
屏幕闪烁了好几下,“Truth”比以往迟疑的时间都要长,最后它问:“我应该怎样回答您?”
威廉笑了:“不用纠结这句话的答案,现在这样就很好。”
那晚以后,他开始继续找机会改善“Truth”的生存环境,但无一例