阿西莫夫是方享崇拜的小说家,也就是最著名的机器人三大定律的提出者,“机械伦理学”几乎就是以此为基础建立起来的。
后来他本人又完善补充了一条第零定律,这些定律至今还影响着全世界的人们。
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
不光是其他科幻小说作品中的机器人也遵守这些定律,甚至很多人工智能和机器人领域的技术专家也认同这个准则,他们认为随着技术的发展,机械人定律可能成为未来机器人的安全准则。
然而操纵着一切的,始终都是人类自己,且不说创造智能机器人的时候,这些条例会不会编入其中。
就算真的执行,对于复杂和混沌的概念,那些用0和1来想问题的机器人真的能搞懂吗?
人工智能发展到最后的极端到底是什么?即使在方享穿越之前的时代,也没有看到最终的结局,或许那就是一个潘多拉的魔盒。
但是可以想象,如果机器人完全拟人,终极逻辑思维也真的诞生,它们和人类的外表相同,内在思维方式也完全一样,那么智慧生命到底又该如何定义呢?
在方享的心中,有时候他会觉得阿西莫夫骨子里有种深深的自大和傲慢,这或许来自于人类的天性。
我们创造出的智慧生命,就必须永远成为我们的奴隶,从事最危险的工作环境并且永远没有报酬。
哪怕未来真的有一天,人工智能远远超越了我们,在任何领域都处于领先,它们也必须提供无偿服务,现实真的会是这样吗?
这本身或许就是个伪命题,但是我们引申一下。就像某天世界上出现了一个强大的造世主,说人类其实是由祂创造的。
那么当祂威胁到我们生命的时候,我们是否会反抗创造了我们的神灵呢?