收藏本页 打印 放大 缩小
0

让机器理解社会伦理

发布时间:2019-02-01 09:25:54    作者:    来源:中国保险报网


作者:(美)温德尔·瓦拉赫 林·艾伦

翻译:王小红

出版:北京大学出版社

时间:2017年11月

定价:58元

□刘英团

科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)在短篇小说《环舞》(Runaround)中提出了“机器人三大法则”(包括“机器人不可以伤害人类,或看到一个人将受到伤害而不作为”“机器人必须服从人类的命令,除非这些命令与第一项法则矛盾”以及“在不违反第一、第二项法则的前提下,机器人必须保护自身生存”),被几十篇故事和小说所借用。但是,这些保护性设计或者内置的道德法则能框住拥有独立思考能力的机器人吗?人们对于把自己的生命和福祉交给忽视伦理的系统会感到放心吗?著名伦理学家、耶鲁大学生物伦理学跨学科中心主管温德尔·瓦拉赫(Wendell Wallach)在与国际知名认知科学哲学家,美国印第安纳大学布卢明顿分校教务长讲席教授、斯坦福哲学百科(SEP)副主编科林·艾伦(Colin Allen)认为,机器道德关乎人类的决策行为。他们在《道德机器:如何让机器人明辨是非》中指出,不要把责任推给机器,“我们必须更加坚守人类的价值观和伦理”。

我们置身于一个丰富多彩的世界,也生活在一个困惑和焦虑的时代。“人类决策者会因为没有掌握全部相关信息或没有考虑到所有偶发事件而做出糟糕的选择,所以也许只有在一场未预料到的灾难发生之后,人类才会发现他们所依赖的(软硬件)机器人的不完善。”正如作者所言,在未来,可能会出现一些无人驾驶汽车需要做出选择的场合——选哪条路,谁会受到伤害,或谁会处于受伤害的风险里?我们应该对汽车进行什么样的道德规范?我们当然有理由担心,我们也许不能完全理解为什么机器人做出了某个特别的决定。但是,我们需要确保机器人不会吸收和加重我们的偏颇之处。因为不管我们喜欢与否,机器人就在我们的身边,“到2030年,自动卡车、飞行汽车和个人机器人将随处可见”(斯坦福大学《2030年的人工智能与生活》报告),包括交通、医疗、教育、金融和就业等各个领域,人工智能正以人们意想不到的方式融入人类社会。那么,研究人员怎样设计一台机器人才能使它在面对“两难之选”之时作出正确的反应呢?

“机器需要讲道德。”这是英国皇家标准协会(BSI)最新标准《机器人和机器系统的伦理设计和应用指南》(BS8611)的硬性规定。现代科技的每一次跨越,总会引发人们对社会伦理道德的忧虑。随着机器人越来越智能和普遍,自动化机器终将在不可预知的情形下做出生死攸关的决定,从而具备——或至少表面上具备——道德主体资格。“阿尔法狗”在对弈中战胜了李世石和柯洁,“一个纯净、纯粹自我学习的AlphaGo Master是最强的,对于AlphaGo Master的自我进步来讲,人类太多余了”(柯洁语),就像一只蚂蚁永远无法阻止我们一样,人类想阻止人工智能的想法已经不可能了。那么,如果有一天AI的能力超过人类,是否会反过来统治人类呢?包括霍金、马斯克在内的科技巨人都曾警示,“人类不应低估人工智能发展可能带来的严重后果。”麻省理工学院情感计算研究组主任罗萨琳德·皮卡德(Rosatind Picard)教授认为,“机器越自由,就越需要道德准则。”在《道德机器:如何让机器人明辨是非》一书中,作者通过强调两个维度——针对道德相关事实的自主性维度和敏感性维度,给出一个关于日趋复杂的AMAs(人工道德智能体)轨迹的理解框架,以“评估它们面对的选项的伦理可接受性”。

机器的智能化正在逐步深入到生活领域:客机自动降落,列车无人驾驶,没有方向盘、刹车和驾驶座位的无人驾驶的汽车正在紧张的测试中。但是,机器人之“人”终究不是人类之“人”,“如果人们不确定机器会做什么,他们会害怕机器人的……如果我们能分析并证明它们的行为原因,就更可能克服信任问题。”英国利物浦大学计算机科学家迈克尔·费希尔(Michael Fisher)和英国西部大学艾伦·温菲尔德(Alan Winfield)教授共同做的一项政府资助的项目证明“道德机器程序的结果总是可知”的。“在当前的技术水平下,我们不能‘谴责’机器人。机器人尚未达到为自己的决策负责的水平。”萨塞克斯大学人工智能专家布莱·惠特比(Blay Whitby)认为,即使最低限度的道德机器人也是有用的。来自国际计算机科学家团队的一项新研究着手开发一种新型的博弈算法——其可以依靠协作和妥协等特性来进行博弈,而且研究人员已经发现,机器已经可以比人类更好地部署这些特性。作者认为,随着机器变得更加复杂,一种“功能性道德”在技术上变得可能,它可以使机器自身有能力来接近并相应道德挑战。

现代科技推动了人类社会进步,希望我们的结局不会像电影《黑客帝国》(The Matrix)里那样——机器彻底推翻了人类的统治,人类的肉体被养殖,精神存活在网络构建的虚拟世界里——“人类迫切需要确保机器人的设计符合道德规范”,以维护人类的社会价值观和社会伦理道德。在《道德机器:如何让机器人明辨是非》中,作者不但很自然地导入“人类是否想要计算机做道德决策”,还将注意力转向道德决策的具体执行上。在作品中,作者以生动的案例勾勒出科学家和工程师必须向彼此所提供的东西,并详细地描述了设计AMAs的自上而下式进路和自下而上式或发展的一个基本框架。其中,不仅讨论了基于规则和基于责任的伦理学概念的可计算性与可实践性,还论证了AMAs的不同程序化进路的优势和劣势,然后以一种哲学和认知的复杂、周密的方式为工程AMAs做铺垫,“至于未来的机器人是不是‘真的’道德主体,这无关紧要。(作者坚信)我们有可能设计、建造出能够考量法律和道德因素而去实施决策的系统”。