关注机器人,就是关注我们自己的未来。
机器人伦理学的一般性讨论
机器人学本身是一个非常敏感的领域,因为机器人比任何可能制造出来的计算机(或任何其他机器)都更接近于人——无论形态上,还是字面上。这是因为机器人的形状和形式,让我们想起了自己。绝对不能脱离当今社会的社会技术考量,独立研究机器人。科学家应该时刻谨记,机器人(以及其他高科技产品)可以影响社会如何发展,许多情况是设计研制时无法预测的。人类关注机器人学的一个重要部分是机器人伦理学。给予机器人的自主性越多,对其道德和伦理敏感性的要求就越多。目前,关于机器人,尤其是具有认知能力(智能)的机器人,尚无特殊的立法。从法律角度看,人们对待机器人的方式与对待其他机器设备和人工产品的方式一样。这或许基于如下一个事实:具有完备智能和自主性的机器人尚未运行,或者,尚未进入市场。不过,许多机器人学家持有一种观点:人工智能和机器人工程迅猛发展,依照目前的速度,很快就需要相应的法律。
正如本章导论所言,阿莎罗(Asaro)指出,机器人伦理学有三个不同的方面:
• 如何设计使机器人的行为合乎道德?
• 人如何必须道德地行事,铁肩担道义?
•理论上讲,机器人能够成为完全的道德行为体(ethical agents)吗?
所有这三方面的问题,必须在机器人伦理学的可行框架下获得解决。因为这三个方面代表不同的面向,表明在包括机器人在内的社会—技术框架下,应当如何分配道德责任,应当如何对人和机器人加
以约束。
对机器人(或其他自主行为体)的首要要求是不得造成伤害。澄清道德行为体的模糊地位,解决人类伦理困境或者伦理学理论问题,是绝对必要的,但只是第二位的。这是因为机器人具有更多的功
能(和复杂性),就必须研发更先进的安全控制措施和系统,防止致命的危险和潜在的伤害。这里需要指出,机器人的危险与我们社会(从工厂到互联网、广告、政治制度、武器等)的其他人工产品带来的危险没有什么不同。正如第 4 章所说,制造机器人为了一个目的,即代替我们承担任务,将人从各类繁重或危险的劳动中解放出来。但是,它们并不能代替我们过日子,也不能消除我们过日子的需求或欲望。许多情况下,工厂或社会的意外事故被归咎于机械缺陷,但是,我们很少将道德责任归咎于机械缺陷。这里,我们要提及美国步枪协会(National Rifle Association)的口号:“枪不杀人,人杀人。”这并不完全正确。实际上,是“人 + 枪杀人”。依照这种观点,在车辆事故中,应该是“人类司机 + 车”的行为体为事故负责。
在机器人伦理学中,承认人的智能与计算机或机器人的智能之间存在着根本差异,至关重要;不然,我们很可能得出错误的结论。例如,我们相信,人的智能是唯一的智能,我们的欲望是获取权力,于
是,我们据此假定,其他智能体系也渴望权力。然而,例如深蓝(deepblue),虽然能够在棋盘上“战胜”世界国际象棋冠军,但是,它绝对不代表任何权力,其程序中亦没有人类社会的任何地盘。
译者序 _001
前 言 _001
第 1 章 本书的初步概念及纲要 _001
第 2 章 伦理学:基本原理 _020
第 3 章 人工智能 _039
第 4 章 机器人世界 _054
第 5 章 机器人伦理学:应用伦理学的分支 _095
第 6 章 医用机器人伦理学 _119
第 7 章 助力机器人伦理学 _137
第 8 章 社会化机器人伦理学 _156
第 9 章 战争机器人伦理学 _199
第 10 章 日本的机器人伦理学、文化间际问题和立法问题 _221
第 11 章 机器人伦理学补充问题 _252
第 12 章 心智机器人 _276
索 引 _293