文章详细页面

论军事机器人的道德责任
在线阅读 收藏

本文主要讨论将道德责任分配给智能机器人的机制和原则,特别关注军事机器人。在此,引入自治力作为一个新的概念,并用它来确定要求道德考量的机器人的类型。我们认为自治力(特别是学习能力)对于把道德责任分配给机器人来说是至关重要的。随着技术的发展,将导致机器人的自治力日益增加,我们必须为将来人们指责机器人的行为而做好准备。如今我们已经开始就控制人类行为的机制展开研究,这一点非常重要,这些研究结果可以用于设计未来的军事机器人,以便去控制把道德责任分配给机器人的、有害的倾向,道德责任问题的独立性,以及机器人行为的道德品质都应被看作我们用于评价机器人的诸多性能的一个举措。如何基于控制系统而设计伦理框架,现在就应该被仔细地研究。从结果论的观点来看,在缺乏某种伦理框架的情况下,发展能够执行涉及生命和死亡行为的机器人的确是非常不道德的。

帮助中心电脑版