如果AI机器人杀了人类,这个锅谁来背?
2018-03-21 10:24:00 1315阅读 发布地区:

不妨想象一下:今年是2023年,自动驾驶汽车终于在我们的城市街道上行驶了。然而,这也是自动驾驶汽车第一次撞击一名行人并致其死亡,媒体对此进行了广泛报道。一个备受瞩目的诉讼案很有可能发生,但是这个事件应该适用什么样的法律呢?


今天,基于英国布莱顿大学John Kingston的相关研究,我们得到了一些答案——他在这个刚刚开始的法律领域做出了一些探索。他分析指出了汽车、计算机和法律领域人士应该认真对待的重要议题。如果他们还没有开始思考这些问题,现在也是时候准备了。


这场争论的核心是,人工智能系统是否可以为其行为承担刑事责任。Kingston说,以色列Ono Academic College的Gabriel Hallevy对这个问题进行了深入探讨。

现行法律可能适用于AI的三个场景

如果AI机器人杀了人类,这个锅谁来背?


刑事责任通常需要一个行动和一个心理意图(在法律术语中可以表述为一种犯罪行为和犯罪意图)。Kingston说,Hallevy探索了三种可能适用于人工智能系统的场景。


第一种被称为“通过他者犯罪的肇事者”(perpetrator via another),患有精神疾病的人或动物犯下罪行时适用,他们也因此被认为是无辜的。但是,任何指使过精神病人或动物的人都可以被追究刑事责任。例如,一条狗的主人命令其攻击另一个人。


这对那些设计和使用智能机器的人来说意义深远。Kingston说:“人工智能程序可以被认为是无辜的代理,而软件程序员或者用户则可以被认为是‘通过他者犯罪的肇事者’。”


第二种情形是所谓的“自然可能后果(natural probable consequence)”,当人工智能系统的一般行为可能被不适当地用于执行犯罪行为时。


Kingston举了一个例子,一个人工智能机器人在日本摩托车工厂里杀死了一名人类工人。Kingston说:“机器人错误地将这个员工认定为对它执行任务构成威胁的人,并计算出消除这种威胁最有效的方法,即将其推入相邻的操作机器。机器人用它强大的液压臂把陷入惊恐的工人砸到机器上,并致其当场死亡,然后继续执行工作任务。”


这里的关键问题是,设计机器的程序员是否知道这个局面是机器使用可能带来的后果。


第三种情况是直接责任(direct liability),这同时需要行动和意图。如果人工智能系统采取了导致犯罪行为的行动,或是在有义务采取行动时未能采取行动,那么这就很容易证明了。


不过Kingston也表示,这一行为的意图更难确定,但仍然是相关的。“超速行驶是一种严格的责任犯罪,”他说。“所以,根据Hallevy的说法,如果一辆自动驾驶汽车被发现在道路超速行驶,那么法律很可能会对当时正在驾驶汽车的人工智能程序追究刑事责任。”在这种情况下,车主可能不承担责任。

人工智能可能为自己辩护

之后是辩护问题。如果一个人工智能系统可能会承担刑事责任,它会使用什么来辩护?


Kingston提出了一系列的可能性:一个存在故障的程序是否能像人类一样以精神错乱为由进行辩护呢?一种被电子病毒感染的人工智能是否能以胁迫或醉酒为由进行辩护?


这些辩护手段绝不是理论上的。Kingston 指出,在英国,一些被指控电脑犯罪的人成功地辩称,他们的电脑感染了恶意软件,而这些恶意软件恰恰是导致犯罪的罪魁祸首。


在一个案例中,一名被指控执行“拒绝服务型攻击”(Denial-of-Service Attacks)的少年电脑黑客声称,为此事件负责的应该是特洛伊木马程序,而这个木马程序在被进行初步分析之前已经从电脑中自我清除了。Kingston说:“被告的律师成功地让陪审团相信,这样的情况并不超出合理的质疑。”

AI系统闯了祸,谁来背锅

如果AI机器人杀了人类,这个锅谁来背?


最后,还有惩罚的问题。谁或者什么会因为一个AI系统的直接责任而受到惩罚?这个惩罚会采取什么形式?就目前而言,这些问题没有答案。


然而在这种情况下,刑事责任不适用,必须通过民法来解决。那么,一个关键的问题来了:人工智能系统是服务还是产品。


如果它是产品,那么产品设计立法将作为适用于这种情况的基础保证。如果它是服务,则过失侵权行为适用。


在这种情况下,原告通常必须通过三个要素来证明过失。第一个是被告有照顾义务——通常是很直接的,尽管在人工智能的情况下,很难评估护理标准,Kingston说。第二个因素是被告违反了这项义务。第三个因素是,这一违反行为对原告造成了伤害。如果这一切还有些含糊不清,人工智能系统的法律地位可能会随着它们的能力变得更像人类(甚至是超人)而改变。


有一件事是肯定的:在未来的几年里,这一切对律师们(或者是取代他们人工智能系统)可能会有一些意思。