后台-系统设置-扩展变量-手机广告位-内容正文顶部

“自動駕駛”肇事:Uber不擔刑責,誰來擔?

去年3月18日在美國亞利桑那州坦佩市發生瞭一起比較嚴重的車禍事故,在這起事故中,Uber的一輛自動駕駛汽車撞上瞭一名行人,並致其死亡。發生事故的車輛屬Uber公司新研發的正處於測試階段的無人駕駛汽車,一時間,無人駕駛汽車的公共安全與法律責任問題備受關註。

近日,針對這起撞車事故,美國檢方宣佈涉事汽車所屬的Uber公司對該事故不承擔刑事責任。該事故作為全球首例自動駕駛汽車致人死亡的案件,不得不讓人們對人工智能時代的到來增添瞭新的疑慮。

這個案件中,生產自動駕駛汽車的Uber公司之所以無責,是因為由其公司研發、設計的自動駕駛系統在撞人前已發現受害者,但因系統設置的原因,在該計算機控制模式下車輛無法自動開啟緊急剎車,剎車的控制權由隨行的安全駕駛員享有。所以,監控這輛車的司機可能要為此次事故買單,因為在事故發生前,司機一直在用手機觀看電視節目,如果駕駛員克盡審慎義務,該事故“完全可以避免”。但問題是,讓司機擔責,司機會不會感到冤枉呢?因為這是“無人駕駛”的汽車,他的責任至少不同於日常的普通汽車吧,否則還叫什麼“無人駕駛”。所以,對“無人駕駛”汽車的司機追究交通肇事犯罪的刑事責任就必然受到瞭阻力。

隨著人工智能化的進一步發展,自動駕駛技術的終極目標是徹底取消駕駛員的位置,以期做到完全性的無人駕駛。到那時,如果產生類似今天的交通事故,法律又將如何追責?

無人駕駛技術必然會要求人工智能在適當時刻超出設計和編制的程序規范並做出決策,以處理瞬息多變的交通狀況,這就使其具備瞭與人相似的辨認和控制能力,也就可能造成一定的法益侵害結果,因而依然存在刑事追責的可能性。

然而,人工智能所做出的行為,主要屬於技術而非法律、道德范疇。單純從刑事責任產生的依據和目的來看,人工智能難以成為刑事責任主體。譬如,道義責任論認為法律人格的必備要件是意志自由,如果犯罪主體不具有意志自由,不具備人腦的認識和意志功能,對交通法規等規范並不能完全理解,那麼無法在道義層面上對其予以譴責,刑罰手段對其就毫無意義,更沒有教育感化的可能。

另外,刑罰的種類主要包括人身刑與財產刑。對於智能機器人來說,因為不存在實體和生命,人身刑對其並沒有什麼影響;而且智能機器人不同於自然人或單位,不需要也不享有財產權,財產刑也無法適用。

不過,隨著人工智能不斷升級發達,人工智能終究會具備類似於人類的辨認、控制能力,而辨認、控制能力與犯罪故意、過失的產生息息相關。故意由認識因素和意志因素組成,在認識上要明知自己的行為必然或者可能會產生危害社會的結果,“可能會”在自動駕駛技術中是常常會遇到的情境。在意志因素方面,人工智能攝像、捕捉系統能夠識別駕駛過程所面臨的危險,而且能夠通過方案推演模型做出相應的決策,如果人工智能已經認識到自己的行為會產生危害結果,仍然選擇做出操作,就構成瞭刑法上要求的“希望”或者“放任”的心態,也就產生瞭相應的“故意”和“過失”。

比如,人工智能自動駕駛車輛到分岔路口,發現近路上有一群人,如果為瞭準時將乘客送達目的地而選擇撞上人群,就屬於直接故意;如果認識到可能撞上人群,依然選擇走近路,就構成間接故意。又如,人工智能自動駕駛車輛到路口,因為處理識別紅綠燈等其他數據而忽略到闖紅燈的行人,則屬於疏忽大意的過失;如果智能機器人已經預測到可能會撞到行人,但通過一般性計算,相信自己不會撞到,而實際上發生瞭撞傷行人的後果,就屬於過於自信的過失。

但即使人工智能具備瞭類似刑法規定的責任條件,如何處罰“自動駕駛”的犯罪主體,恐怕還是離不開人類自身這一主體。

針對可能出現的自動駕駛肇事帶來的法律責任問題,追究設計者、監管者或者使用者的責任更為現實。不可否認,人工智能可以替代越來越多人類實行的操作行為,在一定程度上就可擁有獨立的法律人格,如果因最初設計缺陷引發交通事故,造成瞭嚴重危害社會的結果,就應當追究設計者的責任;如果是管理或者使用者監管失職或者操作使用不當,則要追究監管者或者使用者的責任。不過,相關的罪名和責任形式可能需要進行新的補充修改和完善。

我們不妨再做一點想象,如果機器人時代發展到瞭機器人與人類共同在大街馬路上行走,到那時,法律和規則恐怕就要人類與機器人共同制定修改瞭。刑法也必將邁入“科幻”時代,交通與犯罪問題也勢必會發生巨大的改變。(作者系同濟大學法學教授)

后台-系统设置-扩展变量-手机广告位-内容正文底部
发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章