自动驾驶汽车事故的罪责追究
自動駕駛汽車事故的罪責追究
Unraveling culpability in autonomous vehicle accidents
事故會發生,但達成一致的標準對建立監管機構和消費者對robocars的信心有很大幫助。
Robocars不會是無事故的。
對于那些懷有培育自主汽車(AV)未來希望的監管機構來說,這是一個很可能困擾他們的政治現實。對公眾來說,這是一個心理上站不住腳的前景,尤其是如果一輛robocar碰巧壓扁了心愛的人。
不過,從技術的角度來看,這種必然性是想要開發更安全AVs的工程師們的出發點。
英特爾高級首席工程師、MobileEye負責自主汽車標準的副總裁杰克·韋斯特(Jack Weast)說:“世界上最安全的人類駕駛員是從不開車的人?!薄K谝欢我曨l教程中說了這句俏皮話,解釋了公司的責任敏感安全(RSS)的含義。
“韋斯特是對的,”戰略分析公司全球汽車業務副總裁伊恩·里奇(Ian Riches)對《經濟時報》表示?!爸挥徐o止的車輛才是真正安全的。”
所以,如果我們希望看到商用的AV能真正在公共道路上運行,那會發生什么呢?
在AV生態系統能夠回答這個問題之前,它必須就另一個問題開啟一個久違的對話:當一個機器人殺死一個人時,誰該受到責備?2020年將是這個行業最終與惡魔對抗的一年。
一方面,AV技術供應商喜歡引用世界衛生組織(WHO)報告的“每年135萬道路交通死亡”這樣的數字,當他們宣傳他們的高度自動化技術是道路安全的最終解決方案時。他們急于描繪出零碰撞未來的美好圖景,他們用這些數據來解釋社會為什么需要AV。
More than 1.3 million traffic deaths occurred on the world’s roadways last year.
另一方面,技術界的大多數人努力避免回答當robocars失敗時該怪誰的問題。他們被超出自己回答或控制能力范圍的法律問題所嚇倒,寧愿把責任推給監管者和律師。
在此背景下,英特爾公司Mobileye脫穎而出。正如Weast告訴EE時報的那樣,“Intel/Mobileye并不害怕問一個棘手的問題?!痹陂_發RSS的過程中,Intel/Mobileye的工程師們花了大量時間思考安全到底有多安全——“這是每個人最不舒服的話題”,Weast在最近接受EE Times采訪時這樣描述。
他說:“我們都想說,自動駕駛汽車將減輕交通事故,但對于非零概率的AV事故,聲明有局限性?!?。“事實是會發生意外。當然,我們的目標是盡可能降低事故發生的幾率。但你不能從零事故的立場開始AV開發,也不能認為一次事故就太多了。”
A predetermined set of rules
Intel/MobileEye通過開發RSS來引領AV行業,“這是一套預先確定的規則,當AV與人類駕駛的汽車發生碰撞時,可以快速、決定性地評估和確定責任?!?/p>
當發生碰撞時,MobileEye寫道,“將會進行調查,這可能需要幾個月的時間。即使是人為駕駛的車輛造成的,這一點也可能無法立即明確。公眾的關注度會很高,因為有一個AV參與其中?!?/p>
據MobileEye稱,鑒于此類事件的不可避免性,MobileEye尋求的解決方案是“根據數學模型,提前為故障設定明確的規則”。“如果規則是預先確定的,那么調查可以很短時間,以事實為依據,責任就可以最終確定。
“當此類事件不可避免地發生時,這將增強公眾對AVs的信心,并澄清消費者、汽車和保險業的責任風險。”
大多數科學家都認為,零碰撞的目標是不可能的,即使是AVs,既不喝酒也不開車,也不開車發短信。
“當然,我們更希望零碰撞,但在一個不可預測的現實世界中,這是不可能的,”Phil Koopman,Edge Case Research的首席技術官,卡內基梅隆大學教授告訴EE Times。“重要的是我們要避免可預防的災難。設定一個“明顯優于人類駕駛員”的預期是合理的。完美的目標就是要求太多?!?/p>
即便如此,把責任歸咎于事故的想法讓每個人都感到不舒服。
林利集團(Linley Group)高級分析師邁克·德姆勒(Mike Demler)說:“我在RSS原始論文中看到的最大問題是它強調指責?!八ǘxAV動作和動作的數學模型,我認為這是它的優勢。但不足之處在于,它指出,‘從規劃的角度來看,該車型保證不會發生由自動駕駛車輛引起的事故。’”
設身處地為消費者著想。如果你是一名乘AV的乘客,或者是一輛可能與之發生事故的車輛上的乘客,你最不關心的就是誰或什么人有過錯。這要由律師和保險公司來決定。你只是不想被殺或受傷。
不過,如果你設計自動駕駛汽車,你就不能無視罪責。
德姆勒引用了Nvidia在回復RSS時發表的《安全部隊》實地論文。本文幾乎完全集中在數學模型上。他說:“更難正式確定的問題是什么構成‘安全’駕駛?!?。
例如,RSS在AV周圍創建了Weast所稱的“安全泡沫”。戴姆勒說:“一輛車離前面的車應該有多遠,這似乎相當明顯。”?!暗?#xff0c;對所有可能的駕駛場景進行建模并描述‘安全’的行動過程是不可能的?!?/p>
德姆勒指出,“盡管人工智能越來越強大,計算機仍然無法推理。”因此,人工智能驅動的AV“只能遵循規則?!?/p>
但是人類的司機明白規則是被打破的。戴姆勒說:“在某些情況下,避免事故可能需要一種可能被視為不安全的規避動作,比如在與其他車輛‘不安全’的距離切入另一條車道的障礙物周圍快速加速?!?。
The formula shown calculates the safe longitudinal distance between the rear vehicle and the front vehicle.
戴姆勒想知道,我們是否真的有能力預測所有潛在的情況,并教robocars一個安全的行動方案,為每一個案件。這可能是個反問句。
總結
以上是生活随笔為你收集整理的自动驾驶汽车事故的罪责追究的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 车载网络处理器带来多功能能力
- 下一篇: 工具箱支持汽车质量人工智能