窝窝视频网|夜啪在线观看|蜜桃成品人免费|国产婷婷在线网站|色综婷婷蜜臀|日韩美精品成人一区二区三区四区|亚洲国产精华推荐单单品榜|私人家庭影院的推荐理由

科普園地 新聞中心

人工智能自動駕駛,法律責任怎么算

馮杰

2024年09月29日 02:50

劉俊杰 劉思聰
光明日報( 2024年08月29日 14版)

當前,新一輪科技革命和產業(yè)變革正在重構全球創(chuàng)新版圖、重塑全球經濟結構,各種新的生產生活場景不斷涌現,技術發(fā)展的不確定性給人類社會帶來許多新的問題。自動駕駛就是人工智能與傳統汽車行業(yè)結合后產生的新技術,該技術旨在依靠人工智能完整、安全地滿足無駕駛員操作情況下的汽車交通運輸需求。進入21世紀,人工智能自動駕駛技術飛速發(fā)展,近年來已有加速落地實用的趨勢。與之相應,事關人們切身利益的交通事故責任認定與分配,仍是自動駕駛有待探索和規(guī)范的社會生活場景,尚需各國在自動駕駛產業(yè)發(fā)展過程中共同面對。

1·人工智能并非法律上的“人”

在自動駕駛中,人工智能把人們的身體和注意力從駕駛操作中解放出來。根據智能化程度高低,自動駕駛汽車將不同程度地代替人們操縱汽車。國際自動機工程師學會制定了一套自動駕駛分級標準,將自動駕駛按照自動化程度劃分為五個等級:L1是部分駕駛輔助汽車,駕駛員和自動駕駛系統需要共同承擔車輛操縱任務;L2是組合駕駛輔助汽車,系統能夠承擔車輛的一般行駛任務,但需要駕駛員隨時觀察行駛過程中的周邊環(huán)境并作出響應;L3是有條件自動駕駛汽車,自動駕駛系統能夠承擔車輛的一般行駛任務并響應周邊環(huán)境,但仍需要駕駛員根據情況動態(tài)接管車輛;L4是高度自動化汽車,無需駕駛員承擔任何操作任務,但需要在特定的設計運行條件下如指定的公路范圍內運行;L5是完全自動駕駛汽車,自動駕駛系統將承擔一切駕駛任務,駕駛員變?yōu)槌丝汀?/span>

一般認為,人工智能分為弱人工智能和強人工智能。弱人工智能指的是通過編程實現機器的邏輯判斷、數據存儲和搜索等過程的智能,如常見的語音助手和圖像識別;強人工智能指的是使機器能夠產生思維意識,并具有與人類相當甚至超過人類的智能。在本質上,弱人工智能與其他工具沒有什么區(qū)別,只是按照程序設計人員的設定對外界信息進行判斷、計算并運轉;而強人工智能產品則更進一步,能夠實施所設計和編制的程序范圍之外的行為,甚至能夠自我學習,其行為是相對獨立、不受操控的。據此標準,可以將L3及以上的自動駕駛等級視作人工智能自動駕駛,其中L3、L4是弱人工智能,L5是強人工智能。

從理論上來看,無論是弱人工智能,還是強人工智能,都未超出計算機科學的范疇,不能算是法律上可以歸責的“人”。通常認為,要成為法律上的責任主體,相應主體必須具備自由意志,并能認識行為及其后果的法律意義,能夠承擔責任。固然,當前人工智能的發(fā)展極其迅速,但僅僅是具備根據程序設定發(fā)展出來的數據儲存、檢索和優(yōu)化能力,不能算作具備自由意志,也并不能認識理解行為及其后果的法律意義。例如歐洲有學者就認為,目前的這些智能機器并沒有具備道德思考和道德決定的能力。即使強人工智能具有類人類的認識和控制能力,但它仍然不過是根據人類設定的程序來完成任務的機器。

從實踐上來看,人工智能也并非各國法律規(guī)定的可以行使權利、履行義務和承擔責任的主體。在大陸法系國家,成文的法典限定了民事主體范圍。如德國民法典將民事主體規(guī)定為自然人、消費者、經營者和法人四類,日本現行民法只將人和法人作為民事主體,俄羅斯聯邦民法典同樣只將公民(自然人)、法人規(guī)定為民法上的人。在以判例法為特征的英美法系國家,如美國、英國,尚未有將人工智能作為民事主體的訴訟案例出現,且在實踐中否定了人工智能的民事主體地位:2020年,英國薩里大學研究人員在使用人工智能DABUS進行研究的過程中,DABUS提出了兩項獨特的設計創(chuàng)意,然而歐盟專利局卻駁回了研究人員以DABUS名義提出的專利申請,理由是專利發(fā)明者必須是人而非機器。就刑法的犯罪主體而言,雖然人工智能帶有一個“人”字,但是在各國刑事法律體系和實踐中,還沒有被當作刑事責任主體的先例,目前僅停留在學術探討的層面上。

2·自動“行車”,亦有“刑責”

未來人工智能自動駕駛的技術取向,在于逐步減少直至取消人的控制因素,從而達到提高效率、節(jié)省成本、減少損失的目的。隨著駕駛自動化程度從L3到L5等級的提高,對人們而言,駕駛車輛所需要的駕駛技術要求是逐步降低的??梢韵胂螅贚5完全自動駕駛狀態(tài)中,駕駛員實際的角色是乘客——只需要坐上去,然后做好在目的地下車的準備。問題在于,既然人工智能不是法律可以苛責的對象,那么一旦發(fā)生交通事故,法律上的不利后果應當由誰來承受?如果是駕駛員承擔,那駕駛員又應該負多大的責任?德國學者希爾根多夫將這一問題稱為“控制困境”。

現有L3以下的自動駕駛技術部分減少了人對車的操作責任,但是駕駛員仍需為交通事故承擔刑事責任。自動駕駛雖使人們免于操作機械,但從過往案例來看,各國司法實踐主要持駕駛員負主要責任的立場,采取駕駛員應當負有注意和介入義務的觀點,免除了車輛廠商及其自動駕駛系統技術的責任。例如,2019年12月29日,一輛黑色特斯拉Model S在美國洛杉磯郊區(qū)發(fā)生一起嚴重事故。當時,駕駛員利雅得開啟了L2級自動駕駛系統,從當地一條高速路駛出,在公共開放道路上闖了一個紅燈后撞上另一輛小轎車,導致這輛小轎車上的兩名乘客當場身亡。在該案中,檢察官以“過失殺人罪”和“交通肇事殺人罪”對利雅得提起了兩項罪名指控,而特斯拉轎車和自動駕駛系統經調查不存在任何問題,無須承擔責任。

在全球首例L3以上高度自動駕駛車輛致人死亡案件中,車上的測試人員也承擔了刑事責任。2018年3月18日,美國亞利桑那州一輛載有安全員的自動駕駛車輛在測試中以70公里時速撞上一名過馬路的婦女并致其死亡,當時這輛車正處于L4駕駛狀態(tài)。本案歷時五年,優(yōu)步公司最終未承擔任何刑事責任,安全員拉法埃拉·瓦斯奎茲被指控過失殺人,被判處三年監(jiān)督緩刑,成了全球第一位因自動駕駛事故被判有罪的人。美國國家運輸安全委員認為,優(yōu)步公司的系統未能及時識別前方物體及其行動軌跡是重要因素,但安全員在履職期間觀看手機上的娛樂節(jié)目導致分心以至于沒有及時制動車輛才是事故發(fā)生的主要原因,因此車禍主要原因在人而非技術。

不過,相較于傳統駕駛中的刑事責任,人工智能自動駕駛車輛中的駕駛員責任需要減輕。法律責任往往與行為掛鉤,有相應的行為才需要承擔相應的責任。隨著人工智能自動駕駛技術的進步,駕駛員的駕駛功能逐步被代替,其法律責任勢必相應減輕。例如,日本有學者就認為,從人工智能系統與人的關系出發(fā),在自動駕駛系統完整承擔一次行程駕駛任務的情況下,駕駛員不應負有任何注意義務,因此也不應承擔任何法律責任;如果自動駕駛系統只是在途中承擔一段的駕駛任務,那么駕駛員僅在自己駕駛的階段負有注意義務。瑞士和德國有學者也指出,雖然從現行法律來看,駕駛員在L4及以上的自動駕駛狀態(tài)下均應當履行對車輛的支配義務,但總的來說其義務應與自動化程度成反比;與自動駕駛車輛帶來的好處相比,將事故產生的刑事法律責任完全落在汽車的操作者身上是不公平的,建議對汽車操作者的刑事責任進行限制或減輕。

3·交通事故悲劇發(fā)生,誰來買單

2023年4月21日,海外首例自動輔助駕駛事故民事索賠案宣判。美國洛杉磯高等法院陪審團裁定特斯拉公司的自動輔助駕駛功能的安全氣囊在事故中并未失去安全性能,不支持原告提出的巨額賠償訴求。后者在2020年提起訴訟,稱她的特斯拉轎車在自動駕駛狀態(tài)下失控轉彎撞向路邊后,由于自動駕駛儀和安全氣囊的設計存在缺陷,導致自己的頜面和面部神經受傷受損,要求法院支持其超過300萬美元的賠償訴求。陪審團認為,特斯拉用戶手冊已明確提示自動輔助駕駛功能不是自動駕駛系統,并提醒不要在城市街道上使用該功能,事故主要是因為司機分心。訴訟風云散去后,留下了一個值得討論的問題:隨著未來自動駕駛系統等級的逐步提高,自動駕駛車輛生產廠商是否應對交通事故承擔民事責任,以及應該在什么限度內承擔責任?

在L3以下的自動駕駛交通事故中,人工智能不擔責,駕駛員不能擔全責,則廠商對可能存在的過失應當擔責。如果人工智能不能成為被法律懲罰的對象,而駕駛員的責任又需要減輕,就極容易造成民事賠償責任方的缺位,交通事故導致的侵權就無法得到合理補償,因此車輛廠商需要成為責任方之一,對系統和硬件可能存在的缺陷以及產品宣傳可能產生的誤導負責。在實踐中,同樣以2018年優(yōu)步測試車輛致死案為例,雖然安全員已經認罪,但美國國家運輸安全委員會仍建議優(yōu)步公司與安全員共同承擔民事賠償責任。在聯邦制的美國,統一的自動駕駛法還在制定當中,目前是各州自行制定相關法律。例如,華盛頓特區(qū)要求駕駛員應做好隨時接管自動駕駛汽車的準備,并明確了制造廠商對產品缺陷的責任;田納西州規(guī)定,在自動駕駛系統受控制的情況下,均由制造廠商承擔責任;加州要求制造廠商購買數百萬美元的保險以應對自動駕駛交通事故造成的損害;不過,也有少數州排除了廠商的責任,例如得克薩斯州法律規(guī)定車輛所有人應對事故和交通違法行為負責。又如,英國交通部發(fā)布的《安全使用自動車道保持系統:回應和后續(xù)步驟》規(guī)定,當自動駕駛車輛處于正常的自動駕駛狀態(tài)時,駕駛員不需要負責,只要求其在緊急時刻介入操控,這意味著責任將轉移至制造廠商和保險公司。此外,2020年德國慕尼黑法院曾裁定特斯拉在廣告中存在夸大宣傳其輔助駕駛系統、誤導消費者認為這是高度自動駕駛功能的行為,禁止其使用“包含自動駕駛”等宣傳用語。

從全球立法前沿來看,未來L3及以上更高等級的自動駕駛車輛投入商用后,制造廠商也不能因人工智能更加自主而免除民事責任。因為人工智能歸根到底是由人開發(fā)出來的,無論發(fā)展到什么程度,開發(fā)者都需要對它可能存在的缺陷負有完善和改進的義務,并且對缺陷造成的損害承擔一定的責任。如日本《自動駕駛相關制度整備大綱》中雖規(guī)定,L3級駕駛狀態(tài)發(fā)生事故時的責任按普通汽車同等處理,但車輛和駕駛系統存在明確的缺陷之時生產商需要負責。德國《自動駕駛法》規(guī)定,事故如果發(fā)生在人工駕駛階段,則由駕駛人承擔責任;如果發(fā)生在自動駕駛階段,或由于系統失靈釀成事故,則由生產廠商承擔責任。韓國修訂后出臺的《汽車事故賠償法》規(guī)定,L3級自動駕駛汽車事故的主要責任人是駕駛者;如果自動駕駛車輛有明確的缺陷,則由制造廠商負連帶責任。2022年,英國多個法律監(jiān)管機構發(fā)布的聯合報告建議,自動駕駛汽車在自動駕駛狀態(tài)下發(fā)生交通事故時,車輛駕駛員不承擔任何因交通違法導致的責任,由自動駕駛技術研發(fā)企業(yè)或車輛制造廠商對交通事故承擔法定責任。

4·新興技術更需向善治理

人工智能造福人類交通運輸出行的時代浪潮已勢不可擋。自動駕駛汽車的研究從20世紀就開始了,得益于近十年人工智能技術的發(fā)展,才取得質的突破。早在2012年,美國谷歌自動駕駛汽車就獲得了許可證;2020年,韓國發(fā)布L3級自動駕駛安全標準并制定商用化標準,這是全球首例;2021年12月10日,德國聯邦汽車運輸管理局允許L3級自動駕駛汽車在德國全境的高速公路上行駛;同年日本發(fā)布的《官民ITS構想·路線圖》重申,到2025年,私家車、卡車運輸實現高速公路L4級自動駕駛……人工智能自動駕駛的未來已近在眼前。

新興領域更需要向善向上的法律規(guī)則治理。與技術發(fā)展進步和落地應用的速度相比,所相適配的社會倫理、道德規(guī)范的建立往往相對滯后,這就更需要以良法善治規(guī)范和保障新技術健康發(fā)展,確保新技術在合理的制度框架內服務于人類對美好生活的追求和向往。中國提出的《全球人工智能治理倡議》值得自動駕駛的法律治理借鑒和遵守,包括堅持“以人為本”理念、堅持“智能向善”的宗旨、推動建立風險等級測試評估體系、逐步建立健全法律和規(guī)章制度等。面向人工智能時代,更好處理自動駕駛帶來的交通事故及其責任需要注意以下三點:

首先,駕駛員承擔的責任應逐步減少。技術在解放生產力的同時也在解放人類,人們在法律上的權利義務應當隨著技術的進步而適時變化,自動駕駛技術在逐步解放人類的肢體和注意力,那么駕駛員的交通事故責任認定宜根據自動駕駛的自動化智能程度之提高而相應減輕。

其次,法律應當及時適應新質生產力的產生和發(fā)展。法律責任的合理劃分事關社會的治理與穩(wěn)定,需要注意法律滯后性對新興事物發(fā)展的負面作用。對于有關企業(yè)的新技術,既要從社會效益的角度做好法律適用的解釋工作,也要及時修訂或出臺有關法律,為新質生產力的成長提供法治保障。

最后,應加強自動駕駛的配套基礎設施建設。自動駕駛的推廣和交通事故的減少,不僅有賴于向善的科技倫理和健全的法律制度,更有賴于公路、橋梁、電力設施和信號設備等交通基礎設施的更新與完善。

(作者分別系中國人民大學紀檢監(jiān)察學院副教授、當代政黨研究平臺研究員,中國人民大學中共黨史黨建學院博士研究生)


]]>

2024年09月29日 10:51
373
推動經濟社會發(fā)展綠色化、低碳化