當前位置: 華文天下 > 辟謠

陳靜|人工智能體視域下的法益侵害及歸責路徑

2024-07-17辟謠

技術的兩面性決定了自動駕駛汽車在經歷數個發展階段實作完全的自動化後,給人類帶來諸多便利的同時,依然存在法律上爭議,主要包括對交通肇事罪認定及公民個人資訊保護帶來的挑戰。人工智能無人駕駛技術的套用使駕駛員發生「角色」轉變,成為無人駕駛汽車的「使用」人,這使其在無人駕駛汽車發生交通事故等情形時的責任義務也隨之變化。且無人駕駛汽車的設計研發、生產、使用等環節均可能因主體的故意或過失導致以無人駕駛汽車為載體的犯罪行為發生,因此這些主體也被賦予了法律意義上更為嚴格的責任。但從刑事責任論層面來講,理論界所提出賦予人工智能體刑事責任主體地位的觀點值得商榷。有必要在人工智能主體不能作為刑事責任主體的理論前提下,區分具體情形下無人駕駛汽車相關主體的行為性質。

自動駕駛技術的研發與運用為汽車產業升級發展帶來了機遇,隨著人工智能的深入發展,由自動駕駛技術完成所有駕駛任務,實作完全自動駕駛也由理想變為現實。在完全自動駕駛的情況下,車的使用人均為「乘客」,不再需要「駕駛員」親自駕駛。由此,完全自動駕駛技術也被稱之為無人駕駛技術,該項技術的產生勢必將為汽車產業乃至整個交通領域帶來一場革命性的轉變,這種高智能性一定程度上提升了交通出行的安全性,也可以起到緩解交通堵塞、防止駕駛疲勞等作用。但技術往往具有兩面性,在承認無人駕駛技術迎來機遇、帶來不可忽視的有利影響的同時,不可否認的是,由於無人駕駛是由演算法程式驅動的,如果演算法程式出現失誤或者被人為利用,技術上的優勢反而會演變成為不利於社會安全的風險,這種人為的不確定性會加劇公眾的焦慮感和不安全感。與此同時,無人駕駛技術的產生也給當前法律體系帶來了挑戰,如何規範無人駕駛技術的運用以助力於社會發展?如何規範人工智能演算法程式的研發和利用,防止以科技研發之名行犯罪之實?在無人駕駛引發交通肇事或者其他犯罪情形時,刑事責任又應如何認定?這一系列問題的解答,都意味著傳統刑法體系乃至整個法律體系面臨著解釋甚至調整。而在人工智能不斷發展的視域下,對於無人駕駛技術的運用與規制,我們尚需理性對待。

無人駕駛是自動駕駛技術深化發展的最終結果。根據國際自動機工程師學會釋出的自動駕駛分級標準,自動駕駛技術共劃分為L0-L5六個級別,依次表示自動駕駛技術介入駕駛任務的程度。其中,L0為非自動化,屬於最原始的狀態,需要完全依靠駕駛員完成駕駛任務。L1實作了小部份功能的自動化操作,比如自動剎車、車道保持輔助等,亦被稱之為「輔助駕駛」。L2級別則是目前市場上所謂「自動駕駛汽車」大部份會運用的技術。但從嚴格意義上來講,前述級別的汽車尚不屬於自動駕駛的範疇。在這一級別及之前,自動駕駛可以說只是一種技術雛形。在技術得到進一步深化的情況下,L3級別到L4級別則實作了從需要駕駛人隨時註意駕駛狀態到不再需要駕駛人隨時註意駕駛狀態的一定條件下的自動駕駛。而發展至L5級別,自動駕駛技術的運用已經可以在任何條件下代替駕駛人完成駕駛任務,也就是本文所指的無人駕駛。

而無人駕駛技術這一概念的提出,最早是在20世紀40年代左右,以美國通用汽車公司成功研發出首輛無人駕駛概念車為標誌。在2000年,日本豐田公司成功研發出首輛無人駕駛公共汽車;意大利帕爾馬大學則於2013年成功研發了無人駕駛汽車,並試駕跨越歐亞大陸,這意味著人類社會開始步入無人駕駛汽車時代。

在這一背景之下,美國於2016年9月釋出【聯邦自動駕駛汽車政策】,是全球首個關於規範無人駕駛技術研發和套用的政策檔。同年12月,其再次釋出【聯邦機動車安全標準——第150號】,要求所有輕型車輛強制安裝V2V通訊器材,以確保車輛與車輛之間能夠發送和接收基本安全資訊。此後,美國開始研究制定聯邦機動車安全法案,前述安全標準成為法案的重要內容。在此期間,各國也紛紛關註自動駕駛相關立法。2017年,德國透過修改道路交通法的方式,明確了自動駕駛引發交通事故情況下各主體的責任與義務;同時,其公布自動駕駛道德準則,極為前瞻地指出了高度以及完全自動駕駛(也即「無人駕駛」)車輛所存在的技術風險,且進一步明確了權利與權利之間的不同價值優位。同年,日本也公布了無人駕駛車輛行駛測試所需要滿足的道路安全使用特許基本標準,包括需要由警察對無人駕駛車輛進行限速、轉向、辨識標識等方面的審查,由警署署長最終決定無人駕駛車輛行駛測試所使用的道路等。

2018年5月,中國也頒布了【智能網聯汽車道路測試管理規範(試行)】,分別在各章規定了自動駕駛汽車的類別、測試的主體、申請程式、管理以及交通違法情形的處理等內容。就目前而言,以上海為例,部份地區已經開通了智能網聯綜合測試區以及多場景自動駕駛開放測試區。比如在2020年上海市浦東新區人工智能高質素發展釋出會上,金橋智能網聯汽車測試道路正式亮相,規劃裏程達30.6公裏,涉及申江路、東靖路和金海路等10條道路,是上海首個中心城區自動駕駛開放測試道路,也是國內首個特大型城市中心城區智能網聯帕蒂德馬斯哈德市開放測試道路典型測試場景。由此可見,就目前而言,在中國,嚴格意義上的L3及之後級別的自動駕駛汽車尚處於測試階段。結合國內外人工智能以及自動駕駛技術研發套用的實踐,隨著國家對人工智能研究的不斷創新與深入,無人駕駛技術的套用也必將成為中國未來自動駕駛汽車發展的方向。

雖然隨著互聯網、大數據、雲端運算等快速發展,無人駕駛技術成為人工智能時代技術革新與產品創新的產物,這一技術的運用無疑會給交通領域帶來一場前所未有的革新;但回視理論界對於無人駕駛技術所涉及一系列法律問題界定尚不明確的現狀,我們在正視無人駕駛技術改善人的駕駛體驗與駕駛方式,提升交通出行的安全性等方面積極意義的同時,也應直面並積極化解無人駕駛技術帶來的挑戰與風險,筆者認為,重點應關註以下幾個問題:

傳統刑法中的刑事責任,評價的是人實施犯罪行為之後所要承受的相應後果,可見刑事責任最終仍然需要人去承擔。雖然刑法也對單位犯罪追究刑事責任,但刑法同時也明確了單位是擬制的「人」。歸根結底,刑事責任仍然是人的責任。而由於無人駕駛技術的運用,將來汽車駕駛的各項操作已經不再完全依賴於自然人,這就導致無人駕駛汽車引發交通肇事或者其他致人損害情形時在刑事責任追究上出現了不可回避的難題。

從無人駕駛的本質原理上來講,無人駕駛汽車其實是一個人工智能體,其透過電腦智能車載傳感系統感知道路環境,從而自動規劃行車路線並控制車輛達到預定目標。這決定了無人駕駛汽車能夠獨立於駕駛人而完成相應行車任務,在行駛、路線選擇、道路標誌辨識、停靠等行為的實施上具有一定的「自主性」特征,有別於傳統的需要完全或者部份依賴駕駛人的汽車。也正因為此,學界不乏論者提出應賦予人工智能體刑事主體責任的論斷,並以此為基礎認為應專門針對機器人建立起一套特殊的刑罰體系,比如「刪除數據」「修改程式」「永久銷毀」。對此,筆者認為,如若承認無人駕駛汽車等這一類人工智能體具有與自然人一樣的刑事責任主體地位,可能會產生以下難以自洽的矛盾或難題:一是機器學習與人類自由意誌的本質差異。機器學習依靠的是演算法編程,需要透過程式語言來設計程式,將生活中的種種事物甚至是各種行為活動編譯成程式碼以供機器辨識,從而完成相應操作。雖然目前也已經出現了電腦可以脫離人類操控實作無監督狀態下的自主學習演算法的情形,比如此前一度引發熱議的AlphaGo人工智能機器人透過深度學習擊敗了作為圍棋世界冠軍的人類職業選手,但即便如此,這些實作「自主行動」的人工智能體依靠演算法編程而產生的機器意識依然無法取代人類的自由意識。人類意識最大的特點是基於主觀能動性的支配創造出意誌上的自由,但「邏輯演算法束縛下的機器意識根本不具有多細胞生物意識的多樣性,也就更無自由可談」。二是類似於無人駕駛汽車這一類人工智能體的「自主性」與刑法意義上的對犯罪行為的辨認和控制能力有差異。當然,筆者不否認無人駕駛汽車這些人工智能體在預測結果可能性、智能判斷態勢等方面的精準度可能確實會遠超人類,但其依然是人類發揮主觀能動性的產物,人類對其程式的更改、變動、刪除會直接影響其「自主能力」的水平。從這一層面而言,無人駕駛汽車的「自主性」與智能性最終取決於人類演算法程式的設定,取決於人類的主觀能動性發揮和智力能力。因此,無人駕駛汽車的「自主性」仍是人類智力挖掘運用的外化和延伸。而刑法意義上的辨認和控制能力要求刑事主體對自身行為具有行為性質、法律後果等方面的認識,並基於這一認識具有實施該項行為的支配能力,顯然,正如有學者論及的,無人駕駛汽車並不具備意思決定能力,其只是在特定程式設定下從事的特定事項,其辨認和控制能力是人類自我控制能力擴充套件的物質外在表現。三是或恐給當前刑罰體系帶來挑戰。刑事責任的承擔最終會體現為刑事主體對刑罰的承受,但就當前中國的刑罰體系而言,不論是自由刑、財產刑抑或資格刑,這些刑罰對於沒有生命也沒有財產的人工智能體無人駕駛汽車本身而言是沒有意義和作用的。對此,正如前述所提及的,有學者也提出了針對人工智能體專門設立刑罰措施的觀點。筆者肯定該觀點具有一定合理性的同時,認為依然值得商榷。因為承認人工智能體與自然人一樣具有刑事責任主體地位,並增設專門的刑罰措施,實際上會對中國當前刑罰體系造成巨大的沖擊。刑法因為解釋而獲有生命力,如果在現有刑法和刑罰體系當中可以尋求到合理的解決出口,刑法就應當保持其謙抑性。且任何一項立法上的調整也需充分考慮其必要性、成本以及社會效應,否則或恐落入隨意立法的窠臼。

無人駕駛技術的產生與發展,首先使得交通肇事罪的認定面臨爭議,包括但不僅限於前述所提及的刑事責任論的問題。根據前文討論的思路,包括無人駕駛汽車在內的人工智能體不應該也不可能成為刑事責任主體,這意味著無人駕駛汽車行駛在公共道路上發生重大交通事故的情況已經很難以交通肇事罪來進行刑法評價。因為無人駕駛汽車完成駕駛任務已經不再依靠駕駛員,車中的人均為「乘客」。其自動行駛狀態下發生的交通事故與無人駕駛汽車使用者的主觀意誌沒有任何直接關系,因而如果對該車的使用者處以交通肇事罪,其實會嚴重背離主客觀相統一的刑事歸責原理。而如果以交通肇事罪追究該無人駕駛汽車設計者、研發者或者生產者責任,顯然又與罪責自負原則不相契合。且要歸責於設計者、研發者、生產者這一類人,尚需根據其主觀意圖、行為性質、行為與結果之間的因果關系等要素進行責任認定上的區分。對此,本文將在下一部份著重探討,此處不再贅述。

此外,交通肇事罪的量刑根據是否肇事後逃逸或有其他特別惡劣情節,以及逃逸是否致人死亡,而在法條中依次規定法定刑升格。但如果是無人駕駛汽車出現「交通肇事」的情形,這一條款的適用便會出現一定的不適應,並引發一系列疑問:比如當無人駕駛汽車發生重大事故,該車的使用者對受害者是否具有刑法意義上的救助義務?如果無人駕駛汽車的使用者逃逸了,前述已經論及僅僅是發生「交通肇事」的情況下,使用者作為車內的「乘客」,其單純乘坐的行為並不能與「交通肇事」出現的後果形成聯系,連交通肇事罪的第一級法定刑都無法成立,其逃逸的情況下便要認定為交通肇事罪似乎是無源之水。而且如果這種逃逸的情形認定為交通肇事罪,是按最基礎的法定刑量刑?還是直接對使用者進行升格處理?為了平衡罪刑,有觀點提出可以將逃逸的使用者按交通肇事罪的共犯論。但在人工智能體顯然難以作為刑事責任主體被追究刑事責任的前提下,如果將逃逸的使用者以共犯論處,那麽正犯又是誰?這一系列問題都亟待在刑法規制的過程中找到合理化的答案。

透過套用自動駕駛技術,部份或者全部的駕駛任務之所以能夠交由汽車,尤其無人駕駛汽車實作了完全的自動化而不再依賴駕駛員,是因為其透過電腦演算法程式的設定,已經可以實作無人駕駛汽車對各種道路情境的預判並根據預定的程式作出相應操作。而要無人駕駛汽車實作預判並「自主」完成相應操作,以確保道路行駛的安全性,無人駕駛汽車就必須無時無刻不在收集各種數據,有來自外界的道路行駛與人身安全、交通安全相關的汽車周遭數據,也有來自汽車內部的功能狀態、行駛操作等技術數據,甚至還會收集無人駕駛汽車使用者及相關人員的個人資訊,比如常用地址、個人偏好、生活習慣等,這些數據資訊與個人私密密切相關。在當前社會已經步入大數據時代的背景下,公民個人資訊往往有著巨大的商業價值,在利益的驅使之下,社會便萌生了非法獲取、利用、侵害公民個人資訊的行為。且無人駕駛汽車透過電腦來采集公民個人資訊的數據量是極為龐大的,一旦這些個人資訊被泄露或者被非法利用,那就意味著絕非某一個人利益的受損,而會牽涉到一群人,甚至是整個社會。

出於保護公民個人資訊保安的目的,中國刑法曾先後兩次透過出台修正案的方式加強了對侵犯公民個人資訊行為的打擊與懲處,包括2009年刑法修正案(七)對出售、非法提供公民個人資訊罪、竊取、非法獲取公民個人資訊罪的規定;以及2015年刑法修正案(九)進一步擴大了侵犯公民個人資訊犯罪的範圍,加大了刑事處罰的力度。不可否認,近年來,隨著中國社會進入大數據時代,中國針對公民個人資訊的保護在法律規範層面也不斷得到完善。但在人工智能、演算法數據、無人駕駛等這些新興技術進一步深刻發展的情況下,現行法律體系面對一些新類別的侵犯公民個人資訊的行為依然稍顯無力。比如,以無人駕駛技術的套用為例,對於無人駕駛汽車傳感器所收集的可以用海量來形容的公民個人資訊,在公民不知情或者拒絕自己的個人資訊被共享的情況下,無人駕駛汽車的設計者、研發者、生產者對於公民個人資訊保護負有何種責任與義務?如果負有相應的責任義務,那麽其責任與義務履行的邊界在哪裏?或者說,我們又該如何合理地平衡數據使用與公民個人資訊保護之間的關系?對於這些實踐中已經出現或者正在湧現的問題,刑法有必要適時予以回應。

綜合前述分析,人工智能時代無人駕駛技術的套用與創新給人類社會生產生活帶來便利,給交通領域發展帶來革新的同時,也引發了法律規制層面的諸多爭議,包括人工智能體刑事責任論、無人駕駛技術的套用出現交通肇事、侵犯公民個人資訊等情形的認定等。對此,在厘清了包括無人駕駛汽車在內的人工智能體不具備刑事責任主體資格與地位的前提下,筆者認為,討論人工智能的刑法規制,重點應回歸到人的責任承擔本身,因為隨著人工智能、大數據、演算法這些技術的不斷發展,無人駕駛汽車被用於服務人類社會,最終仍是人生產、研發、制造的,並為人所使用。當技術發展到一定程度,人類在享受無人駕駛技術為自己帶來更為便利生活的同時,相應也會出現一部份人以人工智能、無人駕駛技術為工具從事犯罪,這種現象是必然存在且不可避免的;當然也有一部份是屬於人類對無人駕駛操作,或者在制造等階段過失的人為介入導致不利後果的出現。因此,筆者認為,對於人工智能無人駕駛技術的規制與發展,刑法更應重點關註人(故意或過失地)導致無人駕駛汽車損害國家、社會以及他人合法權益的情形。

根據前文的分析,由於無人駕駛汽車不需要駕駛員對車輛安全行駛負有隨時的註意義務,在無人駕駛汽車引發重大交通事故的情形下,交通肇事罪的適用空間大大縮減,且對相關主體的刑事歸責尚需區分不同情形來進行判斷。

首先,存在利用無人駕駛汽車及其相應系統程式實施故意犯罪的情形。具體包括:一是在無人駕駛汽車的設計、研發、生產、銷售、使用等各個可能觸及無人駕駛汽車的環節,相關的行為主體意圖借助無人駕駛汽車這一「工具」來實作其犯罪的目的。比如,無人駕駛汽車的生產者存在報復社會的心理,故在生產的過程中隨機選取無人駕駛汽車,並替換錯誤的程式程式碼進入無人駕駛汽車的系統之中,使隨機的受眾群體在使用過程中發生重大事故。在這一過程中,無人駕駛汽車的設計者、銷售者、使用者其實對程式程式碼已替換的事實並不知情,且設計者為生產者的前端,在設計者、銷售者與生產者無共謀的情況下,不可能與生產者成立共犯。而對於無人駕駛汽車的使用者而言,這種情況下,其本身也是行為人「報復」的不特定物件之一。因此,這種情形下,只需追究生產者以危險方法危害公共安全罪的刑事責任即可。同樣依循此理,如果行為人在無人駕駛汽車設計到使用的某個或某些環節利用無人駕駛技術來實施相應犯罪,只需要根據刑法規定按照相應犯罪處理即可,是否成立共犯等問題也只需按照傳統犯罪處理的模式來界定。二是以上主體以外的行為人非法侵入或者惡意攻擊無人駕駛汽車的演算法系統來實作其犯罪目的的情形。這種情形下,無人駕駛汽車的智能系統其實就與電腦無異。當行為人利用無人駕駛汽車智能系統的漏洞,或者借助黑客、木馬病毒等,非法侵入、惡意攻擊無人駕駛汽車的系統程式,以致無人駕駛汽車系統崩潰,那麽這一行為便已經成立破壞電腦資訊系統罪。如果因為這一因素同時導致無人駕駛汽車發生嚴重交通事故致人損害或者其他嚴重後果,則應根據行為人的主觀目的、行為手段、實施時間以及其他相關因素綜合考量,依照刑法還可能成立破壞電腦資訊系統罪與故意傷害罪、故意殺人罪、以危險方法危害公共安全罪等的想象競合犯。三是利用無人駕駛汽車智能技術以外的與普通汽車無異的特征從事傳統的犯罪類別。比如行為人僅僅是將無人駕駛汽車當作普通汽車非法運輸、藏匿毒品,這一情況下無人駕駛汽車僅僅被作為實施相關毒品犯罪的物理上的工具,本質上已經與無人駕駛汽車的人工智能內容不存在聯系了,因此僅需根據傳統犯罪的認定模式進行處理。當然,如果這中間又出現第三人利用無人駕駛技術的程式錯誤,或者惡意植入錯誤程式,導致重大交通事故,則根據前述的認定,各自成罪。

其次,存在與無人駕駛汽車相關的過失犯罪的情形。因為無人駕駛汽車的元件是由不同主體制造完成,流通階段也會有多方主體參與,每一環節主體的過失均有可能導致相應的損害後果。如果按照從設計到使用整個鏈條所涉及的相關主體劃分,這些主體均具有對無人駕駛汽車的安全保障義務,只是在不同的階段、不同的情況下,這些主體義務的大小有所不同。比如對於設計研發生產無人駕駛汽車的主體而言,這些主體工作的嚴格規範性是保障無人駕駛技術安全可靠的關鍵。因此,對於這一類主體而言,應對無人駕駛技術的安全性負有嚴格責任。如果該類主體在研發、生產過程中因為操作不嚴謹、檢查不仔細等因素而沒有預見無人駕駛汽車所存在的一些完全可以預見的技術缺陷,以致無人駕駛汽車在使用過程中發生重大交通事故,那麽,完全可以依照相應的產品犯罪對相關生產研發主體進行處理。當然,如果該技術缺陷根據現有證據以及相關行業標準等,是無人駕駛汽車的研發生產主體所無法預見的,那麽損害結果的發生則屬於意外事件。而對於無人駕駛汽車的使用者而言,其在一定程度上也應當對無人駕駛汽車負有保管的責任與義務。雖然無人駕駛汽車排除產品質素因素發生重大交通事故的情形,對使用者並不全然適用交通肇事罪,但在其使用過程中,使用者根據具體情形對無人駕駛汽車依然具有一定程度的安全保障義務。第一種情形:在無人駕駛汽車發生「交通肇事」時,比如使用者過於自信地認為自己人為幹預無人駕駛模式依然會保證交通安全,其不當操作導致了嚴重後果的發生,由於這一情形無人駕駛模式受到了人為的幹預,則損害後果與人的不當操作行為具有因果關系,應以交通肇事罪論處。在這一情形下,如果出現前文所提及的逃逸情形,使用者因自己的不當操作行為以及車輛使用者的身份而對受害者產生救助義務,如果逃逸,應依法適用交通肇事罪的升格法定刑。而如果是第二種情形:使用者嚴格遵守使用規範而無人駕駛汽車依然發生了「交通肇事」,這種情形下,因為使用者作為「乘客」,其乘坐行為並不是導致損害後果發生的原因,因此不應追究使用者刑事責任,而應考慮是否為生產研發主體、第三方惡意介入等責任,或者是意外事件。但不追究使用者刑事責任,並不意味著其對受害主體救助義務的排除。作為無人駕駛汽車的使用者,其在對無人駕駛汽車享用所有、使用等權利的同時,也產生了對該車的保管、安全保障等義務,刑事責任不再追究,但民事責任依然存在。使用者因沒有履行好自己的保管義務而導致損害的發生,由此而產生對受害主體的救助義務。如果其應救而未救,選擇在這一情形下逃逸導致他人重傷、死亡的結果,則很有可能觸犯過失致人重傷、死亡罪。

除以上之外,無人駕駛技術的套用可能還會導致公民個人資訊受到侵害。正如王澤鑒教授所指出的,相關資訊若被監視、竊聽或者幹涉,當事人將無法對自己的事物保有最終的決定權利,勢必會聽命於他人,無法主宰自己,從而喪失其作為獨立個體的地位。而無人駕駛技術的套用和發展,更是加劇了數據套用與數據權益保護之間的矛盾。可見保護公民個人資訊不受侵害是當前學界必須關註的課題。

較為常見且典型的,是相關企業,比如汽車企業、互聯網行業等與無人駕駛技術的套用與發展息息相關的主體,可以透過後台數據庫接觸到無人駕駛汽車所收集到海量的數據群。一旦這些主體非法獲取或者利用公民的個人資訊,所產生的不利影響自不必言明。對於此類行為的定性,根據不同的行為方式和行為目的而在界定上有所區別。比如無人駕駛汽車的生產商面對後台數據庫海量的數據資訊而心生以此牟利的主觀心理,在使用者不知情的情況下,大量出售公民個人資訊,根據刑法第二百三十五條之一規定,應以出售公民個人資訊罪論處。以上罪名的成立要求犯罪主體是屬於「履行職責」或者「提供服務」的身份,而如果行為主體並非針對無人駕駛汽車使用者履行相應職責或者提供服務者,僅僅是網絡黑客等出於各種目的非法侵入、攻擊無人駕駛汽車的程式系統或者前述生產商的後台數據庫繼而竊取大量公民個人資訊,則可能成立相應侵犯公民個人資訊犯罪與非法獲取電腦資訊系統數據罪的想象競合。

由於涉及數據的犯罪往往具有犯罪物件的不特定性,關系到國家和社會的公共利益,因此,在討論無人駕駛技術套用中個人資訊保護的刑法規制時,不僅要關註行為性質的認定與刑事責任的追究,還應從社會公共利益的保護出發,實作廣大人民群眾合法權益的保護;更應從數據治理的前端思考,進一步預防數據犯罪的發生。對此,有必要強化和規範數據合規。對於無人駕駛汽車在使用過程中所涉及相關數據的收集、利用、共享等,有必要嚴格遵循合法、必要與正當性原則。比如在無人駕駛汽車行駛過程中,為保證行駛的安全性,其內部傳感系統必然要即時收集使用者,或者為實作目標駕駛任務所必須采集的第三人的大量資訊,包括地理位置、道路標識、模組屋影片等等。對於這一情形,被采集個人資訊往往難以避免。對此,網絡安全法、【資訊保安技術個人資訊保安規範】等相關法律規範明確規定,個人資訊的收集應獲得使用者的授權-同意。對於保障無人駕駛汽車安全執行並非必要的個人資訊的收集,比如車載音樂的賬號登入等,透過事先授權-同意的方式是可以實作的。但也存在部份即時動態的資訊的收集,就如前述提及的地理位置、道路標識、模組屋影片等等,這些資訊往往難以逐一事先授權-同意。對此,我們表示理解的同時,也有必要註重數據收集的合規性,以把好數據犯罪預防的關口。那麽,如何實作對這一部份數據的合規,平衡數據收集使用與個人資訊保護之間的關系呢?【汽車數據安全管理若幹規定(試行)】中給出了相應標準,筆者認為可以予以參考。根據【汽車數據安全管理若幹規定(試行)】第8條、第9條的規定,在為了保證行車安全需要的情況下,無法征得個人同意采集到的個人資訊,應進行匿名化處理,包括刪除含有能夠辨識自然人的畫面,或對這些畫面中的人臉資訊等進行局部輪廓化處理等;對於處理敏感個人資訊,需要滿足取得個人單獨同意,個人可以自主設立同意期限、以適當方式提示收集狀態、個人要求刪除的應十個工作日內刪除等標準。該規定為即時動態數據的收集與處理提供了一定的合規標準,由此一定程度上可以預防相關數據犯罪的發生。除此之外,從保護國家、社會以及廣大不特定人民群眾合法權益的角度出發,檢察機關在嚴厲打擊無人駕駛技術套用侵犯公民個人資訊犯罪的同時,也可以從刑事檢察辦案實踐挖掘公益訴訟線索,積極穩妥開展個人資訊保護領域公益訴訟的探索,雙管齊下,由此有效保護公民個人資訊不受非法侵犯。

自動駕駛技術發展的最終方向實作完全的自動化,即無人駕駛技術的套用,而無人駕駛技術從本質上而言是人工智能深化發展的重要內容。隨著人工智能的不斷發展,無人駕駛技術的套用給人類社會帶來生產生活方面的便利的同時,也面臨著諸多挑戰,亟待刑法予以規制。從刑事責任論層面分析,對於人工智能無人駕駛技術的規制,刑法更應重點關註人導致無人駕駛汽車損害相關合法權益的情形。對於應賦予人工智能體刑事責任主體地位,並專門建立針對人工智能體的刑罰體系的觀點,結合刑法謙抑、立法成本、社會效應以及必要性等角度的考量,筆者認為仍有待商榷。在厘清了人工智能體不能作為刑事責任主體的前提下,無人駕駛技術的套用給交通肇事罪、相關數據犯罪等的認定所帶來的難題也隨即迎刃而解。

往期精彩回顧 林文龍|法治化營商環境視野下法院能動參與涉案企業合規的路徑構建

上海市法學會官網

http://www.sls.org.cn