刑事風險與刑法應對分析
時間:2022-01-04 10:32:04
導語:刑事風險與刑法應對分析一文來源于網友上傳,不代表本站觀點,若需要原創文章可咨詢客服老師,歡迎參考。
摘要:人工智能技術的發展和應用在為人類社會帶來便利的同時,也為人類社會帶來了潛在的刑事風險。弱人工智能會導致刑事司法實踐中作案人實施犯罪的新型犯罪手段增多,使刑法保護的數據信息風險增大,并且還會帶來新的刑法適用難題。強人工智能會導致刑法對其實施損害行為的解釋空間不足,動搖犯罪主體的構造基礎,致使刑事責任理論和刑罰體系面臨解構和重塑的風險。為應對人工智能帶來的刑事風險,應在刑法中確立人類利益優先原則、嚴格恪守技術中立原則,并且宜以刑法為后盾、其他法律為先行,對人工智能技術進行法律規制,同時也不能阻礙和制止人工智能技術的發展和應用。
關鍵詞:弱人工智能;強人工智能;刑事風險;人類利益優先
1強弱人工智能的劃分
人工智能技術最先由麥卡錫于1956年提出,以人工智能是否具有自我意識以及能否獨立思考和解決問題為界,可以將人工智能劃分為強、弱人工智能。弱人工智能機器雖然可以在對其設置的程序內自主地進行運行和決策,但仍然是在設計者或者使用者為其設定的程序范圍內做出的決策,其并不具有自我意識以及獨立思考的能力。現在常見的弱人工智能主要有自動駕駛汽車、智能化醫生機器人等種類,這些弱人工智能機器雖然能夠自主完成駕駛、手術或者醫療診斷,但其實質上實現的仍然是自然人的意志,不具有獨立的辨認能力和控制能力。“弱人工智能可以制造出擅長推理、解決問題的智能機器人,但是并不真正擁有智能,與強人工智能的本質區別在于有沒有意識,如果有自我意識、自我創新思維等即為強人工智能,強人工智能的各方面能力已經能與人類智能相提并論。”[1]1081強人工智能機器擁有自己的意識和意志,甚至一定程度上其智力會超越人類,即強人工智能將具有獨立的辨認能力和控制能力。弱人工智能機器因不具有獨立意識和思考能力,只能被動地引起一系列的刑法問題,有可能是因為無法區分人類和其他物體對人類造成誤傷;也有可能是人類設置或編制的程序出現錯亂,而導致實施了危害人類社會的情形;也有可能是自然人以人工智能機器為工具來實現其相應的犯罪目的。而強人工智能機器則有可能為實現自身的特定目的擺脫設計者或者使用者為其設定的特定程序,依據自身的意識和意志實施危害人類社會的行為。因此,不管是弱人工智能還是強人工智能,都可能導致發生相應的犯罪問題,不僅對人類社會中的法律、哲學、倫理等方面帶來極大的影響和沖擊,也為人類社會帶來了刑事風險和挑戰。面對人工智能技術發展可能對人類社會帶來的刑事風險,我們應積極地做出研究和討論,未雨綢繆,提前做出或設計出相應的對策,以積極的姿態來應對。
2弱人工智能帶來的刑事風險
2.1導致刑事司法實踐中罪犯實施犯罪的新型犯罪手段增多。人類利用弱人工智能機器可以改造和創造世界,實現人類生產、生活或者科技探索的目的,為人類的生產和生活帶來便利。弱人工智能如同自然人其他的生產、生活工具一樣,是自然人智力和肢體的拓展,不僅可以解放人類的勞動力使其免于從事枯燥、沉重、機械的體力勞動,也可以彌補人類自然屬性的不足,替代人類從事一些高難度、高強度以及人類自然條件所無法觸及的極限工作。但是弱人工智能機器的這一優勢也可能會被罪犯所利用,作為實施犯罪的工具,增加實施犯罪的手段,使罪犯利用弱人工智能這一新型技術更容易地實現犯罪目的和逃避刑法的規制和打擊。“刑法的任務是為保護法益,保護的方法是禁止和懲罰侵犯(包括侵害與威脅)法益的犯罪行為。”[2]25罪犯利用弱人工智能機器只需要設計和編制出相應的程序,讓弱人工智能機器替代自己實施相應的犯罪,不再需要罪犯親自實施具體的危害行為。例如,罪犯可以利用自動槍械或者無人機實施相應的攻擊性犯罪,其不再需要親自冒著生命危險實施相應的攻擊行為,就可以實現相應的犯罪目的。罪犯可以利用弱人工智能機器有效地竊取和獲得情報,從而實施嚴重危害國家安全的犯罪;可以操縱其攜帶危險物品或者設置定時炸彈,在社會公共場所實施危害公共安全的危害行為;可以利用其較強的信息收集和數據處理能力,實施非法獲取國家和社會信息的行為。罪犯也可以通過設置和編造特定的程序,使弱人工智能機器在特定的時間和地點內完成相應的運輸任務,作為實施犯罪或其他犯罪的運輸工具。同時,由于現在的弱人工智能機器被普遍應用于金融領域,在證券市場領域利用人工智能機器實施證券交易的活動也越來越普遍。如果罪犯攻擊、破壞了進行證券交易活動的人工智能機器的程序,就可能會操縱證券市場,導致證券交易市場的崩潰,從而實現其犯罪目的。罪犯利用弱人工智能機器會不斷增加其實施犯罪的新型手段,這不僅可以使罪犯大大提高犯罪的效率和降低實施犯罪的風險,也導致罪犯實施的犯罪行為難以受到刑法的規制,不能及時對其進行打擊和處罰,使公民的合法權益難以得到及時有效的保護。2.2導致刑法保護的數據信息法益面臨更大的侵害風險。“人工智能包括3個核心要素:深度學習的算法、高質量的數據收集、高性能的計算能力,人工智能技術發展主要依賴于高質量的大數據包括敏感數據的收集和使用。”[1]1084人工智能在數據的采集和應用過程中,會使刑法保護的數據信息風險增大,因為數據信息不僅具有很強的政治價值和經濟價值,還直接關系著公民的個人隱私,這些被收集和采集的數據信息一旦被泄露,將會給公民和社會帶來嚴重的危害。這些數據涉及到一個國家的方方面面,不僅包括國防和國家安全的數據信息,還包括政府、企業、金融、醫療等各方面的數據信息,直接關系著國家安全、社會秩序及社會公共安全。數據安全對于一個國家的政治和國防有著極為重要的影響,在今后的高科技戰爭中能否掌握戰爭的主動權,很可能取決于是否能夠及時獲取對方有效的數據信息,搶占先機。因此,“一個國家擁有數據的規模、活性及解釋運用的能力將成為其綜合國力的重要組成部分,未來對數據的占有和控制甚至將成為繼陸權、海權、空權之外國家的另一個核心資產。”[3]數據信息還具有很強的經濟價值,企業可以通過大數據信息了解到客戶的愛好和需求,從而使其所做的廣告和產品更具有針對性。正是由于數據信息具有極強的政治價值和經濟價值,這些被人工智能收集和搜索的數據信息,就可能被犯罪分子利用或者出賣給他人,以獲取非法利益,對公民的合法權益和社會穩定造成安全隱患。在司法實踐中已有真實的案例存在。例如,犯罪分子通過非法出售公民信息的網絡獲取了被害人的身份證號碼、銀行卡號、網銀登陸賬號和密碼等數據信息后,罪犯利用上述數據信息先登陸移動營業廳將被害人的手機停機,然后登陸相應的銀行門戶網站,用其手機號碼替換被害人手機號碼作為被害人網上銀行綁定的手機號碼,將余額變動提醒等功能全部轉由其手機號碼接收,犯罪分子再用其手機號碼注冊一個某購物網站的賬號,并設置相應的登陸密碼,將被害人的準貸記卡綁定到某購物網站賬號,犯罪分子利用被害人的準貸記卡上的錢款在某購物網站上購買黃金等物品,給被害人造成財產損失。同時,人工智能機器收集的數據也直接關系著公民的個人隱私安全。個人隱私包含公民不想使別人知悉其自身•16•的身份信息、聯系方式、健康狀況、家庭成員、消費記錄、活動軌跡等。大數據時代,個人生活的方方面面都被高度數據化,個人乘車(機)記錄、消費記錄、通信記錄、網上瀏覽記錄、住宿記錄等數據,都能勾勒出一個人的社會行為軌跡和社會活動軌跡[4]。但是,近年來有關公民信息泄露愈演愈烈,公民隱私保護面臨著極大的挑戰。“2013年,中國大陸地區就發生了多起導致大規模公民重要個人信息遭受侵害的事件,例如,如家開房記錄泄露、圓通快遞信息泄露、QQ群數據庫泄露、360網站泄密、搜狗瀏覽頁泄密、12306網站以及CSDN多家網站泄密等等。”[5]58由此可知,人工智能機器收集和搜索的大數據會給公民和社會帶來極大的信息數據風險,一旦這些數據信息發生泄露和被犯罪分子利用,就會威脅到國家的政治、經濟和公民個人隱私的安全。“我國現有刑法規制體系對計算機信息系統計算能力和技術資源的保護,還重點著眼于靜態的計算機軟件與系統階段。如此一來,我國刑法在面臨大數據時代數據動態處理模式所提出的要求時,就具有較強的局限性和滯后性。”[5]59因此,人工智能技術的發展和應用會使刑法保護的數據信息風險增大,為人類社會帶來刑事風險。2.3導致刑事司法實踐中出現新的刑法適用難題。人工智能的產生和應用也可能會導致在刑事司法實踐中出現新的刑法適用難題。以自動駕駛汽車為例,自動駕駛汽車作為人工智能技術發展的一個重要表現,被逐漸廣泛應用到交通運輸領域,但繼而也帶來了一些新的刑法適用難題。如行為人開啟自動駕駛模式以后,自動駕駛汽車在行使過程中違反交通運輸管理法規,發生重大交通事故,致人重傷、死亡或者使公私財產遭受重大損失的,在此時究竟是行為人違法還是自動駕駛汽車違法?如果是行為人違法,那么是否可以將其的主觀心態界定為行為人應當預見自己開啟自動駕駛汽車會違反交通運輸管理法規可能會發生重大嚴重后果,由于疏忽大意而沒有預見或雖然預見但輕信能夠避免,那么這樣就會導致認為只要使用自動駕駛汽車就可能會發生違反交通運輸管理法規的悖論。事實上自動駕駛汽車雖然會發生違反交通運輸管理法規出現交通事故,但也有正常行駛完美完成駕駛任務的情況。如果將行為人開啟自動駕駛汽車的行為,認定其主觀心理上對發生的交通事故存在過失,就可能會大大制約自動駕駛汽車技術的發展和應用;如果認為是自動駕駛汽車違反了交通運輸管理法規,行為人不違法,那么對于自動駕駛汽車發生的交通事故,就無法對行為人追究刑事責任。但是,客觀上自動駕駛汽車發生的交通事故也侵犯了交通運輸安全,威脅著社會的公共安全。如果對此類交通事故認定行為人不承擔刑事責任,那么是否會放縱對自動駕駛汽車的濫用,導致社會公共安全和交通運輸安全的法益在客觀上面臨著威脅,但又得不到刑法保護的困境。另外,如果自動駕駛汽車中的行為人醉酒的,是否應對其適用我國刑法第133條關于危險駕駛罪的規定。危險駕駛罪侵犯的法益是社會公共安全,具體指的是道路交通安全。如果對行為人適用危險駕駛罪的規定,但是實際駕駛汽車的是汽車的相應程序,在自動駕駛汽車技術可以保障汽車正常行駛,行為人并未侵犯道路交通安全的情況下,如若再對行為人適用危險駕駛罪的規定,是否與設置該罪的初衷相違背?但是,如果不對行為人適用危險駕駛罪的相關規定,那么其在設置程序的過程中設置錯誤,比如在車速、行程、路線、方向設置錯誤,同樣也會造成交通事故危害到社會公共安全,對于此種情形又該如何來處理?如果依據行為人對自動駕駛汽車的設置是否正確來劃分是否應對其適用危險駕駛罪的規定,那么又面臨如何來確認行為人是在醉酒前設置的還是在醉酒后設置的自動駕駛程序等一系列難題。如若對上述問題處理不當,就會導致刑罰懲罰圈的過大或者縮小,使公民的人身權利和刑法所保護的法益受到威脅。所以,類似于自動駕駛汽車的弱人工智能可能會在刑事司法實踐中帶來新的刑法適用難題,使刑法的適用面臨著兩難的境地。
3強人工智能對傳統刑事法理論體系帶來的風險
3.1導致刑法對強人工智能實施損害行為的解釋空間不足。“隨著人工智能技術的快速發展,機器人擁有越來越強大的智能,機器人與人類的差別有可能逐漸縮小。”[6]當人工智能技術發展到一定程度,就有可能出現具有實現自己意志和能夠自主決策并自主實施行為的強人工智能和超級人工智能機器。此時的人工智能機器完全擁有自己的獨立意志,其實施的行為就有可能脫離或者超越原有程序設計或者編制的范圍,為實現自身的意志而實施危害人類的行為。那么,此時有意識的人工智能機器所實施危害人類社會的行為,能否成為傳統刑法意義上的危害行為?實施該行為的人工智能機器是否屬于傳統刑法上的犯罪主體?馬克思曾經指出:“對于法律來說,除了我的行為,我是根本不存在的,我根本不是法律的對象。”[7]馬克思之所以強調行為在法律上的重要性,是因為法律從其性質和功能上講,就是調整特定社會關系的行為規范。我國刑法所懲處的犯罪,首先是行為人的一種危害行為。“刑法中的危害行為,是指在人的意志或意識支配下實施的危害社會的身體動靜。”[8]70“行為是指一個對外部世界有意義的自然人的舉止行為,它要受意志的支配或者至少也是可以受意志支配的。”[9]由此可知,當前刑法理論中的危害行為,其前提就是“人”所實施的,而刑法中的“人”,主要包括自然人和法人,只有上述二者才可以成為刑法中的行為主體。由于傳統刑法未將有意識的人工智能機器規定為刑法上的行為主體,那么就會導致刑法對強人工智能所實施損害人類社會行為的解釋空間不足,無法對其進行刑法規制,導致人類社會面臨受侵害風險的增大。因此,對有意識人工智能在其自主意識下實施損害人類社會的行為,無法在現有的刑法理論和刑事立法中找到合理的解釋,會導致現有刑法的解釋空間不足。3.2動搖犯罪主體的構造基礎。面對科學技術日新月異的變化和發展,我們不能排除人工智能機器在將來會成為刑法中法律主體的可能性。“在未來,必然會有法學界的哥白尼重寫法律,幫助機器人爭取和人一樣的權利,賦予機器人人格。”[10]91我國學者關于人工智能機器是否能夠成為刑法中的法律主體,主要有以下兩種觀點:一種觀點認為,人工智能機器在刑事法律領域不應具有法律主體資格,不論是現在的弱人工智能機器,還是將來的高級或超級的人工智能機器,都不能具有刑事法律的主體資格。因為行為人承擔刑事責任必須以行為人具有完全的辨認能力和控制能力為基礎,而人工智能機器的辨認能力和控制能力是自然人賦予的,實質上其認知的能力仍然是依附于自然人的能力而存在,是屬于一種區別于人類的一種擬制能力,其“意志”仍不是自由的,不能將其作為刑法中的法律主體;持相反觀點的學者認為,隨著人工智能技術的應用和發展,未來人工智能機器將通過深入學習形成與自然人相同的思考過程和自由意志,人工智能機器將會逐漸具有思維能力成為法律主體。”[11]上述關于人工智能機器能否成為刑法中法律主體的爭論,兩種觀點都具有一定的合理性。但是,通過回溯人類構建法律主體的理論會發現,人類構建的法律主體理論經歷了一個從自然人到法律擬制人的拓展過程,以人的特征為基礎抽象出具體的法律主體概念,將其成為一種具有概括性和普遍適用性的法律術語,法律主體理論的構造呈現出一定的開放性。因此,“以人的抽象為基礎的法律主體地位的構造,不僅可以把法人納入到法律主體之中,現如今非法人組織、動物等存在物,也都可以按照這種類人的抽象,擬制成為法律主體。按照如此邏輯,智能機器人也可以成為法律主體。”[12]具體到刑法領域而言,我國刑法將犯罪主體規定為自然人和單位兩種,對于單位實施的危害社會的行為,法律規定單位犯罪的,應當負刑事責任,刑法對于犯罪主體的理論構造也呈現出一定的開放性。“法律主體資格的開放性,是指在法律關系的邏輯結構上,其主體類型及主體范圍隨社會發展可以逐漸擴展。”[13]刑法中的危害行為是指人在其意志和意識支配下實施危害社會的動靜,而有意識人工智能機器除不具有自然人犯罪主體的生理條件以外,已完全具有等同于自然人的獨立意識和意志,擁有完全的辨認能力和控制能力。隨著社會的發展和變化,在將來當人工智能機器發展成為人類的類似物對人類法益造成威脅時,出于刑法保護法益的需要,不排除刑法不僅可以將單位納入到犯罪主體之中,也可以將智能機器人發展擬制成為犯罪主體納入到刑法之中。將來在刑法中將人工智能機器人發展擬制成為犯罪主體,如果不是必然至少也是有可能的,這就有可能動搖傳統刑法中以自然人和單位為基礎的犯罪主體構造模式,形成以自然人、單位、智能機器人為基礎的三元犯罪主體構造模式。另外,對于人工智能機器能否成為刑法中的被害人也存在一定的難題。傳統刑法主要保護的是公民的生命、身體、健康、財產安全,將來能否像保護自然人一樣來保護人工智能機器的權益,這就可能會對人類社會中傳統的婚姻制度、家庭倫理以及社會的公共秩序和善良風俗產生重大的影響。3.3刑事責任理論將面臨解構的風險。有罪必有責。“刑事責任,是指行為人因其犯罪行為所應承受的,代表國家的司法機關根據刑事法律對該行為所作的否定性評價和對行為人進行的譴責的責任。”[2]446犯罪主體實施了犯罪行為,就必須要承擔刑事責任,而實施犯罪行為的犯罪主體又必須具備完全的刑事責任能力,只有具有完全刑事責任能力的犯罪主體實施的嚴重危害社會的行為才屬于犯罪行為,也才會產生刑事責任的問題。“刑事責任能力,是指行為人構成犯罪和承擔刑事責任所必需的,行為人具備的刑法意義上辨認和控制自己行為的能力。”[8]93人工智能機器人在具有獨立意識和意志即擁有完全的辨認能力和控制能力后,就與傳統刑法中的犯罪主體一樣具備了完全的刑事責任能力。而對于實施犯罪行為應當承擔刑事責任的自然人和單位而言,自然人可以以其自身的生命、自由、財產、資格等來承擔刑事責任,單位可以以其自身的財產來承擔刑事責任。但是,對于實施犯罪行為應當承擔刑事責任的智能機器人而言,由于其不像自然人一樣擁有有限的生命、自由、財產、資格,也不像單位一樣擁有財產,那么其承擔刑事責任的實現方式又是什么?這就有可能導致智能機器人具備刑事責任能力,但卻沒有擔責能力。所以,對于智能機器人而言,如果對其承擔的刑事責任無法實現,那么把它規定為犯罪主體將沒有意義。而如果不將智能機器人規定為犯罪主體,那么其基于完全的刑事責任能力實施的犯罪行為,又該究竟向誰追究刑事責任,是否可以向智能機器人的制造者、銷售者或使用者等相關人來追究。在刑事立法和理論中,刑事責任實行罪責自負,反對株連的原則,只能對實施犯罪行為的行為者來追究刑事責任,對于沒有參與實施犯罪行為的,即使與罪犯有著千絲萬縷的關系,也不能對其追究刑事責任。對于智能機器人實施的犯罪行為如果不能對其追究刑事責任而向智能機器人以外的相關人追究刑事責任,將會動搖傳統刑事責任的理論基礎,導致傳統刑事責任理論體系面臨解構的風險,而且即使向智能機器人以外的相關人追究了刑事責任,又是否能夠制止智能機器人再次實施犯罪實現刑罰懲罰的效果,也難以確定。3.4導致現有的刑罰體系將面臨重塑的風險將來如果有可能在刑法中把智能機器人規定為犯罪主體并依法對其追究刑事責任,那么在刑法中又該如何設置適用于智能機器人的刑罰種類,這就有可能導致現有刑罰體系面臨重塑的風險。現有的刑罰種類是依據自然人的自然屬性和本能設置出來的。在費爾巴哈看來,“人具有追求快樂、逃避痛苦的本能。為了防止犯罪,必須抑制行為人的感性沖動,即科處作為害惡的刑罰,并使人們預先知道因犯罪而受刑的痛苦大于因犯罪所能得到的快樂,才能抑制其心理上萌生犯罪的意見。由于確信實施犯罪的欲望會帶來更大的害惡,就會抑制犯罪的意念而不去犯罪。”[14]傳統刑罰的種類,都是依據自然人自然屬性的特點來設置和實施的,而作為人工智能的機器人卻并不具有自然人的自然屬性和本能。對于自然人而言,死刑之所以能夠成為一種最為嚴厲的刑罰,是因為死刑直接剝奪了自然人的生命后就無法再次恢復自然人的生命,具有不可再生性。而如果對人工智能機器人適用死刑,那么應該如何來對其執行死刑?對于實施犯罪的人工智能機器人執行死刑,是刪除其設置的程序和數據還是銷毀其機身本身?如果是刪除其設置的程序和數據,但如果這些程序和數據被其自身或其他同伴復制到其他機身上又該如何處理?或者在對其刪除設置的程序和數據以后,該程序和數據又被其他同伴恢復又應該如何處理?如果是直接銷毀其機身,但在銷毀其機身之前其自身的數據和程序被傳輸或者復制到其他機身又該如何處理?總之,人工智能機器人的數據和程序具有可復制性和可恢復性,不同于人類生命的不可再生性,對于可以再次重生的人工智能機器人而言,設置與人類相同或類似的死刑將毫無任何意義。《論語》:“子在川上曰,逝者如斯夫,不舍晝夜!”[15]屈原《離騷》:“日月忽其不淹兮,春與秋其代序。惟草木之零落兮,恐美人之遲暮。”[16]上述中國古典文獻,從水流、日月、春秋的變化揭示了時間的流逝。自然人的生命永不停息,隨著時間的流逝,自然人的生命會逐漸衰老、死亡,所以自然人在有限的生命時間內,會依據自己的意志從事自己所欲從事的行為,利用自己的自由來實現自己的生命價值和享受生命的樂趣。現代刑罰中的自由刑、資格刑和財產刑之所以適用于自然人,是因為這些刑罰可以為自然人帶來一定的痛苦,當這些痛苦大于其實施犯罪為其帶來的快樂時,自然人基于趨利避害的心理就可能不會再去實施犯罪。但是,對于人工智能機器人而言,其生命卻是可以靜止或停止的,人工智能機器人可以自動關閉自己相應的程序和功能使自己處于靜止狀態,待經過一段時間又可以重新啟動來恢復自己的功能。所以,對于人工智能機器人而言,時間的流逝對其影響不大,其不會因為時間的流逝而逐漸衰老、死亡,所以其不同于人類生命對于時間的不可停止性。對其剝奪或限制自由將不會為其帶來痛苦,難以實現刑罰的懲罰目的。同時,對于人工智能機器人而言,由于其脫離人類的社會關系而存在,不管是自由刑、資格刑還是財產刑可能都不會對其活動造成影響而對其帶來痛苦,那么這些刑罰對其而言可能就不會發生作用,無法阻止其再次實施犯罪。因此,若未來將人工智能機器人擬制成為刑法中的犯罪主體,現有刑法中的刑罰種類將對其失去作用,可能就會出現一套區別于自然人而適用于人工智能機器人的一套新的刑罰種類,導致現有的刑罰體系將面臨重塑的風險。
4對人工智能帶來刑事風險的刑法應對
4.1應在刑法中確立人類利益優先原則。“未來關于機器人的立法必須考慮如何避免和治理機器人對人類的傷害問題。對此,艾薩克•阿西莫夫提出的機器人三大定律可以為立法提供重要的指引。阿西莫夫的第一定律是不能傷害人類;第二定律是恪守人的命令,除非與第一定律相沖突;第三定律是保護自己,除非與第一、第二定律相沖突。”[10]90對于弱人工智能時代,即人工智能機器還不具有自我意識和意志,其自身行動需要依據人類為其設置的程序和數據,其自身的意志本身還是人類意志的體現,其本身還是人類工具的延伸,人工智能機器也許不會主動實施危害人類的行為,會嚴格恪守人類的命令,不會與人類的利益發生沖突。但是,“正如雷•庫茲韋爾在《人工智能的未來:揭示人類思維的奧秘》中所談論的:當機器說出它們的感受和感知經驗,而我們相信它們所說的是真的時,它們就真正成了有意識的人。而大多數道德和法律制度也是建立在保護意識體的生存和防止意識體受到不必要的傷害的基礎上的。”[10]91因此,當人工智能機器具有了感情和感知意識,擁有了自身的意識和意志,不一定就會遵循人類為其設置的規則,并與人類的利益發生沖突。因此,為了更合理、有效地防止人工智能機器對人類造成損害,我們應對其可能侵害人類利益的情況早日作出預防,在技術和立法中確立人類利益優先的原則,并在該原則的前提下,再認真考慮人工智能機器的人格發展以及相關倫理和法律問題,以正確對待他們。4.2刑法應嚴格恪守技術中立原則。“人工智能既是人類文明,亦是社會風險。”[17]正如英國文學家狄更斯在《雙城記》中寫到,“這是最好的時代,也是最壞的時代”,今天我們同樣可以用這句話來描繪人工智能時代的未來。一方面,人工智能可以協助人類解決各種各樣的難題,包括危險場所和極端環境下的難題,為人類帶來便捷,這是“最好的時代”;另一方面,人工智能也會給人類帶來諸多的麻煩,給人類帶來安全隱患,存在著負面影響,這又是“最壞的時代”。但是,“科學技術在人類的文明進步中總是扮演著最活躍、最革命的角色。面對智能革命,我們不能逃避它、否定它和阻止它。”[18]在技術發展程度還不確定的情況下,我們不應該因為人工智能發展可能帶來一定的刑事風險,就阻止或者放棄對人工智能技術的發展和應用,刑法對人工智能技術的發展和應用應當嚴格恪守技術中立原則。“技術中立原則最初確立于1984年的環球電影起訴索尼案中,其基本含義是只要一項技術構成實質性非侵權使用,不管這種技術是否被用于合法或有爭議的目的,技術服務提供者都不必要對用戶實施的或可能實施的侵權行為承擔責任。”[19]縱觀科學技術發展的歷程,其本身就是在對抗中發展前進的,科學技術既會為人類帶來風險和痛苦,但同樣也可以用于發現、預防、阻止風險和災難的發生,為人類帶來福利。科學技術本身是中立的,關鍵是掌握和使用的人如何來開發和使用。如果掌握者或使用者不正當地利用科學技術就會為人類帶來風險和災難;如果掌握者或使用者正當合理地利用科學技術就會為人類帶來便捷和福利。科學技術既是無害也是無利的,而關鍵是對掌握者和使用者的開發和使用進行合法正當性的規制,將科學技術在合法正當的軌道上得到發展和應用。具體到人工智能技術而言,在弱人工智能時代,若開發者和使用者正當地開發和使用人工智能技術,不僅不應對其進行制止和阻撓,還應該對其進行支持和鼓勵,只有這樣才能促進人工智能技術的發展和進步。若開發者和使用者不正當地開發和使用人工智能技術,比如恐怖分子開發和使用以實施恐怖活動為目的的人工智能機器,就需要對開發者和使用者追究相應的法律責任,阻止不正當利用。在對未來是否可能會出現強或者超級人工智能及其會發展到何種程度還不確定的情況下,我們不能因為存在不可預知的風險,就放棄或阻止對其的發展和應用。因此,在人工智能技術的發展過程中,為預防不良后果的發生,人工智能技術的開發者和使用者需要盡到必要的合理注意義務,但也不能對其規定過高的注意義務,在刑法中應當嚴格恪守技術中立原則,只要在人工智能技術發展和應用過程中發生的一些風險沒有超過社會的相當性、控制度和容忍度,并且該技術的發展和使用又會促進社會進步時,就不應該對其阻撓和制止。4.3宜以刑法為后盾、其他法律為先行,對人工智能技術進行法律規制在當前人工智能技術發展程度還不確定的情況下,對其進行完整的刑事立法還不太現實。但是,人工智能技術在司法實踐中又確實帶來了一些法律難題,現有的法律面臨人工智能帶來的新問題又難以滿足現實的需要。對于人工智能技術的發展和應用,宜以刑法為后盾,其他法律為先行對人工智能技術帶來的風險和新難題進行適當的法律規制。可以先通過行政法、民事法等其他法律以及相應的司法解釋來對其進行規制,待時機成熟,再在刑法中設置相應的罪名并作出相應的規定,以發揮刑法保障法的后盾作用。在當今弱人工智能機器時代,人工智能機器實質上還是一種產品,可以依據產品質量法的相關規定對其進行規制,從而促使生產者進一步完善其產品,減少人工智能機器侵權事件的發生。例如,對于自動駕駛汽車而言,如果立即在刑法中確立其犯罪主體地位,在當前階段尚不具有可能性。但是,是否可以考慮對其暫且適用產品質量法等法律的相關規定或者從其他法律角度做出相應的司法解釋對其進行規制。并且,在弱人工智能時代其所引發的刑法問題主要是過失犯罪的問題,在今后的刑法中可以適當增加人工智能機器設計者和使用者的注意義務,以保障其能夠正當合法合理地適用人工智能技術,減少危害后果的發生。同時,還可以在刑法中對傳統的罪名作出相應的擴張性解釋,完善刑法對法益保護的范圍和結構,調整打擊犯罪的手段,以解決人工智能技術引發的新難題和充分發揮刑法的機能。對未來可能出現具有獨立辨認能力和控制能力的強或者超級人工智能,是否要對其在刑法中確立犯罪主體的地位以及能否成為刑法所保護的被害主體和設置新的刑罰體系,要等行政法律以及民事法律等其他法律確立其法律地位以后,再在刑法中作出相應的規定,而不宜先行在刑法中對其確立相應的法律主體地位。因此,可以在不影響人工智能技術發展的前提下,完善一些非刑事法律或者出臺一些相應的司法解釋,以應對人工智能技術在發展和應用過程中所帶來的一些難題。待人工智能這項技術發展成熟,與之相對應的法律制度、倫理道德、社會規則的研究也取得一定進展和突破時,再對其在刑法中作出相應的規定,以發揮刑法的后盾保障作用。
作者:張全印 單位:南通市中級人民法院刑事審判第二庭
- 上一篇:茶葉企業合法權益刑法保護
- 下一篇:安置教育司法適用問題研究