算法決策司法風險及防范

時間:2022-04-10 10:37:07

導語:算法決策司法風險及防范一文來源于網友上傳,不代表本站觀點,若需要原創文章可咨詢客服老師,歡迎參考。

算法決策司法風險及防范

摘要:隨著算法和算力的突破式發展,人工智能技術幾乎滲入到各個領域內,司法領域也不例外。“人工智能+法學”作為國家人工智能發展的新規劃,為我國法律行業的發展帶來了機遇;也為人工智能算法決策司法裁判的應用過程中帶來了挑戰。文章在對算法決策在司法領域中的風險進行分析,并提出了一些建議,以期對算法決策在司法領域更好地融合。

關鍵詞:人工智能;算法決策;司法領域

國家在《新一代人工智能發展規劃》中對人工智能在法律領域的應用做了前瞻性的布局設想,其中“人工智能+法學”的教育培養新模式,①為人工智能在法律各行業的應用充分展開,儲備了基礎。在美國,人工智能在司法領域的應用已久;尤其是在刑事訴訟程序,算法決策在法官的審理、量刑、假釋等一系列輔助過程中,起著重要作用,主要是在預測是否再次犯罪的評估上;同時,這一點也帶來了廣泛的討論。②究其原因,算法作為一種技術,被當作是公平、中立的應用在司法領域;算法決策在因主觀任性和客觀局限而導致的問題上,往往比人類表現的更具客觀和公正;但是,算法技術在決策時就一定是公正的嗎?答案是否定的。一方面,算法在人工智能中是以代碼的形式,安排著機器在運算、處理問題時的順序和步驟,在決策中具有大腦般的作用,體現著算法設計者的目的和思想,所以它本質上也不可能是完全客觀、中立。另一方面,算法在匯編結束到完成仍需要不斷地進行數據訓練,以保證算法的不斷完善;但若是采集的數據不具備客觀性的話,人工智能在應用中就不免會出現偏差,產生偏見。

一、算法決策對司法的風險

在人工智能算法深度學習中,算法在決策過程中會產生“算法黑箱”這一特點,即使是算法設計者本人也不知道這一決策時如何產生的,想要找出問題根源亦是很難,那么這一特點就會出現這樣一種情況,出現問題后,應當如何歸責,技術上的難題直接導致法律責任無法歸咎的風險。算法決策的偏見會削弱司法人員的主體地位。現在,各類司法輔助辦案系統被普遍采納應用,這一系統輔助過程會涉及到:自動對證據材料進行審核,類案的推送,量刑的數據參考等,人工智能逐步滲透到司法過程的各階段;在高智能輔助系統中,輔助系統會自動根據案件的犯罪事實、相關法條、量刑情節、量刑幅度生成可供司法人員參考的文本,因為未參與案件的整個過程,只是對案件事實等進行數據化的選擇、歸類;該系統不會對本案件進行深刻而全面的了解;司法不是簡單地對三段論的論斷,亦不是機器對法律各要件的匹配,而是需要對人和社會生活情況的深刻理解;算法在運行中會進行比較,采用相似性做決策,具有差異性的就會被排除,往往看似不重要的細枝末節,卻具有著關鍵性的作用,如若在司法過程中偏倚算法決策得出的參考文本,也就干擾了司法人員的獨立判斷,影響司法人員的主體地位。

二、算法決策風險之防范進路

無論從目的還是功能上來看,司法智能輔助系統都是對司法人員獨立判斷的輔助;智能輔助系統雖然在解決案多人少、司法腐敗等問題上成效明顯,但是司法人員作為司法責任主體,應當注意防止過度依賴輔助辦案,在結案陳詞、文書說理部分應該詳細表達決策過程,這樣既可以保證過程的公開透明,又可以防止出現流水線作業式的裁判文書。“算法黑箱”的存在,增加了算法決策的不透明性,帶來了治理上的難度。借鑒國外的經驗是:具有黑箱性質的算法系統不能被用到公共福利、公共教育、公共醫療等一系列核心公共機構領域中來;對能夠被應用的司法智能系統,對其算法的設計和監管,要有法學各攸關方參與進來;對除涉密外的算法,向公眾公開,方便接受公眾的監督。③在算法數據訓練可能受到“污染”的風險時,通過先對采用數據進行篩查,以確保算法訓練所需要數據的質量。由于,數據訓練算法時,數據樣本越全面,數量越多,算法的結果精確度就越高;在眾多的樣本數據中,通常會混入社會中既有的一些歧視;因此,在采用數據之前,應當對數據做符合法律和道德倫理的價值檢測,對可能影響算法的歧視數據進行校正。

三、余論

正如,蘋果公司的CEO蒂姆•庫克在麻省理工學院2017屆畢業典禮演講中指出,“我并不擔心人工智能像人一樣思考,我更關心的是人們像計算機一樣思考,沒有價值觀,沒有同情心,沒有對結果的敬畏之心,這就是為什么我們需要像你們這樣的畢業生,來幫助我們控制技術”。④我們不知道以后的人工智能是否會像人類那樣有同情心和敬畏之心,但可以肯定地說,在人工智能時代,無論發展至如何,我們需要的是像人一樣具備同情心和敬畏之心的“算法決策”。

作者:張帆 單位:廣州大學法學院