人工智能技術下刑法學問題分析

時間:2022-10-20 04:50:15

導語:人工智能技術下刑法學問題分析一文來源于網友上傳,不代表本站觀點,若需要原創文章可咨詢客服老師,歡迎參考。

人工智能技術下刑法學問題分析

摘要:人工智能技術刑法學存在著內部風險、外部風險等問題。由于一些刑法規章制度的不完善,給人工智能技術的應用帶來很大風險。針對刑法學中存在的問題,提出應對人工智能技術下刑法問題的有效策略,如:統一罪刑法定工作準則、刑法重點保護公民信息安全、設定人工智能禁區,及時應對人工智能技術下的刑法風險。

關鍵詞:人工智能技術;刑法學;存在的問題;應對措施

人工智能技術下的刑法學問題是近年來司法管理制度中新出現的一種現象,主要表現為內部風險、外部風險等刑法風險問題。應結合風險問題的發生特點與規律,提出最佳的風險應對措施,全面提高人工智能技術下的刑法應用效果,為人工智能技術在刑法學中的應用提供技術保障。

1人工智能技術下的刑法學問題分析

1.1內部風險問題。近年來,在大數據、信息技術、智能算法等技術快速發展的過程中,人工智能技術得到了廣泛的應用,其技術水平也實現了飛躍式的發展。但隨之衍生出很多內部刑事風險問題與安全問題,主要表現:一是人工智能技術的應用,經常會受到一些不法分子的攻擊,或者采用人工智能系統進行違法操作,出現了海量的信息泄露現象,導致很多的保密信息被人為地泄露出來,無法保障數據信息的安全性。二是在人工智能技術管理的過程中,如果不能合理使用信息數據,將導致用戶的個人信息無法正常應用。且在人工智能技術下,一些犯罪人員利用大數據技術,肆意侵害集體和個人的利益,如果此類問題不能得到及時遏制,將會給國家和個人造成嚴重的經濟損失。三是在人工智能技術內部系統的運行過程中存在很多運算方法方面的漏洞,給人工智能系統帶來很多錯誤決策,一旦引發問題,就會出現數據外區現象,很容易影響人們對價值觀念的正確認識。因此就需要刑法的及時介入,確保人工智能系統的良好運行,預防各種風險問題的發生。1.2外部風險問題。人工智能刑法問題可表現在外部風險方面:首先是濫用人工智能技術的刑事風險。人工智能技術的應用存在很多利弊,如正當使用,就能給人們的生產與生活帶來便利,具有積極的影響。如果不能正常使用,將會給計算機系統帶來很多風險問題。利用人工智能技術進行犯罪具有一定的特殊性,其犯罪的基礎成本較低,一般情況下只使用計算機、網絡技術就能夠對整體的網絡系統造成威脅,而且掌握人工智能技術水平的不法分子,還能制造出人工智能產品,如:2017年的時候,網絡犯罪分子就利用計算機專業知識識別驗證碼,獲取到一些網絡公司的賬號和登陸密碼,從而獲取到群眾的信息,倒賣其信息并且對群眾進行詐騙。在分析這個犯罪案例的時候發現,如若犯罪分子采用人工智能技術進行相關的犯罪活動,不僅犯罪的成本很低,還會誘發嚴重的信息安全事件。其次,人工智能技術的不完善也給人們使用人工智能技術帶來風險。在使用與管理人工智能技術的工作中,如果存在智能技術或設計漏洞,將會誘發很多外部風險問題。如:采用人工智能技術與交通工具相互整合,會形成無人駕駛的模式,可以為人們提供高質量的服務。但是,如果人工智能技術的設計與開發存在問題,在無人駕駛的過程中會出現交通事故問題,將會誘發嚴重的后果,表明人工智能技術可將內部風險轉換成為外部風險,給人們使用人工智能技術帶來很多安全風險。1.3人工智能技術下的刑法定位。1.3.1刑法應該促進人工智能技術的良好發展。刑法的出臺主要是為了維護社會正常秩序,而這個目的與人工智能技術服務于人、改善社會生活的目的是相互一致的,無論在何種狀況下,刑法都不應該對智能技術的發展形成桎梏,相反,刑法應該對智能技術起到良好的引導作用,將社會的發展作為導向,使人工智能技術向著良性的方向發展,起到一定的推動作用和促進作用,從根本上促進人工智能技術的發展。1.3.2刑法應該服務于人人工智能技術的應用。不能增加人們的負擔,這個觀念應該貫徹在刑法領域中。在刑法領域內,服務于人的思想主要體現在刑事責任的規則方面,雖然人工智能技術的應用行為與風險問題的責任及開發使用者有直接的聯系,但是不能將責任單純歸于開發與使用者,應該考慮到智能技術的實際應用情況,明確具體的負責人。

2應對人工智能技術下刑法問題的有效策略

2.1統一罪刑法定工作準則。人工智能技術的應用經常會出現一些問題,在刑法方面不能單一的分析出現問題的原因,還需明確具體的刑法理念與原則,其中最為重要的就是罪刑法定準則。目前,將保障人權作為內涵、罪刑法定的這個原則屬于較為重要的底線。在未來的發展過程中,人工智能技術的應用一旦出現問題,還是要將罪刑法定作為基本準則。如果在某個項目中將濫用人工智能的做法當做統一條款,將會誘發“口袋罪名”,造成群眾的隱私信息泄露問題,導致公共風險和國家安全問題。在此過程中,刑法就應該保持一定的謙抑性,如:在人工智能技術應用期間,要借助計算機的基礎設備與技術,很可能發生機器人問題、著作權保護問題等,在此情況下,機器人的法人、著作權等歸屬于人類,可以按照具體的犯罪行為與實際情況界定,盡量避免一些不正確的司法手段干擾人工智能技術的使用與發展,例如:“刑法萬能”的錯誤認知。要正確地將非刑事法律的作用發揮出來,從而有效規避使用人工智能技術時所存在的問題[1]。2.2刑法重點保護公民的信息安全。在人工智能技術的應用期間,經常會出現公民信息安全泄露問題。在此情況下,除了要增強人工智能技術使用者與管理者的技能水平,強化數據的安全保護力度,還要將刑法的作用發揮出來,全面保護公民信息的安全性,預防出現信息泄露現象。考慮到公民信息的保護,在刑法方面應強化侵犯公民信息安全的懲罰力度,明確公民信息安全隱患的發生特點,有效地界定公民信息,并提出保護公民信息安全的具體做法[2]。2.3設定人工智能禁區。我國人工智能技術得到了快速發展,為避免使用中出現問題,應結合實際情況在法律方面對使用者進行約束與管理。建議國家出臺相關的法律法規,禁止影響人工智能技術的情況發生,確保各種信息的安全性。由于人工智能技術的應用有利有弊,在為人們帶來便利的同時,仍存在很多安全隱患問題。在此情況下,應該結合人工智能技術的發展,制定完善的準入制度,全面開展監督與管理工作,強化人工智能技術監管的力度,有效掌控人工智能技術的應用范圍與領域。同時,在刑法方面應該從內部與外部方面給予人工智能技術一定的約束,強化宣傳力度,使從事人工智能技術的人員學會自律,完善自我的約束機制。為有效規范人工智能技術的應用行為,在實際工作中應制定完善的刑法制度框架,人工智能技術開發者與管理者要樹立正確觀念,約束自身行為,促進人工智能技術的健康發展。還可以采用刑事立法的形式,設置人工智能技術的禁止令,禁止在一些不安全的條件下使用人工智能技術,一旦違反規則,就要處罰技術的使用者與管理者,并追究其責任。在立法過程中,應積極提出法律監督的建議與規則,預防人工智能技術應用中發生潛在的風險問題[3-4]。

參考文獻:

[1]谷立岐.人工智能的刑法學問題研究[J].法制與社會,2019,34(35):211-212.

[2]馬皚,宋業臻.人工智能“法官”的一種實現路徑及其理論思考[J].江蘇行政學院學報,2019,46(02):86-92.

[3]黃京平,包涵.面向歷史與未來的刑法學研究[J].人民檢察,2019,11(02):10-17.

[4]賈元,焦旭鵬.走向未來的刑法學—“社會變遷與刑法科學新時代”學術研討會綜述[J].人民檢察,2019,35(03):67-69.

作者:凡銳麗 單位:鄭州升達經貿管理學院