本站小編為你精心準(zhǔn)備了談強人工智能實體刑事責(zé)任參考范文,愿這些范文能點燃您思維的火花,激發(fā)您的寫作靈感。歡迎深入閱讀并收藏。

摘要:當(dāng)前人工智能技術(shù)的發(fā)展加劇了社會風(fēng)險,作為社會最后一道“安全閥”的刑法有必要對此作出回應(yīng)。刑法規(guī)制的最大爭議是人工智能是否具有刑事責(zé)任主體地位。立足強人工智能時代的語境,引出強人工智能實體具備意志自由進而可能產(chǎn)生特殊的法益侵害,也具備刑事責(zé)任能力,即對其行為具有理性的辨認(rèn)和控制能力。因而,強人工智能實體具備刑事責(zé)任能力。
關(guān)鍵詞:強人工智能;實體;刑事責(zé)任;意志自由
一、問題的提出
當(dāng)前人工智能的發(fā)展帶來了諸多利好,但是與其相伴相生的社會風(fēng)險亦讓人踟躇。隨著全球范圍內(nèi)人工智能產(chǎn)品嚴(yán)重危害社會的惡性事件頻發(fā),刑法學(xué)界也愈加重視。刑法學(xué)界有關(guān)人工智能的研究主要集中于探討其是否具有刑事責(zé)任主體地位,對此學(xué)者們各執(zhí)一端。贊成人工智能具備刑事責(zé)任主體地位的學(xué)者,如王耀彬(2018)認(rèn)為類人型人工智能實體具備理性、侵犯法益的可能性、認(rèn)知控制能力及受刑能力而具有刑事責(zé)任主體資格。劉憲權(quán)(2018)認(rèn)為當(dāng)人工智能超越程序的設(shè)計和編制范圍,按照自主意識和意志實施犯罪行為,則完全可能成為行為主體而承擔(dān)刑事責(zé)任。反對人工智能具備刑事責(zé)任主體地位的學(xué)者,如龍文懋(2018)以拉康的欲望主體理論為視角,指出人工智能僅是技術(shù)理性,不具備欲望的機制,人工智能不具有法律主體地位。時方(2018)立足當(dāng)前人工智能的工具性本質(zhì),比較人工智能與法人,認(rèn)為人工智能不具備認(rèn)識要素和意志要素,也難以達成刑罰目的,反證當(dāng)前人工智能刑事主體認(rèn)定的不必要性。綜上,學(xué)者圍繞人工智能的分歧主要源于研究語境的差異,是立足于當(dāng)下還是不久的將來?筆者認(rèn)為刑法是社會的最后一道安全閥,既不能太超前于技術(shù)時代,也不能落后于技術(shù)時代,刑法應(yīng)與所處時代可能出現(xiàn)的技術(shù)風(fēng)險、責(zé)任分配規(guī)則相適應(yīng)。
二、強人工智能實體的界定
麥卡錫和明斯基在1956年達特茅斯會議上首次提出人工智能的概念,認(rèn)為人工智能是研發(fā)、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。人工智能的發(fā)展需要經(jīng)歷弱、強、超三個階段,當(dāng)前處于弱人工智能階段。強人工智能與之相較的突出特征是具備獨立思考能力、辨認(rèn)能力和控制能力,強人工智能更像是人類。本文探討的主要是“強人工智能實體”,筆者在比較“人工智能”“機器人”“人工智能產(chǎn)品”“智能機器人”等概念后,認(rèn)為“強人工智能實體”這一概念展現(xiàn)了人工智能發(fā)展階段,立足于即將到來的強人工智能時代。同時作為實體,具備刑法上實施犯罪的實質(zhì)主體要件。因而,本文將強人工智能實體作為研究對象。
三、強人工智能實體刑事責(zé)任之探討
刑事責(zé)任是指行為人因其犯罪行為所應(yīng)承受的,代表國家的司法機關(guān)根據(jù)刑事法律對該行為所作的否定評價和對行為人進行譴責(zé)的責(zé)任。
(一)具有意志自由傳統(tǒng)理論認(rèn)為人與行為的關(guān)系涉及意志自由,人能夠絕對地支配和控制自身的行為。因而,法律也是以規(guī)制人的行為為其內(nèi)容的,刑罰的發(fā)動只能以犯罪行為的客觀存在為依據(jù),而非未付諸行動的內(nèi)心意識活動。由此,實踐中往往只能通過外在的犯罪行為來推測犯罪者犯罪時的心理活動。德國法學(xué)家威爾澤爾認(rèn)為,人由于本身的意識及活動會受到素質(zhì)和所處環(huán)境的制約且只能在素質(zhì)和環(huán)境制約的范圍內(nèi)自主地進行一定程度的選擇和決定,因而人并非完全的意志自由主體,而僅具有一定程度上的意志自由。此外,統(tǒng)計學(xué)的研究揭示了人的意思活動是依自然的、社會環(huán)境的條件而存在的。綜上,人在行為時受到主觀與客觀因素的影響,并非完全的自由意志主體。從這一點來看,強人工智能實體具有與人類相當(dāng)?shù)囊庵咀杂伞娙斯ぶ悄軐嶓w一方面能夠按照預(yù)先設(shè)定的程序、指令做出行為,即相當(dāng)人類行為時受到所處的環(huán)境的制約;另一方面,他能在深度學(xué)習(xí)的基礎(chǔ)上依照前期對輸入數(shù)據(jù)信息的加工、重構(gòu)、理解,從而擺脫程序(人類)的控制,做出程序設(shè)定之外的行為。而這些行為卻是掙脫程序設(shè)計之外,由于強人工智能的意識覺醒發(fā)生的行為。在此情境下,強人工智能實體無異于人類,其僅受到程序制約作出的行為可以類比人類受到規(guī)則、法律、社會風(fēng)俗等的制約作出的行為;而不僅受到程序制約還受到其自身的理解、社會他人等的制約作出的行為亦可以類比人類受到多重因素影響作出的行為。其中,后者存在異化的風(fēng)險,即強人工智能實體可能在后者的行為模式下對社會造成風(fēng)險。由此,強人工智能實體具有意志自由,那么就存在其依照有限的意志自由對自然人、法人等相關(guān)法律主體發(fā)生刑法法益侵害的可能性,這有別于自然人做出的一般法益侵害,在此稱為特殊法益侵害。而這種情況下,強人工智能實體具備有責(zé)地實施行為之場合,可以對其進行非難。而學(xué)界熱議的弱人工智能則僅僅只能被視為“犯罪工具”,追究研發(fā)者、使用者甚至監(jiān)督者的刑事責(zé)任,筆者在此不作深入探討。
(二)具有行為辨認(rèn)和控制能力心理學(xué)意義上的責(zé)任能力的標(biāo)準(zhǔn)指以達到刑法所規(guī)定的心理狀態(tài)或心理狀態(tài)導(dǎo)致的結(jié)果作為判定行為人是否具有刑事責(zé)任能力的標(biāo)準(zhǔn);生物學(xué)意義上的責(zé)任能力標(biāo)準(zhǔn)是指以患者具有刑法所規(guī)定的精神障礙作為判定行為人是否具有刑事責(zé)任能力的標(biāo)準(zhǔn)。刑事責(zé)任能力是指行為人構(gòu)成犯罪和承擔(dān)刑事責(zé)任所必需的,行為人具備的刑法意義上的辨認(rèn)和控制自己行為的能力。那么強人工智能實體是否存在被擬制為法律主體的可能,關(guān)鍵還在于其是否具備刑法意義上的辨認(rèn)和控制自己行為的能力,即其對行為在刑法上的意義、性質(zhì)、作用、后果的分辨認(rèn)識能力以及選擇自己實施或不實施為刑法所禁止制裁的行為的能力。其一,強人工智能實體具有自主、深度學(xué)習(xí)的能力。機器學(xué)習(xí)是人工智能獲取信息的基礎(chǔ)。湯姆米切爾(1997)定義“機器學(xué)習(xí)”是對能通過經(jīng)驗自動改進的計算機算法的研究。簡言之,機器學(xué)習(xí)是一門研究機器通過對數(shù)據(jù)的自動分析獲得規(guī)律、利用規(guī)律獲取新知識和新技能,并識別現(xiàn)有知識的學(xué)問。因而,深諳機器學(xué)習(xí)的強人工智能實體可以對法律規(guī)范、社會規(guī)范進行深度的自主學(xué)習(xí)。其二,強人工智能實體具有理解法律規(guī)范的能力。強人工智能實體通過機器學(xué)習(xí)進而產(chǎn)生認(rèn)識,而其對法律規(guī)范的表述是否具備理解能力值得進一步商榷。筆者從兩個方面論證:一是強人工智能實體與人類相當(dāng),可能存在對某些法規(guī)范的表述、概念、適用情況理解模糊的問題。從語義學(xué)上分析,我們對于定義、概念的理解,即使排除了主觀情感因素的干擾,也難以做到唯一、格式化的解釋。人類通過各種情景學(xué)習(xí)、類比學(xué)習(xí)、歸納學(xué)習(xí)等,從而對一個概念的認(rèn)識較為系統(tǒng),進而遵守法律。因而,強人工智能實體即使不能完全理解法律的概念,筆者相信隨著實踐的深入,它能夠通過機器學(xué)習(xí)對法律規(guī)范有所理解。二是“缸中之腦”假說的深思。普特南假想人類是缸中之腦,而人工智能則是人類創(chuàng)造出的人工大腦。人類大腦偏向于神經(jīng)學(xué)科和腦科學(xué)領(lǐng)域,而人工智能更多的是算法和數(shù)據(jù)。人類的認(rèn)識來源于三個方面:個體的經(jīng)驗性和體驗性認(rèn)識、社會學(xué)習(xí)性認(rèn)識、經(jīng)過思維加工過的認(rèn)識。同樣,人工智能的認(rèn)識也來源于三個方面:通過復(fù)雜技術(shù)捕捉到的認(rèn)識、人類預(yù)先輸入的認(rèn)識、經(jīng)過深度學(xué)習(xí)加工的認(rèn)識。綜上,強人工智能既然也具備和人類相當(dāng)?shù)恼J(rèn)識機理。其三,強人工智能實體具備理性的行為控制能力。法律的預(yù)設(shè)主體是理性主體,即能夠權(quán)衡利弊、作出自己的選擇,并且對該選擇負責(zé)。機器學(xué)習(xí)作為強人工智能實體的主要學(xué)習(xí)方式,在某種程度上體現(xiàn)的是一種完全排除了情感、欲望等影響,而只服從“必然律”的技術(shù)理性。倘若某一個智能準(zhǔn)則被研發(fā)人員植入到人工智能系統(tǒng),那么人工智能就會在深度學(xué)習(xí)的基礎(chǔ)上進行理性分析,并依照這樣的認(rèn)知規(guī)律做出行為。在技術(shù)理性的基礎(chǔ)上,人工智能發(fā)出的獨立思維支配下的行為一定是可控的、不受情感、欲望等的支配,而完全是由存儲數(shù)據(jù)形成的意志決定的,具備刑法需要的理性的行為控制能力。因此,一方面,具備意志自由的強人工智能實體基于自由意志,具有擺脫程序控制進而產(chǎn)生法益侵害(該法益侵害不能簡單歸結(jié)于其生產(chǎn)、研發(fā)和使用者)的可能性。另一方面,在判斷其客觀違法行為與主觀犯罪意識的關(guān)系時,由于強人工智能具有行為辨認(rèn)和控制能力,能夠自主學(xué)習(xí)、理解法律規(guī)范、理性控制行為,那么其行為與目的之間極有可能存在因果關(guān)系。
四、強人工智能實體的刑罰模式
強人工智能實體的刑事責(zé)任承擔(dān)方面有學(xué)者提出適用于強人工智能時代的刑罰模式可以包含以下三種:主刑——拘役+修改程序(刪除數(shù)據(jù));死刑+永久銷毀;附加刑——罰金。但是,筆者認(rèn)為仍可以對上述刑罰模式進行一定的調(diào)整和完善。刑罰的目的是一般預(yù)防與特殊預(yù)防,針對強人工智能實體的特殊預(yù)防方面,單就安撫被害人而言,人們在觀念上難以通過對機器施加刑罰措施而得到心靈上的慰藉。針對強人工智能實體的一般預(yù)防方面,拘役、刪除數(shù)據(jù)等的刑罰或許對其難以產(chǎn)生震懾作用,監(jiān)禁難以達成禁錮的目的,而刪除數(shù)據(jù)更是讓其幡然一新。綜上,針對強人工刑事處遇應(yīng)著重從死刑+永久銷毀和附加刑——罰金入手。其一是死刑+永久銷毀,這一刑罰適用于罪行較重的強人工智能實體犯,罪名可以參考當(dāng)前刑法規(guī)定的八種暴力犯罪以及部分危害國家安全犯罪等。其二是罰金刑,罰金刑相應(yīng)的適用于罪行相對較輕的犯罪,同時可以通過罰金來彌補受損法益的輕微犯罪,具體罪名也可以參考當(dāng)前刑事領(lǐng)域簡易程序和速裁程序所涉罪名和刑罰范圍。綜上,筆者認(rèn)為針對強人工智能實體,首先應(yīng)承認(rèn)其刑事責(zé)任地位,在此基礎(chǔ)上,制定與之相適應(yīng)的刑罰措施。
五、結(jié)語
誠然,人工智能技術(shù)的發(fā)展帶來了巨大的社會風(fēng)險,同時也為法學(xué)界拋出了難以回避的難題。在追究人工智能刑事責(zé)任時,應(yīng)堅持類型化評價,即對于初級階段的弱人工智能,沿用“過失犯罪”“工具犯罪”等的追責(zé)路徑;對于具備意志自由、理性的辨認(rèn)和控制行為能力的強人工智能實體,則具備被視為刑事責(zé)任主體的可能性。
參考文獻:
[1]王耀彬.類人型人工智能實體的刑事責(zé)任主體資格審視[J].西安交通大學(xué)學(xué)報(社會科學(xué)版),2019,39(1):138-144.
[2]劉憲權(quán),胡荷佳.論人工智能時代智能機器人的刑事責(zé)任能力[J].法學(xué),2018(1):40-47.
[3]龍文懋.人工智能法律主體地位的法哲學(xué)思考[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2018,36(5):26-33.
[4]時方.人工智能刑事主體地位之否定[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2018(6).
[5]張明楷.刑法學(xué)(上)(第5版)[M].北京:法律出版社,2016.
作者:馬恩萍 單位:南京工業(yè)大學(xué)法學(xué)院