美章網(wǎng) 資料文庫 動(dòng)物倫理中的人工智能的基本原則范文

動(dòng)物倫理中的人工智能的基本原則范文

本站小編為你精心準(zhǔn)備了動(dòng)物倫理中的人工智能的基本原則參考范文,愿這些范文能點(diǎn)燃您思維的火花,激發(fā)您的寫作靈感。歡迎深入閱讀并收藏。

動(dòng)物倫理中的人工智能的基本原則

摘要:人工智能出現(xiàn)后,改變了以往動(dòng)物倫理中的“人類-動(dòng)物”的二元倫理關(guān)系,形成了“人類—人工智能—?jiǎng)游铩钡娜獋惱黻P(guān)系,在這種三元倫理關(guān)系中,弱人工智能由其設(shè)計(jì)和生產(chǎn)單位及其負(fù)責(zé)人承擔(dān)道德責(zé)任,強(qiáng)人工智能自身承擔(dān)道德責(zé)任。動(dòng)物倫理中的人工智能應(yīng)當(dāng)遵循以下三項(xiàng)基本原則:一是禁止人工智能傷害人類;二是禁止人工智能在非必要的情況下傷害動(dòng)物;三是人工智能在人類與動(dòng)物利益相沖突的情況下遵循人類利益優(yōu)先的原則。

關(guān)鍵詞:動(dòng)物倫理;人工智能;機(jī)器人;基本原則

動(dòng)物倫理是當(dāng)今世界頗具爭(zhēng)議的倫理學(xué)前沿理論,它以人道原則作為倫理起點(diǎn)和基礎(chǔ),以人類和動(dòng)物的倫理關(guān)系作為研究對(duì)象,內(nèi)容涉及科技倫理、制度倫理、情感倫理和信仰倫理,是一門關(guān)于人類應(yīng)該在多大的限度和范圍內(nèi)有效地保護(hù)動(dòng)物的倫理學(xué)科。[1]科學(xué)技術(shù)是動(dòng)物保護(hù)的重要手段,人工智能(ArtificialIntelligence英文簡(jiǎn)稱AI)作為一種高精尖的科技手段,日益廣泛地應(yīng)用在動(dòng)物倫理之中。所謂人工智能就是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。簡(jiǎn)單來說,“人工智能(AI)由像人類一樣聰明甚至比人類更聰明的機(jī)器組成,通常由計(jì)算機(jī)控制這些機(jī)器”[2]。隨著人工智能向強(qiáng)人工智能的方向發(fā)展,最終能夠制造出擁有感受能力、創(chuàng)新思維和自我意識(shí)的高仿真度的人型生物智能體———人工智能仿真機(jī)器人。①近十幾年來,人工智能作為動(dòng)物倫理中的科技手段,在農(nóng)場(chǎng)動(dòng)物、實(shí)驗(yàn)動(dòng)物、娛樂動(dòng)物、陪伴動(dòng)物、工作動(dòng)物和野生動(dòng)物等國際公認(rèn)的六大類動(dòng)物保護(hù)領(lǐng)域得到廣泛應(yīng)用,重新結(jié)構(gòu)了它與人類和動(dòng)物的原二元倫理關(guān)系。

一、動(dòng)物倫理中的“人類—人工智能—?jiǎng)游铩比獋惱黻P(guān)系

強(qiáng)人工智能(機(jī)器人)出現(xiàn)以后,傳遞出一些不可忽視的道德問題:有著自主性②的機(jī)器人有沒有“人格”或道德地位?是不是道德主體?這不是搞笑的問題,而是人類在未來50年內(nèi)必須應(yīng)對(duì)的人工智能發(fā)展的現(xiàn)實(shí)問題。盡管現(xiàn)階段的機(jī)器人技術(shù)還無法擺脫“莫拉維克悖論”,然而我們并非要討論未來的機(jī)器人是否具有自主性,因?yàn)檫@是科學(xué)家們要解決的事情。我們的關(guān)注焦點(diǎn)本身就是以強(qiáng)人工智能下的擁有感受能力、創(chuàng)新思維和自我意識(shí)的仿真機(jī)器人為前提,在這一前提下討論動(dòng)物倫理中的人工智能的道德責(zé)任問題,這實(shí)質(zhì)是在追問:如果機(jī)器人具有所謂的“人格”或道德地位,那么他是否也應(yīng)該成為動(dòng)物倫理的研究對(duì)象?我們知道,傳統(tǒng)的動(dòng)物倫理的研究對(duì)象是人類與動(dòng)物的二元倫理關(guān)系,在人工智能出現(xiàn)后,其研究對(duì)象就重新結(jié)構(gòu)成“人類—人工智能—?jiǎng)游铩边@樣一種三元倫理關(guān)系,使得原本很難在動(dòng)物倫理中確證的道德責(zé)任問題變得更加復(fù)雜艱難,由此也產(chǎn)生了一些這樣的道德問題:如果失控的人工智能(也稱AI失控)對(duì)人類和動(dòng)物進(jìn)行傷害,究竟應(yīng)該追究誰的責(zé)任?是人工智能還是其創(chuàng)造者?只有在確證了動(dòng)物倫理中的人工智能的道德責(zé)任之后,我們才能制定關(guān)于人工智能的倫理原則。在“人類—人工智能—?jiǎng)游铩边@樣一種三元倫理關(guān)系中,人工智能的道德責(zé)任可以用一個(gè)更清晰的思路來表述:設(shè)人工智能是A、人類與動(dòng)物是X,那么要確證A對(duì)X負(fù)有道德責(zé)任,就必須確證這一道德責(zé)任所分解出來的另外兩個(gè)維度:(1)承認(rèn)X具有一定道德地位;(2)X的道德地位有利于確立A的道德地位。[3]因此,動(dòng)物倫理中的“人類—人工智能—?jiǎng)游铩钡娜獋惱黻P(guān)系必然是一個(gè)互為支撐的穩(wěn)定結(jié)構(gòu),否則三者之間就不存在道德可言,也沒有倫理原則探討的必要了。就這兩個(gè)維度來說,一是對(duì)于人工智能而言,人類具有完全的道德地位,動(dòng)物也具有一定的道德地位,因此滿足X具有一定的道德地位這一維度;二是以機(jī)器人為代表的強(qiáng)人工智能具有“人格”或道德地位是我們進(jìn)行討論的前提,A的道德地位又有利于確立X的道德地位這一維度亦無矛盾。

二、動(dòng)物倫理中的人工智能的道德責(zé)任確證

現(xiàn)在,再來從“人類—人工智能—?jiǎng)游铩边@樣一種三元倫理關(guān)系中,對(duì)人工智能是否應(yīng)該對(duì)人類和動(dòng)物負(fù)有道德責(zé)任進(jìn)行論證,這一論證從強(qiáng)人工智能和弱人工智能兩個(gè)不同的方面來展開。(一)弱人工智能由其設(shè)計(jì)和生產(chǎn)單位及其負(fù)責(zé)人承擔(dān)道德責(zé)任。對(duì)于基于某一領(lǐng)域內(nèi)的代替人類工作需要的非人型智能系統(tǒng)或機(jī)器這類弱人工智能,由于它本身只是局限于某些如醫(yī)療、搜救、飼養(yǎng)、屠宰等領(lǐng)域,并不具備創(chuàng)新思維和自我意識(shí),也不是仿真人型,因此它不能成為道德主體,或者說不能被人類賦予“人格”或道德地位。即使這類人工智能系統(tǒng)或機(jī)器擁有像人類一樣的嗅覺、觸覺、味覺、聽覺和視覺等五大類基本的仿生性的感知能力,也并不代表它具有感受痛苦和享受快樂的能力,即杰羅米•邊沁和彼得•辛格所說的“感受性”(感受能力),更不要說具備創(chuàng)新思維和自我意識(shí)了,所以這類人工智能對(duì)于人類而言,充其量也只有工具價(jià)值。對(duì)于這樣一種作為工具價(jià)值的人工智能而言,如果發(fā)生設(shè)備故障導(dǎo)致AI失控,出現(xiàn)AI對(duì)人類和動(dòng)物進(jìn)行攻擊和傷害的現(xiàn)象,其負(fù)責(zé)設(shè)計(jì)和生產(chǎn)的單位及其負(fù)責(zé)人必須承擔(dān)一定的道德責(zé)任甚至是法律責(zé)任。(二)強(qiáng)人工智能自身承擔(dān)道德責(zé)任。只要機(jī)器人擁有感受能力、創(chuàng)新思維和自我意識(shí),就具有自主性,完全可以被視為具有“人格”或道德地位的行為主體,則應(yīng)該承擔(dān)相應(yīng)的道德責(zé)任,而不是由他的設(shè)計(jì)和生產(chǎn)的單位及其負(fù)責(zé)人來承擔(dān)。理由有三:一是同一物種的所有個(gè)體可以被賦予同樣的“位格”(對(duì)人類而言就是“人格”)或道德地位,并一起納入道德共同體之中。而如果一個(gè)擁有感受能力、創(chuàng)新思維和自我意識(shí)的機(jī)器人與人類在自主性和外觀方面也完全無異,那么他也理應(yīng)和人一樣擁有“人格”或道德地位。例如,沙特阿拉伯授予索菲亞公民身份這一事件,標(biāo)志著人類在承認(rèn)機(jī)器人的“人格“或道德地位的問題上已經(jīng)邁出了開創(chuàng)性的一步,盡管目前索菲亞或許還不夠這樣的條件和資格。因此,機(jī)器人同樣應(yīng)該是道德主體,在他與人類和動(dòng)物的倫理關(guān)系中也應(yīng)該承擔(dān)起相應(yīng)的道德責(zé)任。二是道德的基礎(chǔ)在于行為主體的自主性,“自由是人的道德基礎(chǔ),人由于有了自由能力,他才負(fù)有對(duì)于自己行為負(fù)責(zé)的前提,這種自由能力就是善惡判斷能力、善惡選擇能力和自我意志決定能力”[4]。顯然,一個(gè)擁有感受能力、創(chuàng)新思維和自我意識(shí)的機(jī)器人具有完全的自主性,能對(duì)善惡行為進(jìn)行價(jià)值判斷并作出選擇,因此機(jī)器人必須為自己的道德選擇行為承擔(dān)起道德責(zé)任。總之,承擔(dān)道德責(zé)任的前提是要求行動(dòng)者具有一定的自主性,除非行為主體受到某種約束(例如強(qiáng)制、威脅、催眠、操縱等),這種情況下他們可能無需對(duì)所采取的行為負(fù)責(zé)。[5]三是擁有感受能力、創(chuàng)新思維和自我意識(shí)的機(jī)器人具備自我復(fù)制或再生產(chǎn)的能力,這會(huì)導(dǎo)致很難推斷出一個(gè)機(jī)器人究竟是人類設(shè)計(jì)和生產(chǎn)的,還是另一個(gè)機(jī)器人自我復(fù)制或再生產(chǎn)的,并由此造成道德責(zé)任的認(rèn)定受到干擾。對(duì)于這種情況,必須依從誰犯事誰負(fù)責(zé)的道理。正如從法理上來說,某一個(gè)人的犯罪不能追究到其生父母的責(zé)任一樣,當(dāng)然也不能因?yàn)槟骋粰C(jī)器人自我復(fù)制和再生產(chǎn)出來的另一個(gè)機(jī)器人有了攻擊和傷害人類或動(dòng)物的行為,就對(duì)其道德責(zé)任進(jìn)行無窮倒追,甚至追究到第一個(gè)創(chuàng)造他的那個(gè)機(jī)器人那里。

三、動(dòng)物倫理中的人工智能的基本原則

1950年,美國著名的科幻小說家阿西莫夫提出了“機(jī)器人學(xué)的三大定律”。他認(rèn)為,在人類與機(jī)器人的倫理關(guān)系中,必須遵循以下三條定律:第一定律:機(jī)器人不得傷害人類,或袖手旁觀讓人類受到傷害;第二定律:在不違反第一定律的情況下,機(jī)器人必須服從人類給予的任何命令;第三定律:在不違反第一及第二定律的情況下,機(jī)器人必須盡力保護(hù)自己。[6]這一著名的機(jī)器人學(xué)三定律是針對(duì)人類與機(jī)器人的二元倫理關(guān)系而提出的基本原則,而現(xiàn)在我們要來討論關(guān)于動(dòng)物倫理中的人工智能的基本原則,就必須以動(dòng)物倫理的研究對(duì)象為基礎(chǔ)。在“人類—人工智能—?jiǎng)游铩钡娜獋惱黻P(guān)系中,人工智能又應(yīng)該遵循什么樣的基本原則?我們認(rèn)為,可以提出以下三項(xiàng)基本原則。

(一)第一項(xiàng)基本原則:禁止人工智能傷害人類“機(jī)器人學(xué)的三大定律”濃縮為在動(dòng)物倫理中的人工智能的第一項(xiàng)基本原則:禁止人工智能傷害人類。這條基本原則實(shí)質(zhì)上是“機(jī)器人學(xué)第一定律”即“人工智能不得傷害人類或袖手旁觀讓人類受到傷害”的補(bǔ)充和延伸。它主要是基于以下兩個(gè)原因:一是基于人工智能尤其是機(jī)器人在算法和智能方面遠(yuǎn)遠(yuǎn)超越人類,一旦人工智能失控對(duì)人類發(fā)動(dòng)攻擊和傷害,人類將有可能遭到毀滅。因此站在人類生存發(fā)展的高度上來說,必須制定出禁止人工智能傷害人類這一項(xiàng)基本原則,才能對(duì)其行為加以約束和限制,防止AI失控。二是基于人工智能的設(shè)計(jì)和生產(chǎn)的目的必須是促進(jìn)人類福祉的需要。即使是強(qiáng)人工智能下的具有自主性以及自我復(fù)制和再生產(chǎn)的能力的機(jī)器人,也不是傳統(tǒng)的生理意義上的人類,不符合人類繁衍生息的自然法則,更缺乏人類的生命靈性。人類之所以創(chuàng)造人工智能,目的仍然是為了促進(jìn)人類福祉,決不是為了把它們制造出來傷害人類自己。而且,在動(dòng)物倫理中,人工智能有了第一項(xiàng)基本原則,“機(jī)器人學(xué)的三大定律”中的原第二定律和原第三定律都成了不必要的設(shè)定。理由如下:首先,人工智能不需要服從人類給予的任何外在命令。原因有二:一是如果人類之間發(fā)生戰(zhàn)爭(zhēng),究竟誰可以代表正義的一方來向人工智能(武器系統(tǒng)或機(jī)器人)發(fā)號(hào)施令?人工智能(武器系統(tǒng)或機(jī)器人)到底應(yīng)該聽從誰的命令?顯然,人工智能(武器系統(tǒng)或機(jī)器人)需要做的唯一的事情就是:不參與和干涉人類事務(wù),寧可袖手旁觀也不能服從某一部分人的命令來傷害所謂的“敵人”———另一部分人。二是人類也不能將一個(gè)具有自主性的“人格”機(jī)器人視為物或工具隨意利用,人類與未來的機(jī)器人在道德和法律上都是平等的,這就消解了機(jī)器人必須服從人類給予的任何外在命令這個(gè)原第二定律。只要禁止機(jī)器人傷害人類就行,可以允許他們有自由權(quán)利而不需要受人類的奴役和支配。但是,如果機(jī)器人傷害人類,同樣要被繩之以法甚至人道毀滅。其次,人工智能都會(huì)主動(dòng)或被動(dòng)保護(hù)好自己。一是某一領(lǐng)域內(nèi)的代替人類工作需要的非人型智能系統(tǒng)或機(jī)器本身就需要操作上的精確性而不允許有任何失誤,因?yàn)槿魏问д`都會(huì)導(dǎo)致可怕的災(zāi)難性后果。而且,這類弱人工智能自身并不具有保護(hù)自己的能力,需要人類經(jīng)常對(duì)它們的系統(tǒng)和設(shè)備進(jìn)行維護(hù)和保養(yǎng),也就是說,它們不存在盡力保護(hù)自己的問題,而只是被動(dòng)地接受人類的保護(hù)而已,因而原第三條定律在這類人工智能面前是無效的。二是對(duì)于強(qiáng)人工智能下的具有自主性的機(jī)器人來說,他們必然懂得如何主動(dòng)保護(hù)好自己。最近的機(jī)器人“越獄”事件,也足以說明這類機(jī)器人具有主動(dòng)的自我保護(hù)能力。因此,對(duì)動(dòng)物倫理中的人工智能而言,“機(jī)器人學(xué)的三大定律”的原第三定律也是不必要的設(shè)定。

(二)第二項(xiàng)基本原則:禁止人工智能在非必要的情況下傷害動(dòng)物由于動(dòng)物倫理的研究對(duì)象是“人類—人工智能—?jiǎng)游铩敝g的三元倫理關(guān)系,它比人類和機(jī)器人的倫理關(guān)系更加復(fù)雜。因此,僅僅只有禁止傷害人類的第一項(xiàng)基本原則顯然是不夠的,必需增設(shè)第二項(xiàng)基本原則:禁止人工智能在非必要的情況下傷害動(dòng)物。所謂禁止人工智能在非必要的情況下傷害動(dòng)物,是指人工智能只有在符合人類需要或人類授權(quán)的必要情況下,才可以傷害動(dòng)物(比如人類為了生存和發(fā)展的需要,利用或授權(quán)人工智能來對(duì)動(dòng)物進(jìn)行殺生食肉的傷害動(dòng)物的行為),除此以外,在其他任何情況下都必須禁止人工智能傷害動(dòng)物。首先,把“人類—人工智能—?jiǎng)游铩比獋惱黻P(guān)系簡(jiǎn)化為“人類與動(dòng)物”的二元倫理關(guān)系,而在此倫理關(guān)系之內(nèi),人類負(fù)有對(duì)動(dòng)物進(jìn)行保護(hù)的道德義務(wù)。人類與動(dòng)物是雙向度的倫理關(guān)系,人類的生存和發(fā)展與動(dòng)物具有非常密切的關(guān)系。長期以來,關(guān)于兩者的權(quán)利和義務(wù)問題爭(zhēng)議不休,爭(zhēng)議的核心在于動(dòng)物是否擁有權(quán)利,而動(dòng)物是否擁有權(quán)利也是它們能否納入人類道德共同體并給予道德關(guān)懷的必要條件之一。20世紀(jì)最偉大的人道主義者史懷澤說:“把愛的原則擴(kuò)展到動(dòng)物,這對(duì)倫理學(xué)是一種革命。”[7]但這一任務(wù)是十分艱巨的,至今都沒有出現(xiàn)在人類的道德法典中。我們認(rèn)為,這一爭(zhēng)議可以暫時(shí)懸置,在人類與動(dòng)物的跨物種之間,權(quán)利和義務(wù)本身就是不對(duì)等的,由動(dòng)物沒有權(quán)利不能推定人類沒有保護(hù)動(dòng)物的義務(wù);反之亦然,由人類負(fù)有保護(hù)動(dòng)物的義務(wù)也不能倒推動(dòng)物擁有權(quán)利。支持為利用動(dòng)物而辯護(hù)的學(xué)者卡爾•科亨教授認(rèn)為,“我們有義務(wù)不去殘忍地對(duì)待動(dòng)物,跳躍到動(dòng)物權(quán)利則是一個(gè)錯(cuò)誤”[8],因?yàn)槿魏巍霸噲D從事實(shí)中推論出價(jià)值的做法正是犯了摩爾(GeorgeMoore)所說的‘自然主義謬誤’”[9]。我們負(fù)有某些直接針對(duì)動(dòng)物的義務(wù),就像我們負(fù)有某些直接針對(duì)我們彼此的義務(wù)一樣。[10]美國學(xué)者湯姆•雷根所提出的這種間接義務(wù)論詮釋了跨物種之間的權(quán)利和義務(wù)的不對(duì)等性問題,也足以說明,動(dòng)物雖然暫時(shí)不具有人類所承認(rèn)的權(quán)利,但并不妨礙人類具有以人道原則保護(hù)動(dòng)物的道德義務(wù)。保護(hù)動(dòng)物的實(shí)踐要求不是開籠放雀式的“解放動(dòng)物”,而是要求人類禁止對(duì)動(dòng)物的非必要傷害其次,把“人類—人工智能—?jiǎng)游铩比獋惱黻P(guān)系簡(jiǎn)化為“人工智能與動(dòng)物”的二元倫理關(guān)系,而在此倫理關(guān)系之內(nèi),人工智能更沒有無故傷害動(dòng)物的道德理由。這是因?yàn)槿斯ぶ悄芘c動(dòng)物是一種單向度的倫理關(guān)系,人工智能在生存與發(fā)展上完全可以不依賴于動(dòng)物(如不用進(jìn)食動(dòng)物肉體和穿戴動(dòng)物皮草作為生存和享受的基本條件),動(dòng)物卻可以因?yàn)槿斯ぶ悄艿膹V泛應(yīng)用而增加福利,并因?yàn)槿斯ぶ悄艿氖Э囟鴤涫軅Α@纾谖磥淼娜斯ぶ悄軙r(shí)代,人類與動(dòng)物直接打交道的機(jī)會(huì)除了伴侶動(dòng)物以外,其他任何種類的動(dòng)物都是由人工智能來進(jìn)行直接接觸和處理。以屠宰為例,人工智能屠宰技術(shù)畢竟是機(jī)器系統(tǒng),它們不具備像人類一樣的生理和心理基礎(chǔ),永遠(yuǎn)不會(huì)具有通過虐待和折磨動(dòng)物來獲得愉快情感的變態(tài)能力,只會(huì)根據(jù)智能算法直接采用無痛苦屠宰動(dòng)物并剝皮取肉,而不會(huì)多費(fèi)時(shí)間以及多加幾道非必要的虐待程序來對(duì)動(dòng)物進(jìn)行痛苦的折磨。因此,人工智能與動(dòng)物這種單向度的倫理關(guān)系決定了禁止人工智能在非必要的情況下傷害動(dòng)物的基本原則。只有在人類的需要和授權(quán)下,人工智能才能傷害動(dòng)物,如人工智能代替人類屠宰農(nóng)場(chǎng)動(dòng)物、在野生動(dòng)物襲擊人類時(shí)傷害動(dòng)物以解救人類等。總之,即使是與動(dòng)物的倫理關(guān)系更為密切的人類,也沒有權(quán)利可以無故傷害動(dòng)物,因?yàn)槿祟愒诜潜匾那闆r下傷害動(dòng)物的行為也必須受到禁止,而作為人類創(chuàng)生出來的人工智能,就更加必須遵循這一基本原則,未來的強(qiáng)人工智能下的具有“人格”或道德地位的機(jī)器人也必須限制在人類為其制定的倫理原則及規(guī)范中活動(dòng)。

(三)第三項(xiàng)基本原則:人工智能在人類與動(dòng)物利益相沖突的情況下遵循人類利益優(yōu)先的原則動(dòng)物倫理中的人工智能還要面對(duì)一個(gè)更加復(fù)雜的情況,那就是當(dāng)人類與動(dòng)物利益相沖突時(shí),人工智能需要遵循什么原則?舉例來說,當(dāng)機(jī)器人看到人類和動(dòng)物同時(shí)落水時(shí)應(yīng)該選擇先救誰?或者說當(dāng)機(jī)器人看到人類在受到野生動(dòng)物的襲擊時(shí),他應(yīng)該怎么做?這是一個(gè)經(jīng)典的道德問題,必須將人類和動(dòng)物的利益分為兩個(gè)不同的方面來論證,并運(yùn)用功利原則來進(jìn)行計(jì)算,由此推導(dǎo)出人工智能應(yīng)遵循人類利益優(yōu)先的原則。

1.人類和動(dòng)物的不受痛苦的利益相沖突的情況。在道德關(guān)懷中,無論人類還是動(dòng)物,最起碼的利益就是不受痛苦。但是如果兩者的不受痛苦的利益發(fā)生沖突時(shí),誰的利益更大?由于人類與動(dòng)物的痛苦大致是可以衡量的,如辛格提出的“等值痛苦”的概念可以用來作為參考。他舉例說,如果用相同的力氣打馬屁股和嬰兒臉一巴掌,疼痛感受肯定是不一樣的,能把嬰兒打哭卻不一定能把馬打痛,但是總有一種對(duì)動(dòng)物的打法(如棍子打)造成的痛苦能夠在人類和動(dòng)物之間進(jìn)行等值衡量。在功利原則對(duì)等值痛苦的計(jì)算下,當(dāng)人類和動(dòng)物的利益發(fā)生沖突時(shí),也同樣有理由優(yōu)先考慮人類的利益。例如當(dāng)考慮一項(xiàng)實(shí)驗(yàn)到底是用人來做還是用動(dòng)物來做時(shí),假設(shè)這項(xiàng)實(shí)驗(yàn)非做不可,則用動(dòng)物來代替人體實(shí)驗(yàn)不會(huì)構(gòu)成物種歧視。[11]如果再來設(shè)想一個(gè)道德實(shí)驗(yàn),假如一只狼正在撕咬一個(gè)人,如果用一種打法可以使狼放棄撕咬,顯然這種情況下人工智能(武器系統(tǒng)或機(jī)器人)都會(huì)使用這種打法(甚至是擊斃),而之所以這么做,仍然是遵循人類利益優(yōu)先原則,并不會(huì)去考慮到狼的痛苦。所以,在人類和動(dòng)物的不受痛苦的利益發(fā)生沖突時(shí),即使是在等值痛苦的條件下,功利計(jì)算的結(jié)果仍然是要求人工智能遵循人類利益優(yōu)先的原則,因?yàn)閯?dòng)物是被排除在人類的道德共同體之外的。

2.人類和動(dòng)物的享受快樂的利益相沖突的情況。人類和動(dòng)物都有享受快樂的利益,但是絕大多數(shù)情況下,人類享受快樂的能力要明顯高于動(dòng)物。譬如豬就不懂得投票的意義,而人則懂得追求人生理想和實(shí)現(xiàn)自我價(jià)值的意義,人在精神追求過程中所帶來的快樂享受要遠(yuǎn)遠(yuǎn)高于動(dòng)物。盡管在人類和動(dòng)物之間的享受快樂的利益很難做到等值衡量,因此基于功利原則的計(jì)算無法進(jìn)行,然而動(dòng)物在心智上并不會(huì)由于失去了享受快樂的利益而帶來長久痛苦,而人則甚至?xí)驗(yàn)槔硐肫茰缁蛘呤賹?dǎo)致承受不了精神上的痛苦而自殺。可見,如果一種利益總是比另一種利益大,就應(yīng)該遵循以利益大者為優(yōu)先的原則。因此,在人類和動(dòng)物的享受快樂的利益相沖突時(shí),人工智能也應(yīng)該遵循人類利益優(yōu)先的原則,這樣就能保證人工智能正確地選擇優(yōu)先保護(hù)人類的享受快樂的利益。要之,功利原則要求人工智能在人類與動(dòng)物發(fā)生利益沖突(道德兩難)時(shí)遵循人類利益優(yōu)先的原則,這顯然是一種符合人性的倫理原則。美國法學(xué)家加里•L•弗蘭西恩(GaryL.Francione)也將人類利益優(yōu)先稱之為人們普遍認(rèn)同的道德直覺,他認(rèn)為:“我們大多數(shù)人都有這樣的觀點(diǎn):在人與動(dòng)物的利益真正有沖突的情況下,或者要求我們?cè)谌伺c動(dòng)物之間做出抉擇的緊急情況下———也就是很有“必要”這樣做的時(shí)候———我們應(yīng)該優(yōu)先考慮人類的利益而不是動(dòng)物的利益。”[12]雖然功利主義者認(rèn)為不能為了一個(gè)物種的瑣碎利益而犧牲另一個(gè)物種的更大的利益(比如為了口腹之欲而剝奪動(dòng)物的生命),但是在面臨人類和動(dòng)物利益發(fā)生沖突時(shí),基于人類利益優(yōu)先的功利主義做法,人工智能必須作出保護(hù)人類而不是保護(hù)動(dòng)物利益的道德抉擇。如果人工智能選擇保護(hù)動(dòng)物而不是保護(hù)人類,顯然違背了漢斯•約納斯(HansJonas)所提出的責(zé)任的“第一律令”:不可毀滅人類自己。[13]這樣,就能順利推導(dǎo)出動(dòng)物倫理中的人工智能的第三項(xiàng)基本原則:人工智能在人類與動(dòng)物利益相沖突的情況下應(yīng)遵循人類利益優(yōu)先的原則。

參考文獻(xiàn):

[1]曹文斌.西方動(dòng)物解放論與中國佛教護(hù)生觀比較研究:序言[M].北京:人民出版社,2010:1.

[4]張君平.黑格爾人學(xué)思想研究[M].北京:知識(shí)產(chǎn)權(quán)出版社,2015:163.

[5]胡道玖.以責(zé)任看發(fā)展:多元視閾的“責(zé)任發(fā)展觀”研究[M].上海:上海交通大學(xué)出版社,2014:65.

[6]董慧穎.機(jī)器人原理與技術(shù)[M].北京:清華大學(xué)出版社,2014:6.

[7]〔法〕史懷澤.敬畏生命[M].陳澤環(huán),譯.上海:上海社會(huì)科學(xué)院出版社,1992:76.

[8]〔美〕湯姆•雷根,〔美〕卡爾•科亨.動(dòng)物權(quán)利論爭(zhēng)[M].楊通進(jìn),江婭,譯.北京:中國政法大學(xué)出版社,2005:243.

[9]張德昭,徐小欽.論動(dòng)物解放/權(quán)利論的天賦價(jià)值范疇[J].自然辯證法通訊,2004(4):47.

[10]〔美〕湯姆•雷根.關(guān)于動(dòng)物權(quán)利的激進(jìn)的平等主義觀點(diǎn)[J].楊通進(jìn),譯.哲學(xué)譯叢,1999(4):26.

[13]方秋明.“為天地立心,為萬世開太平”———漢斯•約納斯責(zé)任倫理學(xué)研究[M].北京:光明日?qǐng)?bào)出版社,2009:110.

作者:曹文斌 單位:湘潭大學(xué)

主站蜘蛛池模板: 99久久人妻精品免费二区| 亚洲人成77777在线播放网站| 边摸边吃奶边做爽免费视频网站| 国产精品香蕉在线| yellow2019电影在线高清观看 | 亚洲电影唐人社一区二区| 精品无码一区二区三区爱欲九九 | 一本色道久久88亚洲综合| 日本三级在线观看免费| 二区三区在线观看| 欧美日韩中文字幕在线视频| 人妻少妇无码精品视频区| 精品无码国产一区二区三区麻豆 | 亚洲欧美日韩天堂一区二区| 看成年女人免费午夜视频| 四虎在线成人免费网站| 边摸边吃奶边做爽免费视频99| 国产真实伦在线观看| 26uuu页面升级| 污污的小说片段| 成在线人免费无码高潮喷水| 久久精品国产欧美日韩亚洲| 欧美人善交videosg| 亚洲欧美日韩精品久久亚洲区色播 | 84pao强力打造| 日韩欧美国产成人| 亚洲国产精品嫩草影院| 污污网站免费观看| 伊人热热久久原色播放www| 精品国产不卡在线电影| 四虎www免费人成| 花季传媒app免费版网站下载安装| 国产婷婷综合丁香亚洲欧洲| 免费看男女下面日出水来| 国产精品久久国产精麻豆99网站| 91理论片午午伦夜理片久久| 在线观看国产一区二区三区| h视频免费在线| 天天色天天干天天射| 一区二区三区中文| 怡红院怡春院首页|