聯(lián)合國(guó)的人工智能政策與監(jiān)管
近年來,自動(dòng)化和智能化的機(jī)器人在現(xiàn)代社會(huì)的應(yīng)用越來越廣泛。先進(jìn)機(jī)器人的全球研發(fā)、部署安裝與使用,在引發(fā)的公眾討論的同時(shí),也鼓勵(lì)著政府監(jiān)管的創(chuàng)新。例如,無人機(jī)不僅成為大眾消遣的工具,同時(shí)也在反恐戰(zhàn)爭(zhēng)發(fā)揮著重要作用。自動(dòng)化機(jī)器正在取代工廠中體力勞動(dòng)者,同時(shí)帶來了勞動(dòng)力市場(chǎng)的革命。人形機(jī)器人不但被引進(jìn)了學(xué)校,還用來在日托機(jī)構(gòu)中照顧老年人;輔助機(jī)器人技術(shù)還廣泛應(yīng)用在醫(yī)療方案中,不管是在對(duì)自閉癥患者的心理治療還是在復(fù)雜重要的外科手術(shù)中,都能發(fā)現(xiàn)智能機(jī)器人的身影。機(jī)器人在家庭、工作、社會(huì)公共層面的廣泛存在,不僅帶給人類新的機(jī)會(huì)與挑戰(zhàn),同時(shí)還改變著人類的行為方式。
在聯(lián)合國(guó)內(nèi),雖然大部分關(guān)于自動(dòng)化系統(tǒng)與人工智能的討論主要圍繞在自動(dòng)化武器系統(tǒng),但是,我們看到聯(lián)合國(guó)正在對(duì)大眾化的人工智能系統(tǒng)應(yīng)用產(chǎn)生濃厚的興許。聯(lián)合國(guó)關(guān)于人工智能的若干附屬報(bào)告,呼吁世界各國(guó)采用全新的視角看待人工智能系統(tǒng)的未來監(jiān)管以及它們?cè)跈C(jī)器人和機(jī)器人技術(shù)上的應(yīng)用。聯(lián)合國(guó)提供了一種考察基于機(jī)器人物理形態(tài)下的人工智能系統(tǒng)全新路徑,作為世界各國(guó)“國(guó)家中心”視角的有效補(bǔ)充。
世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)(COMEST)關(guān)于機(jī)器人倫理的初步草案報(bào)告
聯(lián)合國(guó)教科文組織(The United Nations Education, Scientificand Cultural Organization)與世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)(World Commission on the Ethics ofScientific Knowledge and Technology)最新聯(lián)合發(fā)布的報(bào)告(2016)主要討論了機(jī)器人的制造和使用促進(jìn)了人工智能的進(jìn)步,以及這些進(jìn)步所帶來的社會(huì)與倫理道德問題。
主要包括以下四個(gè)方面:
盡管人工智能機(jī)器人通常被認(rèn)為是人工智能系統(tǒng)的載體,事實(shí)上,人工智能機(jī)器人具有的身體移動(dòng)功能和應(yīng)用以及機(jī)器學(xué)習(xí)能力使得它們成為了自動(dòng)化、智能化的電子實(shí)體。同樣的,自動(dòng)化、智能化機(jī)器人不僅能夠勝任復(fù)雜的決策過程,而且還能通過復(fù)雜的算法進(jìn)行實(shí)實(shí)在在的執(zhí)行活動(dòng)。這些進(jìn)化出的新能力,反過來,導(dǎo)致出現(xiàn)了新的倫理和法律問題。具體來說,
1、自動(dòng)化機(jī)器人的使用帶來的挑戰(zhàn)2016年歐洲議會(huì)發(fā)布的關(guān)于人工智能和機(jī)器人的報(bào)告,表達(dá)了其對(duì)于機(jī)器人將給人類帶來的風(fēng)險(xiǎn)的關(guān)注,包括:安全、隱私、誠(chéng)信尊嚴(yán);自主。(注釋2,第7頁)為了應(yīng)對(duì)這些風(fēng)險(xiǎn),歐洲議會(huì)討論了未來可能面對(duì)的道德挑戰(zhàn)以及應(yīng)對(duì)的監(jiān)管措施。聯(lián)合國(guó)教科文組織與世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)的報(bào)告(2015)列舉了以下可行的應(yīng)對(duì)措施,包括:
數(shù)據(jù)和隱私保護(hù);創(chuàng)新關(guān)于機(jī)器人與機(jī)器人制造者之間的責(zé)任分擔(dān)機(jī)制;預(yù)警機(jī)制的建立;對(duì)機(jī)器人在實(shí)際生活場(chǎng)景中的測(cè)試;在涉及人類的機(jī)器人研究中的知情同意權(quán);智能機(jī)器人的退出機(jī)制;為應(yīng)對(duì)自動(dòng)機(jī)器人的廣泛應(yīng)用將給人類教育和就業(yè)帶來的巨大影響而建立全新的保險(xiǎn)制度。
2、機(jī)器人技術(shù)與機(jī)械倫理學(xué)
關(guān)于機(jī)器人制造和部署的倫理道德問題,被視為“機(jī)械倫理學(xué)(roboethics)”,用來處理人們發(fā)明和分配機(jī)器人的倫理道德問題,而不僅僅是機(jī)器的倫理學(xué)。聯(lián)合國(guó)教科文組織與世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)的報(bào)告(2015)認(rèn)為,“機(jī)械倫理學(xué)”的大部分領(lǐng)域仍然處于沒有規(guī)范的狀態(tài),一方面是因?yàn)檎疅o法跟飛速的科技發(fā)展相同步,另一方面是因?yàn)?ldquo;機(jī)械倫理學(xué)”的復(fù)雜性和其無法預(yù)知的本質(zhì)。
這一問題對(duì)于常常與公眾直接接觸的機(jī)器人商業(yè)開發(fā)者和制造者來說,尤其麻煩,因?yàn)樗麄兺瑯記]有既定的倫理準(zhǔn)則去遵守和執(zhí)行。聯(lián)合國(guó)在報(bào)告中記錄了,各個(gè)國(guó)家在尋找機(jī)器人倫理道德準(zhǔn)則的實(shí)踐中,所采用的不同做法。例如,韓國(guó)政府強(qiáng)制實(shí)施的機(jī)器人特許狀制度;日本對(duì)于機(jī)器人應(yīng)用部署問題制定的管理方針,包括建立中心數(shù)據(jù)基地來儲(chǔ)存機(jī)器人對(duì)于人類造成傷害的事故報(bào)告。
3、邁向新的責(zé)任分擔(dān)機(jī)制?
聯(lián)合國(guó)聯(lián)合國(guó)教科文組織與世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)的報(bào)告(2015)探討了一個(gè)復(fù)雜的問題,即在制造一個(gè)機(jī)器人需要不同的專家和部門合作的情況下,誰該為機(jī)器人的某次操作失靈負(fù)有責(zé)任。在科學(xué)技術(shù)不斷進(jìn)步和市場(chǎng)需求不斷增長(zhǎng),機(jī)器人的自由和自主性不斷增強(qiáng)的情況下,這個(gè)問題顯得尤為重要。報(bào)告認(rèn)為,關(guān)于機(jī)器人倫理的考慮,不應(yīng)該局限于某次事故或者失靈造成的人身損害,更應(yīng)該包括智能機(jī)器人帶來的心理傷害,如機(jī)器人侵犯人的隱私、人因?yàn)闄C(jī)器人的類人行為而對(duì)其過分依賴等。
報(bào)告提出了一個(gè)可行的解決辦法,即采取責(zé)任分擔(dān)的解決途徑,讓所有參與到機(jī)器人的發(fā)明、授權(quán)、和分配過程中的人來分擔(dān)責(zé)任。另一個(gè)解決辦法,就是讓智能機(jī)器人承擔(dān)責(zé)任,因?yàn)橹悄軝C(jī)器人確實(shí)擁有前所未有的自主性,并且擁有能夠獨(dú)立做出決策的能力。這兩種責(zé)任分擔(dān)方式展現(xiàn)了兩種極端,既無視了人類在科技發(fā)展過程中的固有偏見,也忽略了科技被居心叵測(cè)的使用者用做他途的可能性。因此,報(bào)告并沒有對(duì)機(jī)器人使用者應(yīng)該承擔(dān)的責(zé)任給予充分的考慮。
為了尋找可能的法律解決途徑,聯(lián)合國(guó)的報(bào)告援引了阿薩羅(Asaro)提出的結(jié)論,即機(jī)器人以及機(jī)器人技術(shù)造成的傷害,很大一部分由民法中產(chǎn)品責(zé)任的相關(guān)法律調(diào)整,因?yàn)闄C(jī)器人一般被視為通常意義上的科技產(chǎn)品。從這個(gè)角度看,機(jī)器人造成的傷害很大一部分被歸責(zé)于機(jī)器人制造者和零售商的“過失”、“產(chǎn)品警告的缺失”、“沒有盡到合理的注意義務(wù)”。(注釋1,第171頁)這種歸責(zé)制度,在阿薩羅(Asaro)看來,會(huì)隨著機(jī)器人越來越自動(dòng)化及智能化,而逐漸被廢棄。然后一個(gè)新的平衡機(jī)器人制造者、銷售者和最終使用者的責(zé)任分擔(dān)機(jī)制會(huì)被逐漸創(chuàng)造出來。
4、決策可追溯的重要性
聯(lián)合國(guó)的報(bào)告認(rèn)為,在對(duì)機(jī)器人及機(jī)器人技術(shù)的倫理與法律監(jiān)管中,一個(gè)至關(guān)重要的要素是可追溯性,可追溯性的確立才能讓機(jī)器人的行為及決策全程處于監(jiān)管之下。可追溯性的重要性表現(xiàn)在,它讓人類的監(jiān)管機(jī)構(gòu)不僅能夠理解智能機(jī)器人的思考決策過程以及做出必要的修正,而且能夠在特定的調(diào)查和法律行動(dòng)中發(fā)揮它本來應(yīng)有的作用。只有保證人類能夠全面追蹤機(jī)器人思考及決策的過程,我們才有可能在監(jiān)管機(jī)器人的過程中占據(jù)主動(dòng)權(quán)或者事后進(jìn)行全面的追蹤調(diào)查。
決策制定者考慮的問題
聯(lián)合國(guó)報(bào)告在探討政府監(jiān)管政策的制定方法時(shí),引用了來自聯(lián)合國(guó)經(jīng)濟(jì)與社會(huì)事務(wù)部(United Nations Department of Economic andSocial Affairs)的索爾陶·弗里德里希(Soltau Friedrich)的說法,認(rèn)為國(guó)家應(yīng)該關(guān)注于社會(huì)生活中不斷增長(zhǎng)的半自動(dòng)化與全自動(dòng)化服務(wù)。
索爾陶認(rèn)為人類更熱衷于人與人之間的交流互動(dòng),即使計(jì)算機(jī)或者人工智能化的機(jī)器能夠更好的勝任這項(xiàng)交流互動(dòng),而且在某項(xiàng)交流需要敏感的社會(huì)感知力與同情心的情況下,尤其如此。所以,監(jiān)管者必須考慮科技發(fā)展的社會(huì)性限制因素。因?yàn)榧词箍萍急话l(fā)明出來并且得到應(yīng)用,但是并不一定意味著其就會(huì)被廣大的普通消費(fèi)者所接受。
因此,索爾陶建議每個(gè)國(guó)家的政策制定者在將一般的機(jī)械自動(dòng)化推進(jìn)至智能自主化時(shí),需要考慮諸多問題的應(yīng)對(duì)措施,包括:
加強(qiáng)社會(huì)保障系統(tǒng);采取教育政策促進(jìn)計(jì)算機(jī)人才的培養(yǎng)滿足市場(chǎng)需求;制定政策促使勞動(dòng)者從低技能行業(yè)向高技能行業(yè)流動(dòng);同時(shí)強(qiáng)化失業(yè)安全保障網(wǎng)應(yīng)對(duì)國(guó)際貿(mào)易條約對(duì)勞動(dòng)者帶來的不利影響;制定政策提高在研究和開發(fā)領(lǐng)域的投資,促進(jìn)發(fā)展中國(guó)家的市場(chǎng)競(jìng)爭(zhēng)與發(fā)達(dá)國(guó)家的創(chuàng)新。
聯(lián)合國(guó)的報(bào)告指出了智能機(jī)器人的核心問題,由于它們能夠執(zhí)行復(fù)雜的任務(wù),無疑將影響就業(yè)市場(chǎng)和人類消費(fèi)與接受服務(wù)的方式。除了法律與倫理道德的政府監(jiān)管,公眾對(duì)于智能化機(jī)器人的某一項(xiàng)功能的接受與拒絕所帶來的社會(huì)、經(jīng)濟(jì)以及科技影響,也可能促進(jìn)或阻礙智能機(jī)器人未來的發(fā)展、擴(kuò)張及大規(guī)模應(yīng)用。正因如此,政府必須考慮公眾對(duì)于科技的需求和接受程度,才能在新興科技迅猛發(fā)展引起社會(huì)結(jié)構(gòu)劇烈變遷的過程中找準(zhǔn)自己的角色。
分享到微信 ×
打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。