人工智能伦理体系:基础架构与关键问题
陳小平
摘要:全球范圍內(nèi)針對人工智能倫理準(zhǔn)則的討論已達(dá)成基本共識。在此基礎(chǔ)上,本文進(jìn)一步研究4個關(guān)鍵問題:人工智能倫理體系的運(yùn)行機(jī)制問題、人工智能倫理準(zhǔn)則的場景落地問題、人工智能倫理風(fēng)險的預(yù)測判別問題,以及人工智能倫理對重大社會問題綜合創(chuàng)新的支撐機(jī)制問題。這些問題超越了人工智能倫理準(zhǔn)則的范圍,卻是一種完整、有效的人工智能倫理體系所必須解答的。本文的主要貢獻(xiàn)是對這4個問題提出一套建議方案。
關(guān)鍵詞:人工智能 倫理體系 倫理準(zhǔn)則 風(fēng)險預(yù)測 倫理性創(chuàng)新
Ethical system of artificial intelligence: infrastructure and key issues
CHEN Xiaoping
Abstract: On the basis of consensus on ethical guidelines or principles so far reached in the world, four key issues on ethical system of AI will be studied further in this paper: operating mechanisms of AI ethics system, the grounding of AI ethical guidelines in real-world scenarios, prediction and identification of ethical risks of AI technology, and comprehensive innovation mechanisms of handling major social problems supported by the AI ethics system. These issues go beyond the realm of AI ethical guidelines, while they must be solved in order to develop a complete and effective operating system of AI ethics. A preliminary plan for solving these issues is proposed as the main contribution of this paper.
隨著人工智能第三次浪潮帶來的重要進(jìn)展,人工智能倫理挑戰(zhàn)已成為當(dāng)前國內(nèi)外普遍關(guān)注的一個焦點,一些組織和機(jī)構(gòu)開展了相關(guān)議題的研討,發(fā)布了一批人工智能倫理準(zhǔn)則的建議。中國人工智能學(xué)會對人工智能倫理問題高度重視,于2018年年中開始組建人工智能倫理專委會。在2019全球人工智能技術(shù)大會上,5月26日舉行了“全球視野下的人工智能倫理”論壇,在國際上首次提出了人工智能倫理體系規(guī)劃問題,這意味著人工智能倫理建設(shè)開始進(jìn)入第三階段,而人工智能倫理體系的關(guān)鍵問題研究提上了議事日程。正如中國人工智能學(xué)會理事長李德毅院士在論壇致辭中指出的那樣,本次論壇具有里程碑意義。
1 人工智能倫理建設(shè):從倫理準(zhǔn)則到倫理體系
人工智能倫理建設(shè)已經(jīng)歷了兩個階段。第一階段是人工智能倫理必要性的討論,從專業(yè)角度說,耶魯大學(xué)Wendell Wallach等美國學(xué)者起了帶頭作用,在國際上引起了普遍重視;從更廣泛的背景看,尤瓦爾·赫拉利的《人類簡史》發(fā)揮了重要的推動作用。第二階段是人工智能倫理準(zhǔn)則的討論,歐盟走在前面,中國和其他一些國家也積極參與其中。
在第二階段,歐盟人工智能倫理高級專家組提出了人工智能倫理的7條準(zhǔn)則[1],包括:確保人的能動性和監(jiān)督性、保證技術(shù)穩(wěn)健性和安全性、加強(qiáng)隱私和數(shù)據(jù)管理、保證透明度、維持人工智能系統(tǒng)使用的多樣性、非歧視性和公平性、增強(qiáng)社會福祉、加強(qiáng)問責(zé)制。我國清華大學(xué)人工智能與安全項目組提出了6條準(zhǔn)則[2]:福祉原則、安全原則、共享原則、和平原則、法治原則、合作原則。據(jù)不完全統(tǒng)計[3-15],迄今已有40多個機(jī)構(gòu)或組織提出了各自的人工智能倫理準(zhǔn)則建議。總體上看,所有這些準(zhǔn)則建議是基本一致的。
因此本文認(rèn)為,人工智能倫理準(zhǔn)則討論階段已達(dá)成共識而基本結(jié)束了。在這些共識的基礎(chǔ)上,人工智能倫理建設(shè)需要進(jìn)入第三階段,即人工智能倫理體系的討論。
那么,“人工智能倫理體系”與“人工智能倫理準(zhǔn)則”有什么不同?展開人工智能倫理體系的討論有什么必要性和緊迫性?我認(rèn)為,以下4個關(guān)鍵問題,是倫理準(zhǔn)則無法回答,人工智能倫理體系建設(shè)無法回避的。不解決這些問題,就不可能建立完整、有效的人工智能倫理體系。
第一,人工智能倫理體系的運(yùn)作機(jī)制問題。任何倫理準(zhǔn)則都不可能自我執(zhí)行,都必須借助于倫理體系中的一系列相互配合的運(yùn)作機(jī)制才能得到落實。這就如同法律條文制定得再好,也不可能自我執(zhí)行,必須在完整的法制體系中才可以得到落實,而法制體系是由立法、司法、執(zhí)法等機(jī)制組成的。沒有完整的法制體系的支撐,必然出現(xiàn)有法不依的問題。當(dāng)然,倫理體系與法制體系是十分不同的,不可能完全照抄法制體系的“模板”,所以必須開展人工智能倫理體系的討論,尤其是運(yùn)作機(jī)制的討論。
第二,人工智能倫理準(zhǔn)則的場景落地問題。已經(jīng)提出的人工智能倫理準(zhǔn)則,大部分屬于反映普世價值的原則。當(dāng)把這些準(zhǔn)則應(yīng)用于具體的實際場景,就需要細(xì)化為可操作的具體規(guī)定,否則必然停留在口號的層面上無法落地。例如,無人駕駛可以有兩種本質(zhì)不同的應(yīng)用場景。一種是完全無人駕駛交通系統(tǒng),這種交通系統(tǒng)中只有無人駕駛汽車,沒有有人駕駛汽車,行人必須嚴(yán)格遵守與普通道路交通完全不同的規(guī)則。另一種應(yīng)用場景是混合交通系統(tǒng),其中無人駕駛汽車和有人駕駛汽車同時存在,行人遵守普通道路交通規(guī)則。這兩種交通系統(tǒng)雖然都是無人駕駛的應(yīng)用場景,它們所面臨的技術(shù)和倫理風(fēng)險卻是非常不同的。在混合交通系統(tǒng)中,人工智能技術(shù)面臨著難度和復(fù)雜度更大的挑戰(zhàn),而其中大部分最難的挑戰(zhàn)在無人駕駛交通系統(tǒng)中是不存在的。因此,在人工智能倫理體系中,需要為兩種交通系統(tǒng)制定非常不同的監(jiān)管規(guī)定,即使這兩種交通系統(tǒng)符合相同的人工智能倫理準(zhǔn)則。
第三,人工智能倫理風(fēng)險的預(yù)測判別問題。世界上所有民航局都規(guī)定了禁帶物品清單,同時強(qiáng)制實行登機(jī)安檢,以檢測乘客和乘務(wù)人員是否攜帶了禁帶物品。在人工智能倫理體系中,也需要有對應(yīng)于“禁帶物品清單”的某種“違禁物清單”,以便有針對性地進(jìn)行風(fēng)險監(jiān)督和管控。顯然,人工智能倫理準(zhǔn)則只是一些原則,并不包含人工智能的“違禁物清單”,比如“安全原則”不可能具體指出哪些人工智能技術(shù)是不安全的,“公平性原則”不可能具體指出哪些人工智能技術(shù)是不公平的。同時,人工智能處于不斷發(fā)展之中,不可能一勞永逸地列出完整的“違禁物清單”。所以,只能在人工智能倫理體系中建立某種常態(tài)化機(jī)制,該機(jī)制能夠預(yù)測、判別任何一項人工智能技術(shù)有什么風(fēng)險、風(fēng)險多大、是否應(yīng)該禁用等等。這種機(jī)制過去并不存在,這是人類面臨的一個全新課題。
第四,重大社會問題綜合創(chuàng)新的動力機(jī)制問題。倫理學(xué)的基本落腳點圍繞著“正確的和錯誤的行為”[16-17];也就是說,倫理并非只關(guān)心“不做錯事”,也關(guān)心“要做好事”。可是在迄今人工智能倫理的討論中,防范風(fēng)險的一面得到了普遍重視和廣泛討論,而推動社會進(jìn)步和經(jīng)濟(jì)發(fā)展的一面卻沒有受到足夠重視,這已成為人工智能倫理體系建設(shè)的最大短板。有一種觀點認(rèn)為,推動經(jīng)濟(jì)發(fā)展、社會進(jìn)步的問題,應(yīng)該并且已經(jīng)由人工智能研究和產(chǎn)業(yè)化承擔(dān)了,無需人工智能倫理的介入。這種觀點是不符合當(dāng)今社會現(xiàn)實和未來發(fā)展態(tài)勢的。例如,根據(jù)民政部等部門的統(tǒng)計,中國有2.5億個家庭需要家政服務(wù),而現(xiàn)有家政服務(wù)人員不到1700萬。根據(jù)中國老齡辦2016年調(diào)查,中國失能和半失能老人總數(shù)已達(dá)4000萬,而且每年增加800萬。類似問題在發(fā)達(dá)國家也不同程度地存在著。目前,這些問題難以找到有效的解決辦法,因為現(xiàn)存科技和產(chǎn)業(yè)創(chuàng)新(innovation)的主要動力機(jī)制是商業(yè)化,而商業(yè)化機(jī)制應(yīng)對老齡化等社會問題的效力是嚴(yán)重不足的,未來這種情況將越來越嚴(yán)重。因此,有必要在商業(yè)化機(jī)制之外,增加一種新型的綜合創(chuàng)新機(jī)制,即借助于人工智能技術(shù)的倫理性創(chuàng)新。
2 人工智能倫理體系的基礎(chǔ)架構(gòu)
人工智能倫理體系的一種基礎(chǔ)架構(gòu)如圖1所示。這個架構(gòu)并不包含人工智能倫理體系的全部內(nèi)容,而是重點回答上面指出的4個關(guān)鍵問題。
按照流行觀點,人工智能創(chuàng)新生態(tài)包含3個主要環(huán)節(jié),即“社會需求”“研究”與“應(yīng)用”,它們形成一個循環(huán)演進(jìn)的閉環(huán),即需求推動研究,成熟的研究成果經(jīng)過商業(yè)化途徑實現(xiàn)實際應(yīng)用,而實際應(yīng)用又可引發(fā)新的需求。這個閉環(huán)正是人工智能倫理體系的作用對象,而人工智能倫理體系建立之后,整個人工智能生態(tài)的構(gòu)成和運(yùn)作機(jī)制也將大大改變和升級。
人工智能倫理通過3個層次發(fā)揮作用:上層為人工智能倫理的基本使命;中層為人工智能倫理準(zhǔn)則;下層為針對具體應(yīng)用場景的可操作的監(jiān)督治理規(guī)定。
在圖1所示的人工智能倫理體系基礎(chǔ)架構(gòu)中,我們將人工智能倫理的基本使命定義為“為增進(jìn)人類福祉和萬物和諧共存提供倫理支撐”。這個使命本身也是一條倫理準(zhǔn)則,但相對于其他準(zhǔn)則,它的價值具有更大的普遍性和穩(wěn)定性,它的內(nèi)涵概括了其他倫理準(zhǔn)則的內(nèi)涵,而其他倫理準(zhǔn)則未必能概括基本使命的內(nèi)涵。因此,基本使命可用于指導(dǎo)人工智能研究與應(yīng)用,以及中層倫理準(zhǔn)則的制定、改進(jìn)和完善,而其他倫理準(zhǔn)則未必可以或未必需要用來指導(dǎo)倫理性研究。另外,人工智能倫理性研究不太可能改變基本使命的內(nèi)涵,卻可以影響和改變其他倫理準(zhǔn)則的內(nèi)涵。總之,人工智能倫理的基本使命可以視為“倫理準(zhǔn)則的準(zhǔn)則”,也就是人工智能的基本價值觀。
中層的倫理準(zhǔn)則即在人工智能倫理建設(shè)第二階段中達(dá)成共識的那些價值原則。這些倫理準(zhǔn)則是基本使命的具體體現(xiàn),并為實施細(xì)則的制定和科技研究實踐提供引導(dǎo)。
為了將倫理準(zhǔn)則落實到一個個具體的應(yīng)用場景中,需要制定針對性、強(qiáng)制性、可操作的實施細(xì)則,即一套完整的監(jiān)督治理規(guī)定。每一個應(yīng)用場景都由一套對應(yīng)的規(guī)定加以約束,不同的應(yīng)用場景可以有不同的規(guī)定。針對一個具體的應(yīng)用場景,一套規(guī)定往往包含下列多方面的具體要求和規(guī)范:產(chǎn)品標(biāo)準(zhǔn)(企業(yè)標(biāo)準(zhǔn))、技術(shù)標(biāo)準(zhǔn)(團(tuán)體標(biāo)準(zhǔn)/國家標(biāo)準(zhǔn)/國際標(biāo)準(zhǔn))、行規(guī)、產(chǎn)業(yè)政策、法規(guī)等。這些不同方面的規(guī)定是由不同的機(jī)構(gòu)制定和監(jiān)管的,包括企業(yè)、標(biāo)準(zhǔn)化組織、行業(yè)組織、政府部門和法制機(jī)構(gòu),這些規(guī)定之間存在復(fù)雜的相互關(guān)系。例如,企業(yè)制定的產(chǎn)品標(biāo)準(zhǔn)的指標(biāo)不得低于標(biāo)準(zhǔn)化組織制定的技術(shù)標(biāo)準(zhǔn)的指標(biāo)。產(chǎn)品標(biāo)準(zhǔn)和技術(shù)標(biāo)準(zhǔn)是針對一類具體產(chǎn)品或服務(wù)的,而行規(guī)和產(chǎn)業(yè)政策是針對整個行業(yè)的,所以它們是互補(bǔ)的。法規(guī)是從法律層次做出的規(guī)定,具有最高的強(qiáng)制性和權(quán)威性,通常不是針對特定產(chǎn)品和服務(wù)的,甚至可以不針對具體行業(yè)。
從作為倫理實施細(xì)則的規(guī)定的構(gòu)成可以看出,人工智能倫理建設(shè)不可能由某一領(lǐng)域的專家完成,而是必須涉及一系列相關(guān)方,從企業(yè)、大學(xué)和科研機(jī)構(gòu)、標(biāo)準(zhǔn)化組織、行業(yè)組織、政府機(jī)構(gòu)到法律部門,需要所有這些相關(guān)方的相互協(xié)調(diào)和共同努力。在相關(guān)方的協(xié)調(diào)中,不僅需要遵守共同的倫理準(zhǔn)則,而且需要遵守倫理體系基礎(chǔ)架構(gòu)對各自角色的定位和相互關(guān)系的約定。
3 人工智能的風(fēng)險預(yù)測判別機(jī)制
實現(xiàn)人工智能倫理基本使命的一項必要前提是確保人工智能的倫理底線,即確保人工智能研究和應(yīng)用的風(fēng)險處于可控范圍內(nèi)。綜合看來,人工智能有以下3種風(fēng)險。第一,技術(shù)誤用:由于人工智能技術(shù)不夠成熟、不夠人性化或缺乏足夠的倫理約束等原因,給使用者帶來直接的損害,比如數(shù)據(jù)隱私問題、安全性問題和公平性問題等。第二,技術(shù)失控:即人類失去對人工智能技術(shù)的控制而出現(xiàn)嚴(yán)重的后果。例如,現(xiàn)在不少人擔(dān)心,將來人工智能會全面超過人類的智慧和能力,以至于統(tǒng)治人類。第三,應(yīng)用失控:人工智能技術(shù)在某些行業(yè)的普遍應(yīng)用帶來嚴(yán)重的負(fù)面社會效果,如導(dǎo)致很多人失業(yè)。
目前全球不存在相關(guān)機(jī)構(gòu)和充分的研究力量,能夠?qū)@3種風(fēng)險進(jìn)行預(yù)測和判別。因此,有必要在人工智能創(chuàng)新生態(tài)中,增設(shè)一種新型研究模式和部門——人工智能倫理性研究,這種研究的一個核心職能是承擔(dān)對3種風(fēng)險的預(yù)測和判別,也就是擔(dān)任人工智能風(fēng)險底線的守護(hù)者。因此,在未來人工智能創(chuàng)新生態(tài)中,“研究”將被劃分為兩個相對獨立的部門,一個是傳統(tǒng)的科技研究/技術(shù)性研究部門,一個是倫理性研究部門,它們之間存在相互支持的關(guān)系。
人工智能風(fēng)險預(yù)測判別研究與傳統(tǒng)的科技研究之間存在本質(zhì)區(qū)別。技術(shù)學(xué)科的研究歷來以“潛在應(yīng)用”為目的,自然科學(xué)研究則以“求知”為目的,而人工智能風(fēng)險預(yù)測判別研究的基本職能是依據(jù)倫理準(zhǔn)則,通過科學(xué)手段,探明某項技術(shù)的風(fēng)險及其嚴(yán)重性,從而為是否應(yīng)該禁用該技術(shù)提供可靠依據(jù)。因此,風(fēng)險預(yù)測判別研究以“潛在禁用”為主要目的。由此可見,建立人工智能倫理研究部門是絕對必要的。在圖1中,有一個從倫理研究到倫理準(zhǔn)則、到實施細(xì)則、到應(yīng)用場景再到倫理研究的閉環(huán),這個閉環(huán)反映了人工智能倫理研究在整個創(chuàng)新生態(tài)中的作用。
針對3種風(fēng)險,人工智能風(fēng)險預(yù)測判別研究的主要任務(wù)及其必要性概述如下。
關(guān)于第一種倫理風(fēng)險,事實上已經(jīng)在現(xiàn)有人工智能和其他技術(shù)的應(yīng)用中存在著,這種情況的嚴(yán)重性被普遍低估了,也沒有受到有效的監(jiān)督與管控。因此,針對數(shù)據(jù)隱私、安全性、公平性等倫理問題,亟需加強(qiáng)人工智能和相關(guān)技術(shù)的倫理體系建設(shè),加強(qiáng)專業(yè)隊伍的建設(shè),加強(qiáng)針對具體倫理問題的研究,設(shè)置更高標(biāo)準(zhǔn)的相關(guān)規(guī)定,實行有效的監(jiān)管和治理,這些應(yīng)成為當(dāng)前人工智能倫理研究與治理的重點任務(wù)。
第二種風(fēng)險的近期緊迫性不強(qiáng),但長期嚴(yán)重性絕不可低估。傳統(tǒng)技術(shù)都不是自主的,而人工智能可以具有完全自主性。完全自主性意味著,人工智能可以完全獨立于人類而實現(xiàn)現(xiàn)實世界中復(fù)雜任務(wù)的感知、決策和行動。有分析認(rèn)為,具有類似于人的自我意識的完全自主的人工智能系統(tǒng)一旦研制出來,就會獨立地自我繁殖和自我進(jìn)化,并突破任何倫理規(guī)范和人類控制[18]。果真如此,允許這樣的人工智能系統(tǒng)被研發(fā)出來,就意味著人類將被人工智能統(tǒng)治,也就意味著任何人工智能倫理準(zhǔn)則都淪為空談。當(dāng)然,現(xiàn)有哲學(xué)分析還不是充分的科學(xué)論證,所以這種可能性尚未得到證實,但有必要認(rèn)真對待。對于這種風(fēng)險進(jìn)行預(yù)測和判別,是一項極其艱巨、復(fù)雜且無先例的工作,關(guān)系到人類長期生存的安全底線。
第三種風(fēng)險目前沒有嚴(yán)重表現(xiàn),但潛在風(fēng)險肯定是有的。以工業(yè)生產(chǎn)為例,一些勞動密集型產(chǎn)業(yè)已經(jīng)在部分地區(qū)普遍出現(xiàn)了“用工難”現(xiàn)象,但這種現(xiàn)象并不是由于人工智能、機(jī)器人等新技術(shù)的應(yīng)用引起的,而是由于大量崗位的工作性質(zhì)已經(jīng)變成了簡單操作的機(jī)械性重復(fù),這種作業(yè)是不符合人性的。未來的必然趨勢是,愿意承擔(dān)這種工作的人將越來越少,因而對人工智能、機(jī)器人技術(shù)產(chǎn)業(yè)應(yīng)用的需求將越來越強(qiáng),于是在一些行業(yè)中人工替代率將越來越高。如果無法解決再就業(yè)問題,就可能引起應(yīng)用失控,產(chǎn)生極其嚴(yán)重的社會后果。由此可見,對這種風(fēng)險的預(yù)測和判別是極其復(fù)雜、極其困難的,需要多學(xué)科合作和長期努力。
4 面向重大社會問題的倫理性創(chuàng)新
人工智能的根本價值在于增加人類的福祉。在本文建議的人工智能倫理體系中,這條原則被列為基本使命,而且所有已經(jīng)提出的倫理建議都包含這條準(zhǔn)則。人類福祉的一個集中體現(xiàn),是幫助解決社會面臨或?qū)砻媾R的重大問題,例如:氣候變暖、環(huán)境污染、人口老齡化、資源分布不均、經(jīng)濟(jì)發(fā)展不均衡、產(chǎn)業(yè)少人化等。
這些重大社會問題有三個基本特點:第一,從本性上看,現(xiàn)有商業(yè)化機(jī)制不適合解決這類問題;第二,目前也不存在其他有效的應(yīng)對手段;第三,這類問題的解決方案往往不是純技術(shù)性的,而是綜合性的,并且人工智能技術(shù)可以在其中發(fā)揮重要作用。那么,人工智能倫理如何為解決重大社會問題發(fā)揮重要作用?目前,對這個問題的研究是整個人工智能倫理建設(shè)中最為薄弱、最為欠缺的一環(huán)[19]。
本文認(rèn)為,在人工智能倫理體系中的“倫理性研究”部門,應(yīng)該包含兩項基本職能。一項是上文提出的“風(fēng)險預(yù)測判別”,另一項是“倫理性創(chuàng)新”。作為一種全新機(jī)制,倫理性創(chuàng)新將為重大社會問題的應(yīng)對提供研究支撐,其主要工作任務(wù)如下。
第一,社會變化主客觀數(shù)據(jù)的采集分析。在科技和產(chǎn)業(yè)創(chuàng)新飛速發(fā)展的時代,民眾的生活、工作和心理狀態(tài)也在快速變化,而且不同群體的主觀感受、教育觀念、就業(yè)傾向、消費觀念、生活態(tài)度和人機(jī)關(guān)系認(rèn)知等等也處于不斷變化之中。目前,社會對這些信息的把握是十分有限的,這種狀況對于社會的健康發(fā)展是十分不利的,亟需加以改變。因此,開發(fā)相應(yīng)的人工智能和大數(shù)據(jù)等技術(shù),及時充分地收集反映這些變化的指標(biāo)數(shù)據(jù),并與傳統(tǒng)的產(chǎn)業(yè)和社會統(tǒng)計數(shù)據(jù)相結(jié)合,通過系統(tǒng)性分析得出社會狀況的科學(xué)判斷,對于維持社會平穩(wěn)運(yùn)行,更加合理地進(jìn)行政策決策和規(guī)劃制定,具有極其重大的現(xiàn)實意義,同時也為更好地應(yīng)對重大社會問題奠定了必要基礎(chǔ)。
第二,社會發(fā)展可能態(tài)勢的分析預(yù)測。在未來某個時段,完全可能出現(xiàn)大量工作被機(jī)器取代、大批工作年齡人口無工可做的情況。這種情況下的社會結(jié)構(gòu)、經(jīng)濟(jì)運(yùn)行機(jī)理和社會發(fā)展動力,與當(dāng)下社會是根本不同的。因此,在應(yīng)對某些重大社會問題的過程中,未來人類很可能進(jìn)入一個全新的社會文明階段。為了保證這種社會演化符合人類的根本利益,保證宇宙萬物的和諧共存,人類完全有必要未雨綢繆,而不應(yīng)被動地隨波逐流。對未來社會發(fā)展可能態(tài)勢進(jìn)行分析預(yù)測,是社會長期發(fā)展規(guī)劃的必要基礎(chǔ)。這種分析預(yù)測是非常困難的,需要多學(xué)科合作,而人工智能技術(shù)可以在其中發(fā)揮重要作用。
第三,重大社會問題解決方案的創(chuàng)新設(shè)計。人類面臨的重大社會問題,往往難以就事論事地得到解決,需要通過綜合性創(chuàng)新找出化解之道[20]。然而面對如此高維復(fù)雜的問題,單純依靠人工智能技術(shù)和其他相關(guān)技術(shù)手段,是不可能自動求解的。因此,有必要探索人機(jī)合作的求解模式,而人工智能技術(shù)可以顯著提升人機(jī)合作問題求解的水平和性能。例如,利用人工智能“暴力法”[21]中的“假設(shè)推理”方法,可以進(jìn)行人機(jī)合作式問題求解,而且在高維復(fù)雜應(yīng)用場景中已有成功案例,假設(shè)推理發(fā)現(xiàn)了單純依靠人或機(jī)器都無法發(fā)現(xiàn)的有效的解決方案。因此,針對重大社會問題,借助人工智能技術(shù),通過人機(jī)合作方式,完全可能發(fā)現(xiàn)以往無法發(fā)現(xiàn)的綜合創(chuàng)新方案。在未來科技和產(chǎn)業(yè)革命時代,這將是人工智能倫理體系為人類做出的巨大貢獻(xiàn)。
5 結(jié)束語
在人工智能倫理準(zhǔn)則達(dá)成的基本共識的基礎(chǔ)上,本文提出人工智能倫理體系規(guī)劃問題,重點討論解決倫理準(zhǔn)則無法解答而倫理體系必須解決的4個關(guān)鍵問題——運(yùn)行機(jī)制問題、場景落地問題、風(fēng)險預(yù)測判別問題和發(fā)展動力問題,并對這些問題提出了初步解決方案。
人工智能倫理體系的運(yùn)行機(jī)制由它的基礎(chǔ)架構(gòu)決定,該架構(gòu)規(guī)定了倫理體系的主要部門以及它們之間的相互關(guān)系,其中包括場景落地的機(jī)制。本文建議,在人工智能創(chuàng)新生態(tài)中增設(shè)一個新型研究部門——倫理性研究,它有兩項基本職能:人工智能風(fēng)險預(yù)測判別和應(yīng)對重大社會問題的倫理性創(chuàng)新。根據(jù)這些分析和建議,在未來人工智能時代,社會進(jìn)步和經(jīng)濟(jì)發(fā)展將進(jìn)入“雙輪驅(qū)動”模式,以傳統(tǒng)的商業(yè)化創(chuàng)新和新設(shè)立的倫理性創(chuàng)新作為兩個不同而相互關(guān)聯(lián)的動力機(jī)制。
總之,人工智能倫理建設(shè)面臨一系列挑戰(zhàn),不是將一般倫理學(xué)原則、方法和規(guī)則具體化到人工智能就可以奏效的。如何建立這樣的人工智能倫理體系,仍需要相關(guān)各方緊密合作,進(jìn)行長期、艱苦的探索。
致謝
筆者在與下列學(xué)者和專業(yè)人士的相關(guān)交流中受益良多:李德毅院士、趙汀陽、陳嘉映、王蓉蓉、宋曉剛、郝玉成、于劍、王衛(wèi)寧、潘天佑、秦宇、Jeroen van den Hoven、Wendell Wallach、劉曉力、蘇彥捷、孫周興、王國豫、宋冰、劉哲、梁正、Steve Angle。
該文章內(nèi)容轉(zhuǎn)載自《智能系統(tǒng)學(xué)報》官網(wǎng) ,如有侵權(quán)請聯(lián)系刪除
總結(jié)
以上是生活随笔為你收集整理的人工智能伦理体系:基础架构与关键问题的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 日本“女机器人”畅销全球,有三个地方最吸
- 下一篇: 谷歌为何能持续创新?工程经理亲自揭秘“工