傳統(tǒng)的人類中心的樸素倫理學信念已經(jīng)受到人工智能迅猛發(fā)展的威脅性挑戰(zhàn),當哲學家、人類學家、倫理學家們尚在沉默時,一線科學家們已經(jīng)做出一個權宜的回答:“阿西洛馬人工智能原則”即“為了人和人類利益的人工智能”(Beneficial AI);人類不確定性的未來仍是揮之不去的陰影,從基督教“世界末日”的預言到“上帝死了”(尼采)到“人死了”(福柯)的西方非理性思潮再到今天“人類的終結”的猜測,似乎是越來越大的震動的腳步聲,我們的文化和文明能夠重生新的超越的倫理學嗎?
2017年1月在美國加州Asilomar召開的“阿西洛馬會議”(the 2017 Asilomar conference),包括844名人工智能和機器人領域的專家們基于對AI和Robot迅猛發(fā)展的深切關注,聯(lián)合簽署了稱之為“阿西洛馬人工智能原則”(Asilomar AI Principles),呼吁全世界的人工智能領域工作遵守這些原則,共同保障人類未來的利益和安全。
對AI和Robot的發(fā)展所產(chǎn)生的對人類自身的地位和價值的影響的擔憂由來已久,稍前一些,2014年由 Skype聯(lián)合創(chuàng)始人Jaan Tallinn、麻省理工學院教授Max Tegmark,物理學家史蒂芬•霍金、SpaceX 和 Tesla Motors 創(chuàng)始人Elon Musk、牛津大學Future of Humanity Institute主任Nick Bostrom、MIT Center for Digital Business主任Erik Brynjolfsson、哈佛大學遺傳學教授George Church、MIT物理學教授Alan Guth以及劍橋大學、UC Berkeley 等人工智能方面的專家、教授以志愿者的身份創(chuàng)立了“生命的未來研究所”(Future of Life Institute,F(xiàn)LI),2015 1月11日他們發(fā)表了一封公開信:Research Priorities for Robust and Beneficial Artificial Intelligence:an Open Letter(公開信:為穩(wěn)健性和利益性的人工智能而進行研究http://futureoflife.org/static/data/documents/research_priorities.pdf ),提出“我們的人工智能必須只做我們要它們做的”(our AI systems must do what we want them to do)即“有益的人工智能”(Beneficial AI)的口號,而對這樣的問題的高度關注此前已經(jīng)引起了業(yè)內(nèi)外的廣泛注意和嚴肅討論并所行動,如:AAAI 2008-09 Presidential Panel on Long-Term AI Futures(http://www.aaai.org/Organization/presidential-panel.php),Asilomar Meeting on Long-Term AI Futures.
(http://research.microsoft.com/en-us/um/people/horvitz/AAAI_Presidential_Panel_2008-2009.htm),Partnership on Artificial Intelligence to Benefit People and Society.
(https://www.partnershiponai.org/)等,而更早的時候,在實體機器人出現(xiàn)之前的上世紀四十年代,科幻小說家阿西莫夫(Isaac Asimov)著名的“機器人學三大法則”和以后的多種補充原則(LawⅠ:A Robot may not injure a human being or,through inaction,allow a human being to come to harm)
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;LawⅡ:A robotmustobey0rdersgivenitbyhumanbeingsexcept wheresuchorders wouldconflict withthefirst law.第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;LawⅢ:A robotmustprotectitsownexistenceaslongassuchprotection doesnotconflict withthefirst orsecondlaw.第三定律:機器人在不違反第一、第二定律情況下要盡可能保護自己的生存,這三條法則實際是把機器對人的服從作為機器的設計和制造的原則,并沒考慮具有“自主能力”、甚或有自我意識等高級人工智能的問題,現(xiàn)在那種“高度自主的人工智能系統(tǒng)”(Highly autonomous AI systems)或被稱為“強人工智能”或“通用人工智能”(Artificial General Intelligence ,AGI)等似乎已在敲門了,人類如應何而對?
“阿西洛馬人工智能原則”實際上是所有關注AI和Robot 的發(fā)展所產(chǎn)生的對人類難以估量的影響的長期觀察和思考的一次集中性表達,在更深遠的意義上,可以看作是科學家頂替缺位的哲學家、人類學家、倫理學家對人類自身的性質(zhì)和地位和價值的一次嚴肅思考。
一、Asilomar AI Principles 阿西洛馬人工智能原則:
Research Issues科研問題
1) Research G
OAl:The goal of AI research should be to create not undirected intelligence,but beneficial intelligence.
研究目的:人工智能研究的目標,應該是創(chuàng)造有益(于人類)而不是不受(人類)控制的智能。
2) Research Funding:Investments in AI should be accompanied by funding for research on ensuring its beneficial use,including thorny questions in computer science,economics,law,ethics,and social studies, such as:
研究經(jīng)費:投資人工智能應該有部份經(jīng)費()用于研究如何確保有益地使用人工智能,包括計算機科學、經(jīng)濟學、法律、倫理以及社會研究中的棘手問題,比如:
• How can we make future AI systems highly robust,so that they do what we want without malfunctioning or getting hacked?
如何使未來的人工智能系統(tǒng)高度健全(“魯棒性”),讓系統(tǒng)按我們的要求運行,而不會發(fā)生故障或遭黑客入侵?
• How can we grow our prosperity through automation while maintaining people’s resources and purpose?
如何通過自動化提升我們的繁榮程度,同時維持人類的資源和意志?
• How can we update our legal systems to be more fair and efficient,to keep pace with AI,and to manage the risks associated with AI?
如何改進法制體系使其更公平和高效,能夠跟得上人工智能的發(fā)展速度,并且能夠控制人工智能帶來的風險?
• What set of values should AI be aligned with,and what legal and ethical status should it have?
人工智能應該歸屬于什么樣的價值體系?它該具有何種法律和倫理地位?
3) Science-Policy Link:There should be constructive and healthy exchange between AI researchers and policy-makers.
科學與政策的聯(lián)系:在人工智能研究者和政策制定者之間應該有建設性的、有益的交流。
4) Research Culture:A culture of cooperation,trust,and transparency should be fostered among researchers and developers of AI.
科研文化:在人工智能研究者和開發(fā)者中應該培養(yǎng)一種合作、信任與透明的人文文化。
5) Race Avoidance:Teams developing AI systems should actively cooperate to avoid corner-cutting on safety standards.
避免競爭:人工智能系統(tǒng)開發(fā)團隊之間應該積極合作,以避免安全標準上的有機可乘。
Ethics and values倫理和價值
6) Safety:AI systems should be safe and secure throughout their operational lifetime,and verifiably so where applicable and feasible.
安全性:人工智能系統(tǒng)在它們整個運行過程中應該是安全和可靠的,而且其可應用性的和可行性應當接受驗證。
7) Failure Transparency:If an AI system causes harm,it should be possible to ascertain why.
故障透明性:如果一個人工智能系統(tǒng)造成了損害,那么造成損害的原因要能被確定。
8) Judicial Transparency:Any involvement by an autonomous system in judicial decision-making should provide a satisfactory explanation auditable by a competent human authority.
司法透明性:任何自動系統(tǒng)參與的司法判決都應提供令人滿意的司法解釋以被相關領域的專家接受。
9) Responsibility:Designers and builders of advanced AI systems are stakeholders in the moral implications of their use,misuse,and actions,with a responsibility and opportunity to shape those implications.
責任:高級人工智能系統(tǒng)的設計者和建造者,是人工智能使用、誤用和行為所產(chǎn)生的道德影響的參與者,有責任和機會去塑造那些道德影響。
10) Value Alignment:Highly autonomous AI systems should be designed so that their goals and behaviors can be assured to align with human values throughout their operation.
價值歸屬:高度自主的人工智能系統(tǒng)的設計,應該確保它們的目標和行為在整個運行中與人類的價值觀相一致。
11) Human Values:AI systems should be designed and operated so as to be compatible with ideals of human dignity,rights,freedoms, and cultural diversity.
人類價值觀:人工智能系統(tǒng)應該被設計和操作,以使其和人類尊嚴、權力、自由和文化多樣性的理想相一致。
12) Personal Privacy:People should have the right to access,manage and control the data they generate,given AI systems’power to analyze and utilize that data.
個人隱私:在給予人工智能系統(tǒng)以分析和使用數(shù)據(jù)的能力時,人們應該擁有權力去訪問、管理和控制他們產(chǎn)生的數(shù)據(jù)。
13) Liberty and Privacy:The application of AI to personal data must not unreasonably curtail people’s real or perceived liberty.
自由和隱私:人工智能在個人數(shù)據(jù)上的應用不能充許無理由地剝奪人們真實的或人們能感受到的自由。
14) Shared Benefit:AI technologies should benefit and empower as many people as possible.
分享利益:人工智能科技應該惠及和服務盡可能多的人。
15) Shared Prosperity:The economic prosperity created by AI should be shared broadly,to benefit all of humanity.
共同繁榮:由人工智能創(chuàng)造的經(jīng)濟繁榮應該被廣泛地分享,惠及全人類。
16) Human Control:Humans should choose how and whether to delegate decisions to AI systems,to accomplish human-chosen objectives.
人類控制:人類應該來選擇如何和決定是否讓人工智能系統(tǒng)去完成人類選擇的目標。
17) Non-subversion:The power conferred by control of highly advanced AI systems should respect and improve,rather than subvert,the social and civic processes on which the health of society depends.
非顛覆:高級人工智能被授予的權力應該尊重和改進健康的社會所依賴的社會和公民秩序,而不是顛覆。
18) AI Arms Race:An arms race in lethal autonomous weapons should be avoided.
人工智能軍備競賽:致命的自動化武器的裝備競賽應該被避免。
Longer-term Issues更長期的問題
19) Capability Caution:There being no consensus,we should avoid strong assumptions regarding upper limits on future AI capabilities.
能力警惕:我們應該避免關于未來人工智能能力上限的過高假設,但這一點還沒有達成共識。
20) Importance:Advanced AI could represent a profound change in the history of life on Earth,and should be planned for and managed with commensurate care and resources.
重要性:高級人工智能能夠代表地球生命歷史的一個深刻變化,人類應該有相應的關切和資源來進行計劃和管理。
21) Risks:Risks posed by AI systems, especially catastrophic or existential risks,must be subject to planning and mitigation efforts commensurate with their expected impact.
風險:人工智能系統(tǒng)造成的風險,特別是災難性的或有關人類存亡的風險,必須有針對性地計劃和努力減輕可預見的沖擊。
22) Recursive Self-Improvement:AI systems designed to recursively self-improve or self-replicate in a manner that could lead to rapidly increasing quality or quantity must be subject to strict safety and control measures.
遞歸的自我提升:被設計成可以迅速提升質(zhì)量和數(shù)量的方式進行遞歸自我升級或自我復制人工智能系統(tǒng),必須受制于嚴格的安全和控制標準。
23) Common Good:Superintelligence should only be developed in the service of widely shared ethical ideals,and for the benefit of all humanity rather than one state or organization.
公共利益:超級智能的開發(fā)是為了服務廣泛認可的倫理觀念,并且是為了全人類的利益而不是一個國家和組織的利益。
二、人類的道德和倫理的尊嚴
老子的“道德經(jīng)”和亞里士多德的“尼各馬可倫理學”(EthikaNikomachea)代表了人類對自身的存在狀態(tài)和社會生存方式的深刻的思想,在這種樸素的人性意識中,人總是作為世界中的唯一的自我意識者的無意識者而被意識到的,雖然“人類中心主義”特別是狹隘的“強人類中心主義”遭到過廣泛的討論或批判,但“人是萬物的尺度”(普羅泰戈拉)、“人為自然立法”(康德)這種基于人的價值和地位的統(tǒng)一的樸素觀念始終是人和人類的尊嚴,但這種古老的信念今天已面臨危機。
如果說實證科學研究世界“是什么”和“如何是”,那么,倫理學就研究社會“如何是”和人“應該如何是”,這兩門學問一直是“科學”和“人文”兩大分別領域(所謂的“兩種文化”)中的最具代表性的學科,但從科學研究領域中產(chǎn)生和迅猛發(fā)展的計算機和人工智能、機器人所具有性質(zhì)已經(jīng)不可阻擋地成為了對人類的倫理學的核心理念的侵蝕,機器“具有”人的智能,或機器“具有”人的性質(zhì),似乎不是人的空想,如果說“人”的尊嚴和地位卻被人類社會自身的發(fā)展所動搖,今天一點也不過份,正是這種倫理學的意義上,AI和Robot的倫理學問題成為了今天所有人關注的焦點。
倫理學的核心概念是人的社會行為,倫理行為是就實踐的道德哲學,AI和Robot的倫理學關切實際上具有超越這種人類倫理本質(zhì)的深刻層次:
(一)人(研究、開發(fā)者)是如何將傳統(tǒng)的人的道德和倫理信念貫徹在自己的所研究、制造、開發(fā)的AI和Robot中,使服從甚或具有人的倫理原則;
(二)是人是否有這種超越能力做到這一點?
(三)AI和Robot在支配它們的物理規(guī)律之上有沒有或有何種倫理規(guī)范?更有甚者,比如,所謂的“科幻模式”的超人工智能(Artificial Super-intelligence ASI),可以問這種倫理問題嗎?
在這些復雜、甚至是難以想象的情況下,我們還不得不進一步追問:有沒有機器的道德(moral)不道德(immoral)或非道德(amoral)問題?這是人類的問題還是AI和Robot的問題或是“我們”共同的問題?按照這種方式設想下去,或許有一天機器可能會有模擬人的甚或他們自己的不同于人類自我性質(zhì),甚至有他們的思想家、哲學家,它們是類人的人類或者反過來說,我們只是人類類中的子類?
在我們沒有超越自身作為這種“人類類”甚或是“類生命”的主體之前,我們無法也不能實質(zhì)性地設想這些問題,現(xiàn)在最迫切的是,我們是否有賦予AI和Robot以道德心靈的能力?就象上帝造人時也無法使人具有免除罪惡的天性,我們能有這種似乎是超越上帝的能力的能力嗎?
我們只能在我們已有的人類的倫理學的理念的基石上進行探索,在這個意義上,我們只有人類的倫理學,從這個觀點上看,我們的所有關注、思考和行動都是人類的倫理學。從這樣的意義上看,Beneficial AI不是機器的道德和倫理,而只是人在研究、發(fā)展AI和Robot中的倫理原則,人能否將人的倫理原則賦于機器是一個不確定的問題,今天我們能做的就是堅守我們?nèi)祟惖膫惱淼拙,所以“阿西洛馬人工智能原則”是人的道德呼喚,是人性的憂患意識,在這個意義上“阿西洛馬人工智能原則”是人類尊嚴的體現(xiàn)。
三、人機的倫理關系:為了人的AI(Beneficial AI)
“阿西洛馬人工智能原則”中,人的倫理學精神和原則貫徹始終,我們可以將Beneficial AI解讀為“為了人和人類的AI”,因此“阿西洛馬人工智能原則”是世界劇烈變化中古老的人類倫理學精神的覺醒,是劇烈變化和世界中人為捍衛(wèi)人的地位和尊嚴的一種努力,“阿西洛馬人工智能原則”中主要體現(xiàn)在以下各條中:
第1項“研究目的”確定了人工智能研究的目的是創(chuàng)造服務于人、并為所控的AI和Robot這個原則,這個原則是人機之間的倫理保證,這個保證最先由研究和開發(fā)人員的倫理意識體現(xiàn)和遵守;所以第16項“人類控制”表達了一種深切的期望。
第2項“研究經(jīng)費”中對人類資源、意志、價值體系的前提地位的保守和保護。
第10項“價值歸屬”、第11項“人類價值觀”、進一步提高為機器對人的價值的歸屬是高級人工智能的設計原則;第9項“責任”則將這種人機倫理關系作為責任明確地加在研究人員身上;第12項“個人隱私”和第13項“自由和隱私”體現(xiàn)了人的尊嚴;
第6項“安全性”是為研究工作設定的機器對人的保障的條件,第7項“故障透明性”、第8項“司法透明性”對人現(xiàn)有研究、開發(fā)的工作制度和法制方面的要求。
第14項“分享利益”、第15項“共同繁榮”第17項“非顛覆”、第18項“人工智能軍備競賽”是人類社會的倫理原則在人工智能研究領域中的體現(xiàn)。
上述的這些內(nèi)容都是基于人和人性理解的人機倫理關系,“阿西洛馬人工智能原則”最后一條23條“共公利益”甚至包括了“超級智能”(superintelligence),但這仍是在作為全人類整體利益的考慮,就是為了人類價值和利益的人工智能(beneficial AI),這種把維護人的倫理地位這個前提放在人工智能領域不同層次上多次予以申明,都是基于人的道德和人類尊嚴的樸素性,但機器或人工智能這個在人的發(fā)展中產(chǎn)生的不同于“自然”又不同于人類自身的東西究竟有何種本質(zhì)、有何種倫理地位,仍是一個不確定的問題。
四、不確定的未來
最困惑人的問題是:有沒有高于人的智能的“人工智能”,所謂的“高級人工智能”、“通用人工智能”或“強人工智能”(Artificial General Intelligence ,AGI)就是這種意義所指。“阿西洛馬人工智能原則”第19項“能力警惕”中承認但卻不能確定的困難,換一句話問:在人與人工智能的關系之中,存不存在這種基于我們基本信念的人機之間的倫理關系?一切似乎又回到最古老的哲學問題,人是什么?
迄今為止,人工智能的實體都建立在物理定律的基礎上,物理實體不存在服不服從倫理學原則的問題,但建立在物理實體上的人工智能與建立在生命實體上的人的智能有何本質(zhì)不同,這一直是人類知識理論中最困難的問題,人們總在等待回答,但今天,人工智能的倫理學問題已經(jīng)迫使科學家做出回答了,盡管有了“阿西洛馬人工智能原則”,但這仍只是一個權宜的解決,但,或許,我們永遠只有這種權宜的解決。
迄今為止,哲學家和科學家都不能回答什么是人的“智能”的回題,也不理解智能與意識關系,當然也就不可能清晰地回答究竟什么是人工智能的問題。如果AI和Robot沒有自己的獨立意識,AI就永遠只能是人的意義和價值的附庸,這也包括了人的惡德,所以我們可以看到,科幻電影中的人工智能對人類的犯罪也只不過是對人的罪孽的模仿,如果我們?yōu)槲磥淼臋C器人世界有可能毀滅人類而憂心忡忡的話,不如去檢討為什么人類社會仍然會有這么多的自己造成的不幸。
如果高級人工智能具有不同于人類的“智能”,就意味著具有不同于人類的意義或價值存在,人類如何去“理解”?這使哲學家、人類學家倫理學家面對轟轟烈烈的人工智能大潮只能保持沉默的尷尬。
人類歷史上最初的哲學家也是科學家,古代希臘人可以將科學、哲學、宗教、倫理問題混合在一起討論,宗教具有倫理學的本質(zhì)性,歷史上社會現(xiàn)實中的倫理學問題主要是由宗教承擔的,但宗教不是回答了人的倫理學問題,只是把人的終極的倫理學問題讓渡給神,宗教以從世俗的人向神性的人格過渡為最終目的,因此宗最終還是不能取代以世俗世界為目的倫理學,人類知識的富積和征服改造的野心,已經(jīng)挑戰(zhàn)上帝的底線,威脅人自己存在的尊嚴,“上帝死了”(尼采),“人死了”(福柯),和今天的“人類終結”的猜測,現(xiàn)在已迫使科學家又一次扮演了倫理學家的角色,科學家不能將人機倫理關系交回給上帝,機器沒有原罪,而人具有智能,過去人們可以說:除了上帝的“創(chuàng)造”,人可以“學習’,但現(xiàn)在不能說:“除了人的‘學習’,機器只能‘模仿’”,現(xiàn)在機器也可以“學習”了,“人”還有什么?“理性”自身還有什么?這樣的問題已經(jīng)成為了以確定性和客觀性為傲的科學理性的對自己的無奈諷刺。
五、中國思想的啟示
笛卡兒說:“我思故(則)我在”,這實際上是基于近代以來的科學理性的懷疑、批判精神對世界和人自己的一種科學態(tài)度,即二元論之一的主觀世界對包括自己在內(nèi)的客觀世界的一種主觀態(tài)度而不是一種科學解釋,而且這種主觀的態(tài)度并也不等于“我思”與“我在”二者之間的因果、邏輯、規(guī)律等關系,即使有無數(shù)的物理、生理、心理等相關方面的研究成果,也無法解釋自身的客觀性是如何成為意識的主體性的,因此西方文化不能沒有超驗一元的上帝。在這些之外,除了思想或意識本身,無法外在地去觀察“思想”,我們只能直覺到或意識到“思想”,去思想“思想”。我們雖然沒有類似的難于理解解的關于不可觀察的的“量子態(tài)”的量子力學,但中國哲學或中國思想一直堅持,“思想”對主體的內(nèi)在(內(nèi)“心”)性反思超越性才是無元無級(無極)的“思想”的本質(zhì),只有這種在這個本質(zhì)上,我們才能進入到理解人的“智能”的道路。所以,即使有高級甚或越級的人工智能,也必須在“思想”這樣的自行越超的“行為”中才有在時間中“存在”的意義,中國文化滋育的中國思想具本身就有這種內(nèi)在的時間性的本質(zhì)。
“中國思想一詞指稱中國文化本質(zhì)中具有動力或創(chuàng)造性的核心,思想一詞在這里就是指人的思想觀念的動力或創(chuàng)造性,它是精神活動的實在過程”,“中國思想具有的自身的本體性意義,它不同于對一般的思想觀念的研究,不是研究它所表達的內(nèi)容的特點和性質(zhì),也不是指某種具體思想觀念的產(chǎn)生和發(fā)展的演變,而是指思想自身作為動力性本質(zhì)的本體性存在過程”。
“中國思想是植根于歷史與現(xiàn)實的,歷史使命和現(xiàn)實的責任是儒家文化自覺的生命,正是在這個意義上,中國思想實現(xiàn)了自己的主體”;“中國思想的結果是歸化萬有的和諧統(tǒng)一,作為思想目標它只是一個虛幻圖景。任何將這種目標的固化就是思想的死亡。一與無的學說正是對這種狀況的寫照,老子關于無的學說是思想的極致,合一即是最終的統(tǒng)一,也是統(tǒng)一的開始,作為最終的統(tǒng)一,所有的差別、個性、分裂和沖突將消失,但這不是終極死亡,道的終極統(tǒng)一不是此岸世界的末日,易是自性的重生,一即是易,因此一也是萬化之源的渾沌,為天地母,無中生有,這就是一的超越之道。”“中國思想的本質(zhì)既不能自身形式化,也就得不到對現(xiàn)實世界的最終控制權,它是終極自由的,也是終極無奈的。”“這種命運正也是中國思想自身的困境,中國思想需要自己的肌體,但又不能在其中固化,正如易的形式,它只有在易中才是合的,在合中才是易的。”(周劍銘:論中國思想)
部份參考資料來源:
AAAI 2008-09 Presidential Panel on Long-Term AI Futures
Asilomar Meeting on Long-Term AI Futures
Partnership on Artificial Intelligence to Benefit People and Society
尤瓦爾•赫拉利Yuval Noah Harari,人類簡史,林宏俊譯,中信出版社
周劍銘:現(xiàn)代倫理學與儒家文化——互補的中西文化——現(xiàn)代篇1 網(wǎng)文
周劍銘:“智能”哲學——人與人工智能 網(wǎng)文
核心關注:拓步ERP系統(tǒng)平臺是覆蓋了眾多的業(yè)務領域、行業(yè)應用,蘊涵了豐富的ERP管理思想,集成了ERP軟件業(yè)務管理理念,功能涉及供應鏈、成本、制造、CRM、HR等眾多業(yè)務領域的管理,全面涵蓋了企業(yè)關注ERP管理系統(tǒng)的核心領域,是眾多中小企業(yè)信息化建設首選的ERP管理軟件信賴品牌。
轉載請注明出處:拓步ERP資訊網(wǎng)http://www.ezxoed.cn/
本文標題:智能哲學:人工智能的倫理學問題
本文網(wǎng)址:http://www.ezxoed.cn/html/news/10515320490.html