• <small id="cuxus"></small>
    <u id="cuxus"></u>

  • <b id="cuxus"></b>
  • 推廣 熱搜: 大氣環境  條例  大氣環境質量  大氣污染防治條例  大氣污染防治法  四川省  大氣污染防治  建筑垃圾  生活垃圾  循環經濟 

    人工智能安全問題及其解決進路

       日期:2017-04-18     來源:中國智能制造網    瀏覽:51    評論:0    

      人工智能技術的快速發展引發了人們對其安全問題的普遍擔憂。無論人工智能是否會超越人類智能,研究人工智能的安全問題都是非常必要的。從解決人工智能安全問題的內部進路看,我們至少有倫理設計、限定其應用范圍、自主程度和智能水平等方式;從外部進路看,應該強調科學家的社會責任與國際合作、引導公眾接納人工智能,以及對人工智能進行安全評估與管理等途徑。只有采取切實有效的措施保證人工智能的安全性,才能使其為人類帶來福祉而不是危害。

      2016年3月9日至15日,谷歌人工智能“阿爾法圍棋(AlphaGo)”與韓國職業圍棋高手李世石之間展開了一場“人機大戰”,李世石的落敗使人們再一次為人工智能的強大能力驚嘆不已。由此,也引發了人們對人工智能安全問題的普遍憂慮。人工智能是否會成為人類“最后的發明”?我們如何面對高速發展的人工智能?本文嘗試就研究人工智能安全問題的必要性以及可能的解決途徑進行簡要論述,以期引起更多的關注和更深入的討論。

      一 探究人工智能安全問題的必要性

      1.人工智能超越人類智能的可能性

      毋庸置疑,人類的智能水平從整體上正如許多科幻電影與文學作品中所表現出來的那樣遠遠超越于其他生物智能,正是因為這一點,使得人類成為地球的統治者。因此,我們很自然地得出推論,如果人工智能超越了人類智能,人工智能很可能不再聽從人類的指令,反而會與人類爭奪統治權。那么,人工智能會從整體上超越人類智能嗎?我們可以從多個角度來考察人工智能超越人類智能的可能性問題。雖然目前學界對智能及其實現方式的認識存在許多差異,但這正體現了人類對智能認識的多樣性,是人類實現對智能全面深理解的必經過程,并不意味著人類對智能的全面理解是不可能的。從這個角度看,科學家對人類智能的全面認識與實現,只是程度和時間的問題,而不是可能與不可能的問題。

      已有不少學者從哲學、未來學等角度論證了人工智能發展進步的可能性與可行性。徐英瑾認為,我們可以在維特根斯坦哲學的啟發下,在一種非公理化推理系統的技術平臺上開發出具有不同配置形式的通用智能系統,并使之走向產業化和商業化。被微軟公司創始人比爾·蓋茨譽為“預測人工智能未來最權威的人”的庫茲韋爾(Ray Kurzweil)堅信,人工智能會超越人類智能,而且超越的速度會比人們預想的快得多。他認為,2045年是奇點到達的時期,這將是極具深刻性和分裂性的時間點,非生物智能在這一年將會10億倍于今天所有人類的智慧。雖然庫茲韋爾的觀點受到一些學者的批評,但他的論證并非空穴來風,而且他的著作產生的廣泛影響至少說明他所思考的問題的極端重要性。

      從科學技術史的角度看,許多預言不可能實現的科學技術,后來都變成了現實。比如,一些著名的科學家與工程師曾認為飛機不可能飛上天,讓比空氣重的機械裝置飛起來純屬空想。但是,事實證明他們錯了。因此,當科學家對某些科學技術進行否定性的預測時,他們更應該謹慎行事。當然,要對某一項科學技術的發展及應用作出精確預言幾乎是不可能的。但是,從相關技術的發展進步以及目前世界各國對人工智能重視的程度來看,人工智能在未來一段時期內極可能會快速地發展。計算機的計算速度、存儲容量的快速發展是有目共睹的,近些年發展起來的深度學習、云計算、超算、大數據技術等也會推動人工智能的進步。顯然,谷歌阿爾法圍棋的勝利使得人們普遍相信人工智能必將取得更快的發展。據報道,在阿爾法圍棋與李世石之間的“人機大戰”之后不久,韓國政府宣布一項總投資約8.4億美元的專項計劃,用于加快人工智能產業的發展。世界上許多國家自然都不甘落后,希望搶占人工智能研發高地,科研經費與人員投入增長。從這個角度看,想要阻止人工智能的發展幾乎是不可能的。

      2.人工智能產生危害的可能性與后果的嚴重性

      鑒于人工智能發展史上經歷的若干曲折和發展現狀的理解,目前大多數人工智能專家對人工智能能否(至少是在短時期內)超越人類智能持謹慎甚至否定態度。日本人工智能專家松尾豐認為:“人工智能征服人類、人工智能制造出人工智能——這種可能性在現階段看來并不存在,只不過是憑空臆想而已。”在他看來,我們沒有必要對人工智能征服人類感到憂心忡忡。也有一些科學家對人工智能的未來表示擔憂。比如,2014年底,英國廣播公司報道,著名理論物理學家霍金表示:“人工智能的全面發展可能導致人類的滅絕。”霍金擔心,人工智能也許會在將來的某一天趕上甚至超過人類。比爾·蓋茨等著名人士也有類似的憂慮。

      不過,即使人工智能整體上并未超過人類智能,但不加控制的片面的人工智能也可能給人類帶來危害。就像波斯特洛姆(Nick Bostrom)提出的曲別針思想實驗那樣:如果一種人工智能系統被設置為使曲別針的產量最大化,那么,這種人工智能系統很可能具有無法滿足的胃口,不斷地獲取物質和能力,走上首先將地球,然后將整個可觀察宇宙的大部分都變成曲別針的道路。另外,互聯網、物聯網技術使得人工智能的安全問題更加復雜化。一方面,網絡資源使得人工智能自身發展進化和可供使用的資源趨于無窮;另一方面,互(物)聯網技術使黑客、病毒等人為因素對人工智能產品構成巨大威脅。即使人工智能尚不如人類智能,但網絡技術極可能使我們對人工智能的依賴演變成災難。比如,如果黑客控制了人們家里的兒童看護機器人、助老機器人或其他智能系統等,由此導致的后果將不堪設想。

      從近幾十年來非常流行的風險社會理論的角度看,研究人工智能安全問題的必要性是不言而喻的。作為風險社會理論代表人物之一的貝克(Ulrich Beck)認為:“風險概念表明人們創造了一種文明,以便使自己的決定將會造成的不可預見的后果具備可預見性,從而控制不可控制的事情,通過有意采取的預防性行動及相應的制度化的措施戰勝種種副作用。”雖然風險社會研究的不同流派對風險的界定及防范等基本問題有各自不同的看法,但對高科技會導致高風險的認識是高度一致的。因此,風險社會研究的理論成果對人工智能的安全問題研究頗有借鑒與啟發意義。

      總的來說,鑒于人工智能超越人類智能的可能性,以及人工智能產生危害的可能性與后果的嚴重性,加上科學技術本身內在的不確定性,這些因素足以構成我們研究人工智能安全問題的必要性。事實上,人文社會科學研究本來就應該超越自然科學的發展,就像我們不能等克隆人產生之后再來研究克隆人的倫理與社會問題一樣,我們必須在人工智能產生安全問題之前就做好充分的理論準備。

      二 解決人工智能安全問題的內部進路

      一般說來,技術導致的負面影響(包括安全問題)主要是由技術本身或人為因素造成的,相應的解決途徑也可以從這兩方面入手。因此,我們可以大致把解決人工智能安全問題的方法分為內部和外部兩種進路。從內部進路看,我們至少有以下幾種解決途徑。

      第一,倫理設計。對人工智能產品進行倫理設計是解決其安全問題的基本進路之一。近十多年來,機器人倫理問題得到越來越多西方學者的關注。機器人倫理研究的主要目標,就是讓機器人在與人類互動的過程中,具有一定的道德判斷與行為能力,從而使機器人的所作所為符合人們預設的道德準則。從理論上看,根據人類預設的道德原則進行道德決策的機器人可以成為只做好事的“道德楷模”,而且在一定程度上還可以避免人們對其的不當使用、惡意利用或濫用。

      美國學者瓦拉赫(Wendell Wallach)和艾倫(Colin Allen)認為,將來人工智能系統必定會獨立于人類的監管,自主作出決定,他們把能夠作出道德抉擇的人工智能系統稱之為人工道德行為體(artificial moral agents,簡稱AMAs)。瓦拉赫和艾倫相信,在機器人身上實現人工道德,使機器成為道德行為主體是可能的。他們為人工智能的道德抉擇設計了三種實現模式:“自上而下的進路”、“自下而上的進路”,以及“混合進路”。自上而下的進路是指選擇一套可以轉化為算法的道德準則作為機器行為的指導原則;自下而上的進路類似于人類的道德發展模式,通過試錯法培養道德判斷能力。不過,這兩種方式均有一定的局限性。比如,第一種進路把一套明確的規則賦予機器可能是不合理的,同一種原理在不同的情況下可能會導致不同的相互矛盾的決定;后一種進路要求機器能夠自我發展進化,而人工智能系統的學習與進化能力的提高將會是一個比較緩慢的過程。混合進路在一定程度上,可追溯到亞里斯多德的美德倫理學,它把兩種進路統一了起來:一方面,美德本身可以清楚地表述出來;另一方面,它們的習得又是典型的自下而上的過程。

      瓦拉赫和艾倫為我們描述了使機器人成為“道德楷模”的可能性。如果他們以及其他類似的方案能夠得以實現,人工智能系統就可以作出人類認為正確的道德決策。在人類的道德活動中,非理性因素(比如情感)也會起到關鍵性作用,瓦拉赫和艾倫也討論了把理性和非理性整合到人工智能系統中的可能性。不過,筆者認為,為了保證人工智能系統的安全性,我們可能希望人工智能系統的道德判斷更為理性和客觀,并不需要增加過多的非理性因素。

      雖然要真正實現對人工智能的倫理設計還有許多具體的工作要做,但是從機器人倫理研究的勃興及取得的初步成果來看,在人工智能產品中實現人工道德完全是可能的。人們也更容易相信,一個能夠根據我們的預設作出合理的道德判斷和行為的人工智能系統,對我們來說才是真正安全可靠的。

      第二,應用范圍限定。為保證人類社會的和諧穩定,人們通常對一些發展尚不成熟、容易引起安全問題與社會爭議的技術的應用范圍進行限定。自英國科學家首次成功克隆羊之后,科學家們又克隆出了牛、豬、狗等多種動物。但是,能否將克隆技術用于克隆人,是一個非常有爭議的話題。一方面,克隆人會引發許多尖銳的倫理問題;另一方面,克隆技術還不夠完善和成熟。許多學者也認為,即使克隆技術發展得非常成熟了,我們也不能克隆人。因此,目前許多國家都明確立法禁止克隆人。

      目前,人工智能的優勢主要在于規則非常明確的領域,比如各種棋類競賽。阿爾法圍棋的勝利,說明人工智能擁有的超算能力和深度學習能力已經完全可以勝任對極大信息量的處理。在這方面,人類智能已經遠遠落后于人工智能。但是,雖然阿爾法圍棋擁有強大的學習能力,但它卻只能用于學習圍棋,不能觸類旁通,而人類很容易將不同領域的學習經驗進行自由轉換。雖然人工智能的學習與轉換能力被認為是一種重要缺陷,但這正好是人工智能安全性的重要保障。如果人類不能確保很好地控制人工智能,那么將人工智能的功能控制在比較單一的情況下是明智的。也就是說,把針對棋類競賽、專家系統、無人駕駛等開發的專業人工智能的學習應用能力就限定在自身領域的范圍內,一方面可以保證人工智能在各自范圍內達到很高的水平,另一方面也可以避免人工智能過于強大而對人類造成威脅。

      從公眾的角度看,人們普遍希望把人工智能作為一種重要的工具,特別是在某些方面彌補人類智能的不足,而不希望把人工智能發展為整體上與人類接近甚至比人類更高級的智能。在研發人工智能的整個過程中,這種定位應該得以明確,而限定其應用范圍可能是使這種定位得以貫徹的根本途徑之一。

      第三,限制人工智能的自主程度和智能水平,建立人工智能安全標準與規范。人工智能安全性問題的根源,并不在于它能否真正超越人類,而在于它是否是一種安全可靠的工具,人類是否對其擁有充分的控制權。就像高鐵、飛機等交通工具那樣,雖然它們的速度遠遠超過了人類,但人類擁有絕對控制權,所以人們相信它們是安全的。為了實現對其控制的目標,首先需要對人工智能的自主程度進行限定。雖然人工智能發展迅速,但人類智能也有自己的優勢,比如目前人工智能的認知能力還遠不如人類智能。我們可以充分發揮人工智能在信息存儲、處理等方面的優勢,讓它在一些重大事件上做人類的高級智囊,但最終的決定權仍在人類。比如,當我們把人工智能應用于軍事領域時,我們可以利用人工智能來評估危險程度,以及可以采取的措施,但是否應該發動戰爭、如何作戰等重大決策,還是需要掌握在人類自己手里。正如霍金斯(Jeff Hawkins)所說的那樣:“對于智能機器我們也要謹慎,不要太過于依賴它們。”

      與限定人工智能的自主程度類似,我們也需要對人工智能的智能水平進行某種程度的限定。雖然庫茲韋爾的奇點理論受到了一些學者的批評,但從長遠來看,人工智能是有可能全面超越人類智能的。從人工智能的發展歷程來看,盡管它的發展并非一帆風順,但短短六十年取得的巨大進步讓我們完全有理由相信將來它會取得更大的突破。從世界各國對人工智能高度重視的現實情況來看,想要阻止人工智能的發展步伐是不現實的,但為了安全起見,限定人工智能的智能程度卻是完全可以做到的。

      我們應當成立“人工智能安全工程”學科或方向,建立人工智能安全標準與規范,確保人工智能不能自我復制,以及在人工智能出現錯誤時能夠有相應的保護措施以保證安全。人們對人工智能安全問題的擔憂的另一主要根源在于,人工智能的復制能力遠勝于人類的繁衍速度,如果人工智能不斷地復制自身,人類根本無法與其抗衡。因此,在人工智能的安全標準中,對人工智能的復制權必須掌握在人類手中。同時,建立人工智能安全控制許可制度,只有人工智能產品達到安全標準,才允許進行商業推廣和使用。

      從源頭上看,人工智能安全問題是由人工智能技術造成的,可見,科學技術研究并非無禁區。技術的發展成熟固然是解決安全問題的關鍵因素,但任何技術都有不確定性,且科技產生的問題通常不能僅僅依靠科技本身得到圓滿解決。因此,解決人工智能安全問題還需要充分發揮外部進路的重要作用。

      三 解決人工智能安全問題的外部進路

      第一,科學家的社會責任與國際合作。跟其他高新技術一樣,人工智能是非常專門化的科技知識。人工智能科學家與工程師是人工智能技術的研發者,他們是化解安全問題的主體,應該從“消極責任”和“積極責任”兩個方面強化人工智能專家的專業責任。積極責任強調人工智能專家應該做什么,如何通過技術手段來保證人工智能的安全;消極責任則關注當人工智能出現負面影響或嚴重后果時,應該由誰來承擔相應的責任。從積極責任的角度看,專家們在研發時不能僅僅追求經濟利益,或者一味迎合客戶需要。從消極責任的角度看,當人工智能系統出現錯誤時,專家應該承擔相應的責任,而不是把責任歸咎于人工智能本身的不確定性與復雜性。從某種意義上說,解決人工智能安全問題的首要因素并不在于人工智能技術本身,而在于人工智能專家的責任心。據報道,谷歌集團專門設立了“人工智能研究倫理委員會”,日本人工智能學會內部也設置了倫理委員會,旨在強調科學家的社會責任以及指導科學家合理研發人工智能。

      同時,人工智能安全問題不僅僅是一個地區或組織的問題,各國政府和國際組織應該是協調人工智能安全問題的組織機構。目前,世界各國競相加大對人工智能的投入力度,這當然無可厚非,但同時也應該劃撥專門經費用于研究人工智能的安全問題,政府經費和人力資源的投入是該問題得以解決的關鍵。另外,國際合作在解決人工智能安全問題中將起到舉足輕重的作用。前述提到的人工智能的發展與應用限度、安全標準與規范等問題,只有落實到具體的制度上才有意義,而只有國際組織才能實現這樣的目標。從倫理責任的角度看,應當明確科學家共同體、政府與國際組織各自的責任,避免出現所謂“有組織的不負責任”現象。近些年來頗為流行的“全球治理”理論研究與實踐探索,為在世界范圍內就人工智能安全問題進行國際合作提供了很好的平臺與基礎。

      第二,公眾的接納及其觀念的調整。人工智能安全問題,就客觀的方面而言,主要指人工智能技術本身的安全,主觀的方面則來自于人們(特別是公眾)對人工智能安全性的直覺、主觀感受或體驗。隨著信息技術的快速發展,人們對科技風險的感知能力與傳播速度得到很大提升。與人工智能專家對目前人工智能技術普遍樂觀的態度相反的是,公眾和人文學者大多對人工智能抱有一定的疑慮。

      毫無疑問,我們應該把公眾對人工智能的擔憂與恐懼納入人工智能安全問題考察的范圍,盡可能通過對話、討論等方式進行解決或緩解。人工智能產品如果要走向商業化,最終需要公眾的理解和接納。科學家有責任也有義務向公眾開展解釋工作。雖然人工智能專家普遍認為公眾不需要為人工智能的安全感到擔憂,但他們一般也不反對將人工智能的技術細節向社會公開,并向公眾進行詳細解釋與說明。當然,人工智能專家把技術性細節向公眾解釋清楚也并不是那么容易的,因為一般公眾對技術性語言的理解存在一定困難。如何讓技術專家在與公眾對話的過程中,能夠使公眾真正明白人工智能的相關問題,從而建立起相互信任的關系,這需要技術專家們付出大量的努力。

      從科學家的角度看,當前人工智能的安全性問題并不是技術問題,而是公眾對人工智能的信任與否或信任程度的問題。一般來說,公眾對人工智能研發過程參與得越早,參與過程越長,獲取的信息越多,雙方的溝通就應該越有效,相互之間的信任關系也就越容易形成。目前,這方面的交流與溝通機制尚未建立起來,相應的工作需要得到人工智能專家的關注與重視。

      現代科技及其應用對人類社會的改變通常是難以預料的,我們只能參考類似的科技,以及充分發揮我們的想象力得以窺見端倪。學者們可以通過多種途徑向公眾說明智能社會的特點與生活方式,引導公眾調整思想觀念。21世紀是智能時代,人與智能產品的互動將會常態化,將來人類對人工智能的依賴,很可能就像現在我們對手機、電腦的依賴一樣,只能選擇適應。

      第三,人工智能安全評估與管理。隨著人工智能發展水平的日益提高,對其可能產生的危害及其程度進行評估、對人工智能的研發過程與產品使用進行安全管理的重要性日益突顯出來。安全評價“主要研究、處理那些還沒有發生,但有可能發生的事件,并把這種可能性具體化為一個數量指標,計算事故發生的概率,劃分危險等級,制定安全標準和對策措施,并進行綜合比較和評價,從中選擇最佳的方案,預防事故的發生”。可見,對人工智能系統的安全評估,可以使技術人員更全面地認識其研發對象的危險因素及危害程度,制定相應的解決措施,從而設計出更安全的人工智能系統。在工程技術中,安全評估是預防事故發生的有效措施,是安全生產管理的一個重要組成部分,在人工智能系統中引入安全評估是必然之舉。同時,由于人工智能產品出現安全問題之前可能沒有任何征兆,人們也普遍認為高科技產品的安全問題導致的后果是不可逆的,從而可能會對相應的安全問題的嚴重性作出偏高的主觀評價。只有專業人員進行的安全評估,才可能緩解甚至消除公眾的憂慮。

      從安全管理的角度看,福克斯(John Fox)提出的“危險的動態管理”對于提高人工智能系統的安全性具有啟發意義。福克斯認為,為了提高醫療領域人工智能系統的安全性,靜態的軟件設計與驗證和危險的動態管理兩方面應該是互補的。雖然傳統的安全工程在人工智能系統的設計中可以發揮重要作用,但即使最優秀的管理程序在復雜環境中也不可能保證復雜系統的可靠性與安全性,因此智能系統在運作過程中應該具備監控危險的能力,當危險發生時可以進行相應的處理。我們可以把能夠識別與管理潛在危險的智能系統看作獨立行為主體(independent agent),與主系統同時運行。

      福克斯的主張實質是讓專門的人工智能安全管理系統來管理人工智能,這種思路對于解決人工智能的安全問題可能具有普遍意義。因為人工智能的部分能力已經超越了人類,如果完全讓人類來進行安全管理,人類可能力不從心,更好的辦法可能是交給專門的人工智能管理系統。由此,解決人工智能安全問題在一定程度上就轉變成如何保證人工智能安全管理系統的可靠性問題。這種安全管理模式是否可行還需要詳細論證,但至少提供了一種關于人工智能安全管理的解決途徑。

      人工智能在帶給人類更多福祉的同時,也可能產生某些安全隱患。在逐漸向我們走來的“智能社會”里,人工智能安全問題不再是屬于未來學的問題,而應該是當前一個極為重要的哲學和科學技術問題。本文關于人工智能安全問題的論述是相當粗淺的,但這并不妨礙所討論問題的重要性。只有真正重視并解決人工智能的安全問題,人工智能才能給人類帶來光明而不是黑暗的未來。

     
    標簽: 人工智能
    版權聲明: 本網注明"來源:中國節能在線網"字樣的文字、圖片內容,版權均屬中國節能在線網所有,如若轉載,請注明來源。同時本網轉載并注明自其它來源的內容,目的在于傳遞更多信息,并不代表本網贊同其觀點,如若不想被轉載,請聯系我們刪除,謝謝!
    關注中國節能在線網,把握真實信息,傳遞熱點資訊。
     
    更多>同類資訊
    0相關評論

    推薦圖文
    推薦資訊
    點擊排行
     
    国产精品视频在线网站