一级影院/中文字幕99/91青青在线视频/精品国产高清毛片

您好,請選擇問題分類進行咨詢。
聯系電話
010-64938082
首頁 > 千秋書院 > 中外書訊
瀏覽:309次發布時間 : 2023-11-21人工智能發展所帶來的變革與反思



2017年底,谷歌旗下的DeepMind公司開發的人工智能程序AlphaZero擊敗了當時世界上最強大的國際象棋程序Stockfish,在100場對弈中,AlphaZero的戰績是28勝72平0負。在2018年與Stockfish進行的1000場對弈中,AlphaZero的戰績是155勝6負839平;可以說,AlphaZero獲得了壓倒性的勝利。AlphaZero的勝利之所以引起了廣泛關注,是因為程序構建者只給它提供了一套國際象棋規則,并指示它基于規則制定戰略,從而最大限度地提高自己的勝負比。僅僅經過4個小時的自我對弈后,AlphaZero便成了世界上最強大的國際象棋程序。到目前為止,還沒有任何人或其他程序能夠戰勝它。


AlphaZero與之前的其他國際象棋程序存在一個顯著的差別,即之前的程序需要人類棋手先構思棋路,然后程序按照這些棋路進行對弈,簡單來說,這些程序依賴于人類的經驗、知識和戰略。AlphaZero則完全不同,它的走法并非源自人類的指導,而且在許多情況下,很多走法是人類根本未曾考慮過的。國際象棋大師加里·卡斯帕羅夫在觀察和分析了AlphaZero的棋局后稱:“AlphaZero徹底動搖了國際象棋的根基。”


2022年末,由OpenAI開發的自然語言處理工具ChatGPT橫空出世,這個工具能夠根據人類提供的簡單指示而生成非常專業的文本,一些文本的質量顯然超出了某個人甚至某些人共同能夠達到的水平,這激發了社會各界對于人工智能的極大興趣,支持者看到了人工智能有利的一面,反對者則擔憂人工智能的發展會對現有的社會結構產生嚴重沖擊,視其如洪水猛獸。


毋庸置疑的是,我們已經進入了人工智能時代,無論喜歡與否,人工智能已經滲透到我們生活和工作中的方方面面,小到我們日常身處其中的各種算法,大到企業和國家的發展與競爭,人工智能都在發揮作用,而且會發揮越來越大的作用。更重要的是,人工智能與之前的技術存在很大不同,其發展將會在很大程度上重塑人類社會。


由美國前國務卿亨利·基辛格、谷歌前CEO、執行董事長埃里克·施密特和麻省理工學院蘇世民計算機學院院長丹尼爾·胡騰洛赫爾合著的《人工智能時代與人類未來》一書從非技術角度探討了人工智能對人類社會可能產生的影響。正如作者在前言中所說:“在本書中,我們既不褒揚人工智能,也不試圖去貶低它。因為無論你怎樣看待人工智能,它都已變得無所不在。我們試圖去做的,是在人工智能帶來的影響尚在人類理解范圍之內時,對這種影響加以考量。”這是一本在思想層面探討人工智能的書,三位作者在書中探析了人類與人工智能的關系;人工智能的出現和演化將如何影響人類的感知、認知和互動;人工智能又將會對我們的文化、人性觀念、歷史產生什么影響,等等。在人工智能快速發展的當下,該書有助于我們從更高的層面來審視人工智能的善惡是非,盡量避免出現“不識廬山真面目,只緣身在此山中”的情況。

人工智能是一種與眾不同的技術


技術是人類社會進步的重要推動力,正是技術的持續發展才塑造了今天的世界。就如作者在書中所指出的,縱觀歷史人類并非沒有經歷過技術變革;然而,從根本上改變我們這個社會的社會架構和政治架構的技術卻屈指可數。在人類發展的歷史進程中,偶爾會經歷非常大的技術變革,但過往的這些技術變革有一個共同特點,即都處于人類的控制之下,并且能夠被人類所很好地理解。工業革命是技術發展的一個分水嶺,工業革命以來出現的各項技術更多的是賦能型的技術,也就是說新技術的出現擴展了人類可以觸及的邊界,提高了生產效率,各種技術完全在人類的指示下按照特定的規則運行,技術本身基本上沒有能動性。人工智能則明顯不同,雖然它是人類創造出來的,但它具有較強的能動性,它的很多行為和做法并不被人類所理解,或者說完全超出了人類所能夠理解的范圍。AlphaZero和ChatGPT就是很好的例子。作者在書中還提到了另外一個例子,麻省理工學院的研究人員利用人工智能來發現一種新的抗生素,這種抗生素能夠滅殺此前對所有已知抗生素都有耐藥性的細菌菌株。這個項目的負責人表示,通過傳統方法發現抗生素的成本太高,而通過訓練一個軟件程序來識別已被證明能有效抗菌的分子結構模式,識別過程就會變得高效和經濟得多。在這個過程中,人工智能可以識別出那些人類察覺不到,甚至可能超越人類描述的分子關系。


幾千年來,人類一直以探索現實和求知為己任,一直希望通過對現實世界和自然規律的認識來更好地獲得掌控感。人們認為,只要勤奮和專注,運用人類的理性來處理問題,就能產生可衡量的結果。但必須承認的是,至少到現在為止,人類對于我們生活的世界以及更廣闊空間的認識還是非常有限的,對于很多問題和現象,要么認識不清,要么還根本無法理解。人工智能的出現則可能在一定程度上改變這種現象,它有可能會觸及與人類所接觸的迥然不同的現實層面。換句話說,人工智能可能會突破人類理性的限制,拓寬人類的視野,更深入地觸及事物的本質。


作者在書中指出,人類身份可能會繼續停留在“生命智能”的頂峰,但人類理性將不再被視為致力于理解現實的智能的全部;人工智能賦能的技術將成為人類感知和處理信息的永久伴侶,無論我們視其為工具、伴侶還是對手,它都會改變我們作為理性生物的經驗,并永久地改變我們與現實的關系。

人工智能與人類認識世界的關系


柏拉圖在《理想國》中談到了著名的“洞穴之喻”,該寓言以蘇格拉底和格勞孔之間的對話形式展開,將人類比做一群被鎖鏈束縛在洞穴里的囚徒,囚徒們看到從陽光下的洞口投射在洞壁上的影子,便相信那是所謂的真實。蘇格拉底認為,哲學家就如同一個掙脫束縛、沿著坡路走出洞穴,在陽光下感知真實世界的囚徒。


人們一直試圖全面理解我們的經歷和生活環境的各個方面。每個社會都在以自己的方式探究現實的本質:如何理解現實,如何預測現實,如何塑造現實,又如何調和現實。在試圖解決這些問題的過程中,每個社會都找到了屬于自己的一套適應世界的方法,這些適應的核心是有關人類心智與現實之間關系的概念,即人類認識周圍環境的能力。


歷史之中,宗教、政治等都曾作為解釋現實世界的權威,與權威相悖的觀點(即使是正確的)則被視為異端,實際上此時就出現了話語權壟斷。例如,當伽利略等早期現代思想家和科學家開始直接探索世界,并根據科學觀察改變人們對世界的解釋時,便因為膽敢忽略作為中介的神學而受到懲罰和迫害。近代以來,隨著數學、天文學和自然科學的發展,人們逐漸以自身的理性和心智來認識和感知現實世界。科學家們能夠基于個人及同行的觀察進行迭代式的探究:當一個理論或預測可以被經驗驗證時,新的事實就會被揭示出來,而這又可以作為認識其他問題的出發點。


總的來看,人類對于依靠自己的理性來認識世界越來越自信,笛卡爾的格言“我思故我在”將理性思維奉為人類的決定性能力,并宣稱它具有歷史中心地位。但人類的理性和心智是存在局限性的,借用《莊子·養生主》里的一句話,“吾理性也有涯,而知也無涯”,對于客觀現實和事物本質的認識,每一代人都只能做一些邊際貢獻。人工智能則可能會以機器智能的形式極大地拓展人類理性的邊界,揭示那些以往我們無法察覺但可能至關重要的現實層面,在一些情況下,人工智能將以不同于人類的邏輯形式提出新的見解和發現。另外,非常有可能的情況是,人工智能會使人類對現實世界和事物本質的認識出現跳躍式發展。這就提出了這樣一個問題:如果人工智能會“思考”,或者近似于思考,那么“我們”又是誰?

人工智能與人類的關系


人工智能正日益被賦予以前只能由人類心智完成或嘗試的任務,隨著人工智能不斷執行這些任務,產生接近甚至超越人類智能所能實現的結果,它挑戰了人何以為人的決定性屬性。作者在書中還提到了這樣一個例子,2016年,DeepMind的分支機構DeepMindAp-plied開發了一種人工智能來優化谷歌溫度敏感數據中心的冷卻操作,盡管最優秀的工程師已經在一定程度上解決了這個問題,但人工智能程序進一步優化了冷卻操作,能耗又降低了40%。這就提出了如下的問題:當人工智能比我們人類做得更好,從而導致我們不再親自探索和塑造現實,而是將人工智能作為我們感知和思想的輔助工具時,我們將如何看待自己以及我們在世界上的角色,我們將如何看待人類與人工智能的關系。作者指出,人工智能有望在人類體驗的所有領域帶來變革,但變革的核心最終將發生在哲學層面,即改變人類理解現實的方式以及我們在其中所扮演的角色。


在一些關鍵領域,當人工智能能夠實現比人類理性所能達到更好的結果時,固執地對此視而不見無異于掩耳盜鈴,“盧德主義”并不是應對技術變革的合理方式。我們會認識并接受這樣一個結果,即人類的理性并不是認識或駕馭現實的唯一方式,或許也不是最先進的方式。人工智能的出現和發展將使人類迎來一個以三種主要方式做出決策的世界:一是由人類做出決策;二是由機器做出決策;三是由人機合作做出決策。而且,人工智能不僅僅是一種被動的工具,而是上升到人類伙伴的層面。但需要注意的一點是,人類與人工智能并不是完全對等的,歸根結底,人工智能是由人類構建的,也是由人類指揮的,只不過人工智能可以在一定程度上發揮能動性,而不僅僅是完全被動地聽從人類的指揮。


在特定領域,人類可能會對人工智能言聽計從,更喜歡人工智能的數據處理過程,而非受人類思維局限的限制。例如,在科學研究方面,人工智能能夠突破人類理性的局限,在這些領域充分發揮人工智能的作用是有益的,也是應該的。但在一些涉及心理、情感、道德等人類特有的領域,人工智能則需要在人類的控制下發揮作用。如果完全不顧及人類理智、情感和道德,任由人工智能自主行動,那么人類社會將會發生翻天覆地的變化。理智、道德、情感是無形的,但正是這些無形的東西使人類社會充滿了溫情,道德的淪陷必然造成整個社會價值觀的混亂以及底線的缺失,而一個價值觀混亂、沒有底線的社會必定是一片狼藉的,其中的每一個人都將付出代價。

人工智能與國家安全的關系


自有記載的人類歷史起,安全始終是一個有組織的社會追求的最低目標。不同文化的價值觀念各異,不同政治單元的利益和渴求相殊,但無論是獨立自保還是共同御敵,任何不能保證自己安全的社會都無法避免覆亡的命運。因此,多數社會都會付出大量的資金和精力來構筑自己的安全網,在此過程中,大量的軍事研發活動所產生的新技術甚至可以用于經濟領域,從而提高了勞動生產率,促進了經濟增長。


作者在書中指出,傳統上,有三個特性促成了軍事和民用領域的技術分野:技術差異、集中控制和影響規模。所謂技術差異是指專門軍用或民用的技術是有很大差異的;集中控制則是指可以輕易被政府管控;影響規模則是指一種技術的破壞性潛力。迄今為止,幾乎找不到某種技術同時具備軍民兩用、易于傳播和具有巨大的潛在破壞性這三個特征。以核技術為例,核能可以軍民兩用,如果不正確使用破壞性巨大,但核技術非常復雜,這就使得政府可以相對集中地控制核技術。人工智能的出現打破這種狀況,很明顯,人工智能可以軍民兩用,也很容易傳播,同時,如果不審慎使用,也會產生非常大的破壞性。


在傳統的沖突中,對手的心理是戰略行動瞄準的關鍵點,心理博弈是某些戰略的根本。但算法則只知道指令和目標,卻不知士氣和心理為何物。人工智能可能是現代國家之間的戰略競合更加復雜化,即使各國不廣泛部署人工智能類自主武器,但人工智能仍有可能賦能常規武器、核武器和網絡能力,從而使對手之間的安全關系更加難以預測和維護。人工智能可能會識別出對手甚至都沒有計劃或注意到的行為模式,然后給出相應的反擊方法。對于一種能感知到人類可能無法感知或無法那么快感知的環境層面,而且在某些情況下能通過超過人類思維速度或思維廣度的過程進行學習和改變的事物,我們又如何去制定一項有針對性的進攻或防御戰略呢?由于人工智能具有適應其所遇現象的潛力,當兩個人工智能武器系統被用于彼此對抗時,雙方都很難準確理解最終可能產生的結果和影響。


國際體系的矛盾之處在于,每個大國都被驅使采取行動,也必須采取行動,從而最大限度地保障自己的安全。然而,為了避免危機接踵而至,每個國家都必須對維持普遍和平具有一定的責任感。這個過程涉及對限制的認識。為了防止人工智能在國家之間的競爭過程中產生嚴重的后果,各國都需要克服,或者至少遏制完全自動化的現象,必須防止運行速度比人類決策者更快的人工智能做出一些具有戰略后果、不可挽回的行為。


人工智能帶來的挑戰


任何事物都具有兩面性,人工智能在帶來好處的同時,也提出了一些新的挑戰有待解決。作者在書中提到了以下幾方面需要特別關注的問題:


人工智能帶來的挑戰之一是,具備了創造人工智能所需的技能和資源的人并非必然具有理解其更廣泛內涵的哲學視角。許多人工智能的創造者主要關注的是他們試圖實現的應用和想要解決的問題,他們可能不會停下來考慮這個解決方案是否會產生一場歷史性革命,或者他們的技術將如何影響不同的人群。例如,如果人工智能有效地解決了一個問題,但給其他的某一群體帶來了非常大的負面影響(如導致其失業),那么綜合來看,這個結果是可取的嗎?這就涉及到價值判斷的問題。


人工智能可能會加速人類理性消解的勢頭:社交媒體減少了反思的空間,在線搜索削弱了概念化的動力,人工智能可以更好地完成任務降低了人類深入思考的動力,等等。人工智能出現之前的算法就擅長向人類傳遞“令人沉迷”的內容,人工智能則更精于此道。人工智能影響人類思想的能力與日俱增;相反,人類在理解信息和認識現實方面的作用被削弱了。且不論更高級的人工智能如何改變人類社會,已經出現很久并且在我們日常工作生活中發揮了非常重要作用的搜索引擎都在很大程度上壓縮了人類思考的空間。搜索引擎帶來了極大的便利,這是有利的一面,但也有不利的一面,遇到問題時我們首先想到的是搜索一下,思考的過程被省略和代替了,而恰恰是這個思考的過程才能使我們對一些問題的認識更加深化。又如,數據算法所構造的“信息繭房”將我們桎梏在自己感興趣的內容之中,有些時候我們甚至樂此不疲、難以自拔,這難免會使我們的認知偏狹、孤陋,只見樹木,不見森林,甚至所見的樹木也不是真實的。


人工智能無法感受到道德或哲學沖動,不能像人類一樣考慮情境或進行反思,也沒有憐憫和同情;另外一方面,人工智能則可能會有歧視和偏見,這就需要特別關注它所帶來的挑戰。人工智能只是運用人類可能無法實現的方法產生特定的結果,而不管這個結果從人類的角度來看是平庸還是深刻,是善還是惡。對人工智能的目標和授權都需要謹慎地設計,尤其是在其決策可能致命的領域,我們既不應將人工智能視為自動運作、無需照管的存在,也不應允許其在無人監督、監視或直接控制的情況下采取不可撤銷的行動。曼哈頓計劃的技術負責人羅伯特·奧本海默后來對軍方鼓吹核戰爭提出了批評:“如果一個文明一直把倫理道德視為人類生活的核心,但它對所有人都可能遭屠戮的前景緘口不提,只允許討論如何克敵制勝,我們又該如何看待這樣的文明?”例如,最近北京大學、倫敦國王學院和倫敦大學的聯合研究小組針對汽車自動駕駛系統進行了一項研究,通過檢驗市面上車企常規使用的8種行人專用探測系統,結果顯示,自動駕駛系統對于深膚色的人群和兒童檢測的準確率大幅下降,這意味著這兩個人群在自動駕駛汽車附近更容易遭遇危險。研究團隊表示,通過這個研究結果,希望技術人員在開發汽車自動駕駛系統時考慮更多的場景和多樣性,避免因考慮不周而出現偏見和歧視。


人工智能的強大還可能使人類生出盲目崇拜之感。作者在書中指出,面對非專業人士無法理解的技術,一些人可能會將人工智能的決策視為近乎天意的判斷。這種宗教式的沖動雖屬誤解,但并非全無道理。如果一種人類無法理解或控制的智能,能夠給出十分靈驗又透著幾分神異的結論,在這樣一個世界中,遵從這種智能的判斷難道是愚蠢的嗎?在這種邏輯的推動下,世界可能會隨之“復魅”,人工智能則會因其發布的“神諭”而使一些人對其深信不疑,言聽計從。特別是通用人工智能(AGI),一種能夠像人類一樣處理各種任務的智能系統,可能會被不少人奉若神明。


當人們經歷新事件、發現新事物,或是遭遇其他文化,便會催生思想革命,一個新時代也會應運而生。我們已經步入了人工智能時代的大門,人工智能技術正在如火如荼的發展,其積極和消極作用正在逐漸顯現,到目前為止我們還無法清晰地預測其發展路徑和全部影響。但由于人工智能與以往的技術變革存在很大差異,其具有較大的能動性,有很多結果完全超出人類思維可能觸及的邊界,甚至不受人類的控制,因此有必要認真考慮人工智能對人類社會所帶來的革命性影響。正如作者所說的,要在人工智能帶來的影響尚在人類理解范圍之內時,對其進行認真審視和考量。


人工智能革命正在成為新一輪科技變革和產業轉型的核心,不抓住這個技術革新的機遇,必將在后期的國際競爭中處于劣勢地位。黨的二十大報告強調,“推動戰略性新興產業融合集群發展,構建新一代信息技術、人工智能、生物技術、新能源、新材料、高端裝備、綠色環保等一批新的增長引擎”。鑒于人工智能技術的特殊性,在有效利用人工智能的同時,要深入認識其對人類社會、法律、文化、哲學、精神和道德層面產生的影響,從而避免面人工智能所產生的消極后果,以及在面對出乎意料的變化時而出現的措手不及和無助之感。


本文來自微信公眾號:經濟觀察報,作者:孫樹強。僅供學習交流,圖文如有侵權,請來函刪除。


關于千秋業 | 網站聲明 | 誠聘英才 | 聯系我們
2007 - 2012版權所有 ? 北京千秋業教育顧問有限公司
地址:北京市朝陽區安立路68號(陽光廣場)B2座16層1602室 郵編:100101
聯系電話:010-64938082 傳真:010-64938079 E-mail:1946642092@qq.com