梁姊?郭晨?董雪
農(nóng)歷春節(jié)期間,深度求索公司的DeepSeek大模型,因兼具低成本與高性能特征,大幅降低了AI大模型的部署成本,在全球范圍內(nèi)引發(fā)熱議。
技術(shù)狂歡的另一面,是技術(shù)焦慮。從AI換臉致詐騙頻發(fā),到“AI聊天機器人致死第一案”,再到科幻小說中已泛濫的“AI取代人類”……隨著大模型能力不斷提升,人工智能似乎正走向一個關(guān)鍵的轉(zhuǎn)折點。作為極有可能超越人類智慧的終極智慧,人工智能的“奧本海默時刻”是否不斷逼近或是已經(jīng)到來?
“奧本海默時刻”源于核武器的發(fā)展歷程。1945年,物理學(xué)家奧本海默在目睹原子彈的巨大破壞力后,意識到科學(xué)技術(shù)的雙刃劍特性。他在《原子科學(xué)家公報》中寫道:“科學(xué)家們知道,他們已經(jīng)改變了世界。他們失去了天真?!边@種對科技潛在危害的深刻反思,成為科技發(fā)展史上一個重要警示。
如今,人工智能的發(fā)展也面臨著類似境況。在受訪者看來,人工智能的“奧本海默時刻”指的是人工智能正在逼近通用人工智能階段,即人工智能向人類看齊,甚至可能超越人類智慧。
當(dāng)人類自己的發(fā)明成為一個難以理解的謎團,并且以超乎所有人想象的速度不斷演進時,我們能夠為此做些什么?
人工智能會否失控
擔(dān)憂AI系統(tǒng)失控并非杞人憂天。2023年5月,超過350名技術(shù)高管、研究人員和學(xué)者簽署了一份聲明,警告人工智能帶來的“存在風(fēng)險”;此前,埃隆·馬斯克、蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克等人簽署了一份公開信,認為人工智能開發(fā)人員“陷入了一場失控的競賽,開發(fā)和部署更強大的數(shù)字思維,沒有人——甚至是它們的創(chuàng)造者——能夠?qū)ζ浼右岳斫?、預(yù)測或可靠地控制?!?/p>
人工智能因其多領(lǐng)域能力快速突破、自主意識初步顯現(xiàn)和指數(shù)級增長速度讓越來越多人認真考慮向充滿競爭的世界釋放人工智能技術(shù)存在的危險。
特定領(lǐng)域超越人類能力。從臨床診斷到數(shù)學(xué)證明,從病毒發(fā)現(xiàn)到藥物研發(fā),在一些特定領(lǐng)域,人工智能已展現(xiàn)出超越人類的能力。
斯坦福大學(xué)等機構(gòu)的一項臨床試驗中,人類醫(yī)生在特定領(lǐng)域單獨做出診斷的準(zhǔn)確率為74%,在ChatGPT的輔助之下,這一數(shù)字提升到了76%。如果完全讓ChatGPT“自由發(fā)揮”,準(zhǔn)確率能達到90%。
如今,這種特定領(lǐng)域優(yōu)勢正在加速向跨領(lǐng)域的通用能力泛化。去年初,被稱為“物理世界模擬器”的Sora橫空出世,以場景媒介構(gòu)筑了一個與人類認知感覺相似的真實場景,推動人工智能由二維邁向三維;工業(yè)機器人、自動駕駛、無人機等應(yīng)用愈發(fā)廣泛,具身智能更是賦予了AI“身體”……人工智能的多模態(tài)能力正在向現(xiàn)實世界的感知與操縱能力進化。
近一年來,受可用數(shù)據(jù)、芯片和能源等因素影響,AI技術(shù)的增長斜率有所放緩,業(yè)內(nèi)對實現(xiàn)通用人工智能(AGI)的時間預(yù)測趨于謹慎,但仍有不少“技術(shù)樂觀派”對5到10年內(nèi)實現(xiàn)AGI充滿期待。
創(chuàng)造能力實現(xiàn)突破。創(chuàng)造能力在一定程度上被視為人與AI的區(qū)別之一,當(dāng)前,人工智能正在從簡單的模仿向創(chuàng)造新知識、新認知的方向發(fā)展。
例如,在科學(xué)研究領(lǐng)域,蛋白質(zhì)結(jié)構(gòu)預(yù)測的人工智能AlphaFold2能在幾分鐘內(nèi)預(yù)測出一個典型蛋白質(zhì)的結(jié)構(gòu),還能預(yù)測較大蛋白質(zhì)的結(jié)構(gòu)。2021年,AlphaFold2已完成人類所有蛋白質(zhì)的結(jié)構(gòu)預(yù)測,2022年7月,已完成了2億多種蛋白質(zhì)的預(yù)測結(jié)構(gòu)。其預(yù)測的大部分結(jié)構(gòu)達到了空前的準(zhǔn)確度,不僅與實驗方法不相上下,還遠超解析新蛋白質(zhì)結(jié)構(gòu)的其他方法,顯示出強大的蛋白質(zhì)結(jié)構(gòu)預(yù)測能力。
這種人工智能生成的知識在質(zhì)量、可靠性和原創(chuàng)性等方面仍有待提高,但已經(jīng)對人類的創(chuàng)作方式產(chǎn)生了沖擊。
自主性初步顯現(xiàn)。盡管AGI尚未實現(xiàn),但當(dāng)前人工智能系統(tǒng)已展現(xiàn)出一些類似自主意識的表現(xiàn)。
最新研究表明,大語言模型(LLM)具備行為自我意識,能夠自發(fā)識別并描述自身行為。即,LLM可能會采取策略欺騙人類,以達成自身目的。還有一些AI模型表現(xiàn)出類似人類的創(chuàng)造性使用語言、分享感覺以及表達內(nèi)省和想象的能力。例如,谷歌推出的LaMDA大模型能夠以前所未有的方式高效、創(chuàng)造性地使用語言,并且會表達對未來的擔(dān)憂和對過去的追憶。
這種內(nèi)生創(chuàng)造新智能的能力,正在推動AI(Artificial Intelligence,人工智能)向EI(Endogenous Intelligence,內(nèi)生智能,智能創(chuàng)造智能)進化。
有業(yè)內(nèi)人士認為,這并不是數(shù)字生命體的自我意識,但已經(jīng)顯示出了一定的自主性和意識的萌芽。在近期的公開采訪中,被稱為“AI教父”的2024年諾貝爾物理學(xué)獎得主杰弗里·E·辛頓多次暗示AI可能已經(jīng)發(fā)展出某種形式的自主意識。
一些聲音認為,未來的人工智能可能會制定自己的目標(biāo),并自主決策以實現(xiàn)這些目標(biāo)。這將使AI的行為更加難以預(yù)測和控制。
潛在風(fēng)險難預(yù)判
快速發(fā)展的人工智能在就業(yè)結(jié)構(gòu)、信息安全、社會倫理道德等諸多方面引發(fā)了令人擔(dān)憂的風(fēng)險與挑戰(zhàn)。
職業(yè)結(jié)構(gòu)風(fēng)險。與以往一項新技術(shù)的出現(xiàn)將會取代一類職業(yè)不同的是,作為一種全維度的生產(chǎn)效率提升工具,人工智能批量替代人工崗位的情況很有可能出現(xiàn)。這可能會帶來潛在財富加速集中和工作兩極化,引發(fā)結(jié)構(gòu)風(fēng)險。
例如,ChatGPT的出現(xiàn)大幅降低了編程工作的專業(yè)性門檻,AI編程工具Cursor讓零基礎(chǔ)完成軟件開發(fā)成為可能。據(jù)美國計算機協(xié)會的統(tǒng)計數(shù)據(jù),與五年前相比,軟件開發(fā)人員活躍職位發(fā)布數(shù)量下降了56%。
該協(xié)會認為,在人工智能的助推下,招聘方對候選人的機會要求越來越高,企業(yè)正在尋找同時掌握編程和人工智能兩種技術(shù)的多面手,具備戰(zhàn)略思維和綜合技能的人才成為新寵。
受訪人士認為,從技術(shù)演進史來看,顛覆性技術(shù)帶來的“技術(shù)鴻溝”客觀存在,其創(chuàng)造的新技術(shù)崗位難以覆蓋被替代的崗位缺口。高、低技能崗位之間差距不斷拉大引發(fā)的社會不平等現(xiàn)象加劇,可能會導(dǎo)致不穩(wěn)定因素堆積,產(chǎn)生社會的結(jié)構(gòu)性風(fēng)險。
信息安全風(fēng)險。東南亞犯罪集團宣稱已將人工智能換臉工具加入其“殺豬盤工具箱”,相關(guān)工具對特定目標(biāo)的模仿相似度能達到60%至95%并已在1000余個區(qū)域安裝;2024年11月,ChatGPT為一位美國現(xiàn)役軍人提供爆炸知識,后者成功將一輛特斯拉Cybertruck在酒店門口引爆。
人工智能在各個領(lǐng)域的廣泛應(yīng)用,大量個人數(shù)據(jù)被收集、存儲和處理后,引發(fā)信息安全風(fēng)險。一旦這些數(shù)據(jù)被泄露或濫用,將對個人隱私和信息安全造成威脅。
人工智能被用于制造虛假信息,干擾社會輿論的事件不在少數(shù)。一條“特朗普盛贊華為創(chuàng)新能力”的虛假視頻曾在網(wǎng)絡(luò)上風(fēng)靡一時。
當(dāng)人工智能的視頻和語音生成能力再上新臺階,“虛假的真實”彌散的彼時,當(dāng)人工智能被用于制造高度定制的、有針對性的錯誤信息而導(dǎo)致“眼見不再為實”時,我們又該如何認知、分辨我們所生活的世界?
社會與倫理道德風(fēng)險。2024年10月,全球首例人工智能致死命案發(fā)生,一位14歲美國少年在與人工智能聊天系統(tǒng)討論死亡后飲彈自盡,引發(fā)社會對AI情感陪伴功能可能帶來的倫理問題的反思。
業(yè)內(nèi)人士指出,人工智能系統(tǒng)的決策過程往往是基于大量數(shù)據(jù)和復(fù)雜算法得出的,這些決策可能與人類的倫理道德觀念相沖突。例如在醫(yī)療領(lǐng)域,當(dāng)面臨資源有限的狀況時,人工智能如何決定優(yōu)先救治哪位患者?決策背后如缺乏人類情感和倫理判斷的深度參與,可能導(dǎo)致違背基本倫理原則的結(jié)果。
算法偏見引發(fā)的社會公平風(fēng)險也不容忽視??拼笥嶏w研究院副院長李鑫認為,“互聯(lián)網(wǎng)語料來源駁雜,存在較多涉恐、涉暴力、涉黃等風(fēng)險數(shù)據(jù),同時可能包含種族、文化等方面的偏見,導(dǎo)致模型輸出內(nèi)容可能帶有歧視、偏見等科技倫理風(fēng)險?!彼惴ㄆ娍赡軐?dǎo)致某些群體被不公正地排除在外,加劇社會的不平等現(xiàn)象。
堅持人類命運共同體理念
當(dāng)下對于人工智能“奧本海默時刻”到來可能會產(chǎn)生的諸多風(fēng)險的討論熱度不減,但AGI尚未實現(xiàn),我們?nèi)杂袝r間尋求如何馴化這一關(guān)鍵技術(shù)的解法。
香港大學(xué)計算與數(shù)據(jù)科學(xué)研究院院長馬毅認為,當(dāng)前AI的發(fā)展更多是工程上的突破,而非科學(xué)原理的明晰。人工智能系統(tǒng),特別是深度學(xué)習(xí)大多是“黑箱”模型,其內(nèi)部機制不透明,難以理解和追溯,其結(jié)果可信度和可用性打了折扣。
馬毅認為,找到破解人工智能“黑箱”的“鑰匙”,需要智能研究從“黑箱”轉(zhuǎn)向“白箱”,通過數(shù)學(xué)方法清晰定義和解釋智能系統(tǒng)的工作原理。“真正的智能系統(tǒng)必須具備自主學(xué)習(xí)和改進能力,而不僅僅是數(shù)據(jù)的存儲和處理?!彼粲跹芯空邆冴P(guān)注智能的科學(xué)原理和理論框架,以實現(xiàn)真正意義上的通用人工智能。
“接下來的10到20年是科研院所、高校與企業(yè)聯(lián)動實現(xiàn)技術(shù)突破的黃金時期?!鄙虾J锌茖W(xué)學(xué)研究所學(xué)術(shù)委員會主任吳壽仁建議,從頂層設(shè)計上制定投融資、校企聯(lián)合實驗室或是聯(lián)合共建項目的具體激勵方案,面向人工智能在應(yīng)用端的真實需求嘗試技術(shù)突破。
此外,多位受訪對象建議,在重點項目分配上向常年身處科研一線、更加熟悉前沿技術(shù)、對人工智能認知更為理性客觀的中青年科學(xué)家傾斜。
在技術(shù)之外,更重要的是,一旦人工智能迎來“奧本海默時刻”,人類應(yīng)有怎樣的態(tài)度和責(zé)任?
縱觀世界各個角落發(fā)生的事件,也許比起將人工智能投入戰(zhàn)場,或是被用于攫取更大的權(quán)力集中,人工智能更理想的應(yīng)用該是為了促進人類的共同命運和共同利益而努力。
作為AI技術(shù)和應(yīng)用的重要參與者,中國以負責(zé)任的態(tài)度應(yīng)對AI治理挑戰(zhàn),提出包容和有效的治理理念。在國內(nèi),我國通過法律框架、技術(shù)標(biāo)準(zhǔn)和倫理指南的三元治理促進AI健康發(fā)展。在國際上,我國堅持人類命運共同體的理念立場,推動多邊合作治理,提出《全球人工智能治理倡議》,支持在聯(lián)合國框架內(nèi)建立開放和包容的人工智能治理機制。
中國國際經(jīng)濟技術(shù)合作促進會副理事長邵春堡發(fā)文稱,聯(lián)合國大會雖然通過我國主提的加強人工智能能力建設(shè)國際合作決議,但是在國際合作的實踐中,仍然布滿曲折,需要共同堅持以人為本、智能向善、造福人類的原則,通過國際合作和實際行動幫助各國特別是發(fā)展中國家加強人工智能能力建設(shè)。
李鑫認為,包括我國在內(nèi)的全球首份針對人工智能的國際聲明《布萊切利宣言》發(fā)表是一個良好信號,今后我國也應(yīng)更多參與大模型安全領(lǐng)域國際標(biāo)準(zhǔn)制定、全球人工智能安全評估和測試領(lǐng)域的交流合作。
【未經(jīng)授權(quán),嚴禁轉(zhuǎn)載!聯(lián)系電話028-86968276】