網(wǎng)易財(cái)經(jīng)智庫《C位觀察》節(jié)目一一看C位大佬解讀C位大事。獨(dú)家對話智庫頭部經(jīng)濟(jì)學(xué)家、企業(yè)家、各個(gè)領(lǐng)域 KOL,解讀時(shí)下熱議的財(cái)經(jīng)和社會(huì)問題。
NO.043 對話中國科學(xué)院自動(dòng)化研究所研究員、類腦智能實(shí)驗(yàn)室副主任、人工智能倫理與治理中心主任、聯(lián)合國人工智能高層顧問機(jī)構(gòu)專家曾毅
60S要點(diǎn)速讀:
1、生成式人工智能技術(shù)的發(fā)展,并沒有真正做到科學(xué)上的突破。
2、生成式AI只是一個(gè)信息處理系統(tǒng)。它會(huì)犯一堆人類不犯的錯(cuò)誤,大家要準(zhǔn)備好。
3、當(dāng)未來人類的部分工作被人工智能接替,紅利分配的方式可能也應(yīng)該發(fā)生變化。
4、對于企業(yè)來說,基礎(chǔ)模型的構(gòu)建還有很大的機(jī)會(huì),還存在很大的顛覆性的可能;另外,相較于傳統(tǒng)的生成式AI大模型,終端側(cè)的生成式AI在應(yīng)用方面更值得探索。
5、沒有倫理安全框架的人工智能,是最危險(xiǎn)的一種人類發(fā)明。
6、當(dāng)超級智能看待人類,像人類看待螞蟻,你能接受嗎?人類需要變革。
正文:
【
-1985年,微軟推出 Windows 1.0,通過實(shí)現(xiàn)直觀的用戶圖形界面和鼠標(biāo)操作,開啟了 PC 全面普及的新時(shí)代;
-2008年,iPhone 3G正式發(fā)售,iPhone 3G向第三方開發(fā)商開放了App Store,從此開啟了移動(dòng)互聯(lián)網(wǎng)時(shí)代;
-2022年底,OpenAI發(fā)布大語言模型ChatGPT,并迅速破圈,成為史上用戶增長最快的消費(fèi)級應(yīng)用程序,生成式人工智能模型隨之爆火。
微軟公司創(chuàng)始人比爾?蓋茨將OpenAI 的 GPT 模型,與“圖形用戶界面”的誕生相提并論;
英偉達(dá)CEO黃仁勛將它看作“AI的iPhone時(shí)刻來臨”。
-2024年2月, OpenAI推出全新的生成式人工智能模型——首個(gè)文生視頻模型Sora,再次震撼世界。
】
01
生成式人工智能技術(shù)并沒有真正做到科學(xué)上的突破
生成式人工智能Sora 在生成數(shù)據(jù)的真實(shí)性、連續(xù)性上的進(jìn)步是明顯的,主要進(jìn)展包括但不限于采用了更有效的對視頻數(shù)據(jù)統(tǒng)一表示與融合訓(xùn)練的算法,以及用生成式AI來豐富用于訓(xùn)練的視頻數(shù)據(jù)等,雖然相關(guān)的技術(shù)都不是此次Sora首次提出的,但是在若干技術(shù)的高效組合的工程化方面,達(dá)到了前所未有的用戶感知體驗(yàn)。尤其是將視覺和聽覺數(shù)據(jù)跨模態(tài)生成,所帶來的用戶體驗(yàn)是更上一層樓的。
但是,生成式人工智能技術(shù)的發(fā)展,并沒有真正做到科學(xué)上的突破。
生成式人工智能,只是一個(gè)工程技術(shù)組合優(yōu)化的創(chuàng)新。它把很多已知的科學(xué)技術(shù),通過大規(guī)模工程優(yōu)化的方法,達(dá)到了用戶體驗(yàn)方面的顯著提升,在用戶體驗(yàn)方面取得了一個(gè)前所未有的高度。
從用戶的角度來說,它可以做很多事情,甚至給人一種感覺,它近乎接近人類。比如ChatGPT能回答一般智力的人可能也比較難回答的問題,特別是在知識(shí)的廣度方面。的確,生成式人工智能在用戶體驗(yàn)上取得了很大的提升,但是,這不是基于科學(xué)技術(shù)突破所帶來的提升。
1950年,“計(jì)算機(jī)之父”艾倫·麥席森·圖靈(Alan Mathison Turing)發(fā)表了一篇文章——《計(jì)算機(jī)器與智能(Computing Machinery and Intelligence)》。其中,他提到判斷人工智能是否達(dá)到人類水平的方式,是將TA(人工智能)放在一個(gè)屋子里,找一個(gè)人與TA對話,當(dāng)這個(gè)人無法分辨TA是人還是機(jī)器的時(shí)候,我們可以判斷人工智能達(dá)到了人類的水平。
所以,從某種程度上來說,人工智能起源于一個(gè)欺騙。2014年,一個(gè)俄羅斯團(tuán)隊(duì)開發(fā)的一款名為“尤金·古特曼(Eugene Goostman)”的計(jì)算機(jī)軟件首次通過了測試,成功地讓33%的被試相信它是一個(gè)13歲的男孩。所以,第一次騙人成功的機(jī)器并不是ChatGPT。
除此以外,生成式人工智能背后的技術(shù)Next Token Prediction,以及基于人類反饋的強(qiáng)化學(xué)習(xí)的技術(shù)早就存在。比如,Next Token Prediction是第一代人工智能的創(chuàng)建者就提出的數(shù)學(xué)模型,在我看來,它對于真實(shí)世界的呈現(xiàn)或理解可能是一種過度的簡化。
所以,生成式人工智能技術(shù)的創(chuàng)新,并非顛覆性的科學(xué)突破。事實(shí)上,對于生成式人工智能來說,只要數(shù)據(jù)量足夠大、神經(jīng)網(wǎng)絡(luò)的參數(shù)足夠多,那么它在用戶體驗(yàn)上都能達(dá)到相當(dāng)高的水平。但是,這并不能說明人工智能技術(shù)的進(jìn)展,這只能說明以前的人工智能沒有機(jī)會(huì)應(yīng)用到互聯(lián)網(wǎng)規(guī)模的數(shù)據(jù),以及幾乎接近人腦規(guī)模的這種連接和參數(shù)的量,所以在用戶體驗(yàn)上沒有經(jīng)歷過這樣的體驗(yàn)。
而且,現(xiàn)在大家使用的這種所謂的生成式大模型,它其實(shí)已經(jīng)是一個(gè)工程的產(chǎn)品,它背后不僅僅是生成式的人工智能,還要結(jié)合一些其他技術(shù)。
比如,大家最初使用 ChatGPT的時(shí)候,讓它推薦人類歷史上引用率最高的科學(xué)文獻(xiàn),它可能推薦了10篇文獻(xiàn),但是當(dāng)我們?nèi)プ龊藢?shí)的時(shí)候,會(huì)發(fā)現(xiàn)這10篇文獻(xiàn)根本不存在。
因?yàn)樯墒饺斯ぶ悄埽皇且粋€(gè)看似智能的大規(guī)模信息處理系統(tǒng),它無法區(qū)分任務(wù),它把所有的任務(wù)都定義為生成式的任務(wù)。既然是生成式的任務(wù),就不能跟原始的數(shù)據(jù)一模一樣。但是“查閱文獻(xiàn)”本質(zhì)上是一個(gè)信息檢索類的任務(wù)。所以作為一個(gè)服務(wù)系統(tǒng),它就要把生成式人工智能技術(shù),跟信息檢索等技術(shù)去結(jié)合。
所以從這個(gè)意義上來說,現(xiàn)在服務(wù)于大眾的生成式人工智能模型,本質(zhì)上是一個(gè)大規(guī)模的工程化系統(tǒng)。它是一個(gè)現(xiàn)有技術(shù)的工程化的組合優(yōu)化的創(chuàng)新,是大規(guī)模數(shù)據(jù)和大參數(shù)的積累,帶來的用戶體驗(yàn)極大提升。
微軟公司聯(lián)合創(chuàng)始人比爾·蓋茨將 ChatGPT與當(dāng)年的圖形用戶界面相提并論;英偉達(dá)CEO黃仁勛也將它看作“AI的iPhone時(shí)刻來臨”,但是在我看來,它們的相似之處更多在于用戶體驗(yàn)方面——都給用戶帶來了耳目一新的感覺。而從科學(xué)原理角度來說,AIGC沒有太多新進(jìn)展。
02
生成式人工智能不該被“過度承諾”
認(rèn)為“生成式AI在處理任務(wù)時(shí)就像真正的人一樣”,這是一種幻覺。因?yàn)锳IGC大模型會(huì)犯很多人都不會(huì)犯的錯(cuò)。
比如,“恭祝大家龍年快樂”,這句話有幾個(gè)字?這個(gè)問題,ChatGPT就不一定能數(shù)對。
它最開始可能會(huì)回答“7個(gè)字”,我們告訴它輸錯(cuò)了,它會(huì)告訴你,“是8個(gè)字”,但是,當(dāng)我們再次繼續(xù)告訴它輸錯(cuò)了的時(shí)候,它會(huì)重新告訴你,“是7個(gè)字”。
其實(shí),這與生成式人工智能的編碼有關(guān)。我們在處理信息的時(shí)候,一個(gè)字符就是一個(gè)漢字。但是,它會(huì)把英文、中文等不同的語言都轉(zhuǎn)換成Token(模型輸入的基本單位)去表示,所以生成式人工智能背后的技術(shù)叫Next Token Prediction。所以,他只是一個(gè)處理器,它并沒有真正理解。
當(dāng)然,若讓ChatGPT編一個(gè)小程序,來統(tǒng)計(jì)文本中的字?jǐn)?shù),它完全沒問題。我們可以利用這個(gè)小程序,再按照人的邏輯去處理之前我們提到的字?jǐn)?shù)問題。
但是,不可否認(rèn)的是,它有一定的創(chuàng)造能力。在創(chuàng)作藝術(shù)作品方面,有時(shí)候會(huì)給人耳目一新的感覺。但是,有時(shí)候很多細(xì)節(jié)也經(jīng)不起推敲。比如某些具有視覺生成功能的大模型,讓它創(chuàng)作一幅楷書作品“和諧共生”,它可以生成一幅作品,但是這四個(gè)字可能是錯(cuò)的,可能只有其中的1個(gè)字或3個(gè)字。
背后的原因,除了它沒有真正理解之外,關(guān)鍵是對于中國書法作品,它沒有足夠多的語料。假設(shè)標(biāo)注這個(gè)字是“和”,可能需要輸入幾千張幾萬張“和”,如此級別的語料喂進(jìn)去,它可能才能夠?qū)W好。
所以,當(dāng)數(shù)據(jù)量不夠多的時(shí)候、當(dāng)沒有足夠多的人類反哺的時(shí)候,我們甚至想象不到它會(huì)犯什么錯(cuò)誤。
現(xiàn)在很多人說,“人類歷史上見證了通用人工智能的誕生”、“人工智能系統(tǒng)已經(jīng)全面超越了人類”,其實(shí)都沒有。生成式人工智能既不通用,也沒有形成真正的理解。它現(xiàn)在仍然是基于人類智慧的一個(gè)產(chǎn)出,脫離了人類大規(guī)模的數(shù)據(jù),它不太能夠真正工作。它并不能在任何場景下,解決我們所有的問題。
它只是一個(gè)信息處理系統(tǒng)。它會(huì)犯一堆人類不犯的錯(cuò)誤,大家要準(zhǔn)備好。我們應(yīng)該謹(jǐn)慎地、適度地使用它。比如,與Sora相關(guān)的生成式人工智能技術(shù),可以降低人工影視、娛樂、文化產(chǎn)品等產(chǎn)業(yè)的開發(fā)成本和門檻,所以我國的人工智能研究和產(chǎn)業(yè),有能力一定要盡快趕上;但是我們也需要特別指出,這并不意味著生成式人工智能已經(jīng)真正理解了我們的物理世界,并可以完全替代這些產(chǎn)業(yè)中傳統(tǒng)需要人類完成的工作。事實(shí)上,當(dāng)前Sora系統(tǒng)生成的視頻,還會(huì)犯很多違反生活與物理常識(shí)的錯(cuò)誤。
所以,當(dāng)技術(shù)的發(fā)展波及到用戶、服務(wù)于用戶時(shí),任何時(shí)候都不應(yīng)該嘗試過度的承諾。這也是人工智能發(fā)展歷史上的問題。每一次過度承諾并不一定是科學(xué)家造成的,但是在產(chǎn)業(yè)推動(dòng)的過程中,過度承諾和過度宣傳,使得技術(shù)在沒有真正準(zhǔn)備好的時(shí)候,接觸了用戶,當(dāng)然,需要用戶反饋是無可厚非的,但是當(dāng)你過度承諾而又無法兌現(xiàn)承諾的時(shí)候,大家就會(huì)產(chǎn)生落差感,從而可能對此類技術(shù)失望。
比如,現(xiàn)在有一種宣傳大肆鼓吹,現(xiàn)在的人工智能已經(jīng)能夠真正模擬人類的大腦,能夠構(gòu)造數(shù)字人,以后甚至我們不需要主持人、不需要老師了,我們可以用數(shù)字人去替代等等,這些都是過度承諾。當(dāng)出現(xiàn)了過度承諾的時(shí)候,用戶往往會(huì)非常嚴(yán)格審慎地去進(jìn)行體驗(yàn)。
所以,還是要再次強(qiáng)調(diào),現(xiàn)在的生成式AI,它并沒有準(zhǔn)備好替代人類。它沒有真正達(dá)到人類的智能水平,沒有真正產(chǎn)生理解。所以,公眾不應(yīng)該對它有過高的期待,科研工作者和產(chǎn)業(yè)推動(dòng)者,更不應(yīng)該去助推這種誤解。
03
未來若人類工作被AI替代
失業(yè)問題 誰來負(fù)責(zé)?
未來,隨著人工智能技術(shù)的發(fā)展,某些重復(fù)性的工作,比如那些幾乎是模板化的編程需求量可能會(huì)降低。初級程序員的需求量隨之可能會(huì)越來越少,但是基于當(dāng)前人工智能技術(shù)在發(fā)展中可能存在一定的風(fēng)險(xiǎn)、安全隱患,測試工程師的需求量可能會(huì)增加。
但是,這并不一定是一個(gè)壞現(xiàn)象。也許確實(shí)你在做的很多這種重復(fù)性性質(zhì)的工作,它可能不是你想做的事情。如果是這樣,不如再多花點(diǎn)時(shí)間去思考,自己更感興趣的是什么。未來工作的意義應(yīng)該被重新定義,工作的形式應(yīng)該更多樣化,更多地發(fā)揮人的人性。由此,人將重新認(rèn)識(shí)自身的意義,而不是去用工作定義自己。
但是,有些人會(huì)說,我非常愿意一輩子就在裝配線上做一個(gè)工人,我只要能夠換來收入,能夠生活,沒什么不好。
如果你的需求只是生活的收入,未來當(dāng)人工智能高度發(fā)達(dá)的時(shí)候,紅利分配的方式可能也要發(fā)生變化。
當(dāng)未來人類的部分工作被人工智能接替,這時(shí)候,紅利可能流向了人工智能的應(yīng)用方、人工智能技術(shù)的提供方;或者,可能在構(gòu)造這樣的人工智能的過程中,大量學(xué)習(xí)的數(shù)據(jù)來自于人類本身,比如來自于這部分被替代工作的工人本身的時(shí)候,我們需要考慮是否應(yīng)該分配給這部分人更多的紅利?這是社會(huì)層面需要去思考的問題。
所以,未來人工智能工作替代帶來的社會(huì)問題,誰來承擔(dān)?我初步的想法是,至少人工智能的應(yīng)用和部署方,以及人工智能的研發(fā)方,對于這種社會(huì)結(jié)構(gòu)的轉(zhuǎn)變,其實(shí)是應(yīng)該承擔(dān)部分責(zé)任的。
04
企業(yè)的機(jī)會(huì)在哪里?
(一)相較于傳統(tǒng)的生成式AI大模型
終端側(cè)的生成式AI在應(yīng)用方面更值得探索
現(xiàn)階段生成式人工智能大模型,若想在用戶體驗(yàn)上提高一點(diǎn)點(diǎn),它的代價(jià)是很大的,比如,把精確度從96.5%提高到96.6%,數(shù)據(jù)量可能要翻上去1/3甚至1倍,換來0.1%的提升。但是,這樣的代價(jià)真的值得嗎?
相較而言,終端側(cè)的生成式人工智能,在應(yīng)用方面其實(shí)是更值得探索的。
終端側(cè)的生成式人工智能有兩點(diǎn)優(yōu)勢。第一,它是資源受限的,無需特別龐大的園區(qū)作為基礎(chǔ)支撐;第二,智能體的發(fā)展為其提供了更多承載渠道。人工智能的發(fā)展有一個(gè)重要的方向是具身智能,就像任何動(dòng)物都有一個(gè)身體,人類也是具身智能,我們對世界的認(rèn)知需要通過身體的不同部位去感知。
為什么我們看到雞蛋的時(shí)候不會(huì)拿起來把它摔一下,但是當(dāng)我們拿起一個(gè)乒乓球的時(shí)候,就會(huì)把它往地上砸?這是長時(shí)間地,通過我們外周神經(jīng)系統(tǒng)、感知系統(tǒng)跟世界交互產(chǎn)生的常識(shí)。所以,很多的世界知識(shí)通過大規(guī)模數(shù)據(jù)去喂是喂不出來的,很多認(rèn)知是需要通過交互的方式去產(chǎn)生的,而這并不一定需要一個(gè)特別大的生成式大模型去支撐。也許通過端的小模型,以交互式、強(qiáng)反饋的方式,去提升AI的智能水平,比大模型通過迭代、依賴更多的大數(shù)據(jù)去喂哺,可能會(huì)更有效。
所以,在我看來,人工智能的發(fā)展很難越過具身智能。所以,它一定要通過端來探索和反饋,這個(gè)端可能是一個(gè)人形機(jī)器人、一只機(jī)器小狗,或是每天跟著我們的手機(jī)等,通過它不斷收集我們的個(gè)性化數(shù)據(jù),從而給我們提供更好的服務(wù)。它(端側(cè)的生成式模型)更多地是融入場景,或者是更個(gè)性化的,通過交互,獲得一個(gè)更精準(zhǔn)的用戶畫像。這不是傳統(tǒng)的、基于大規(guī)模數(shù)據(jù)統(tǒng)計(jì)的生成式大模型能夠替代的。
(二)基礎(chǔ)模型的構(gòu)建
仍有很大的機(jī)會(huì)空間
現(xiàn)在有一些人,特別是企業(yè),認(rèn)為未來人工智能的機(jī)會(huì)已經(jīng)不在基礎(chǔ)模型的構(gòu)建上。他們認(rèn)為這條賽道的競爭之后會(huì)聚焦在頭部幾家企業(yè),別人已經(jīng)沒有機(jī)會(huì)了。在他們看來,未來就是基于生成式大模型,去構(gòu)建基于端的服務(wù)。我不贊同這些觀點(diǎn)。
在我看來,當(dāng)前生成式AI在基礎(chǔ)模型方面,大家都遇到了瓶頸。當(dāng)沒有足夠多的數(shù)據(jù),并且算力提升仍然存在瓶頸的時(shí)候,智能水平的提升也必然會(huì)遭遇瓶頸。甚至更多數(shù)據(jù)的積累,似乎也難以實(shí)現(xiàn)智能水平真正的質(zhì)的飛躍。
所以,基礎(chǔ)模型的構(gòu)建,還存在很大的顛覆性的可能。
若按照已有的頭部大廠的構(gòu)建方式,去構(gòu)建一個(gè)基礎(chǔ)模型,這種工作意義確實(shí)不大,但是若采用一種全新的方式去構(gòu)建基礎(chǔ)模型,機(jī)會(huì)還是非常大的,它的潛力是非常大的。
比如,用全新的方式去使用數(shù)據(jù),極大規(guī)模地縮小可能需要的參數(shù)量,在這種基礎(chǔ)之上,再創(chuàng)新性地構(gòu)建基礎(chǔ)模型。
而事實(shí)上,真正的顛覆創(chuàng)新,很多都不來自于這些大廠。當(dāng)年大家也不看好OpenAI,2017年創(chuàng)始人之一的埃隆·馬斯克也選擇了退出,而正是在這樣的背景下,OpenAI開戰(zhàn)谷歌旗下的DeepMind,并隨后推出ChatGPT,一戰(zhàn)成名。所以,這種科學(xué)驅(qū)動(dòng)的、有產(chǎn)業(yè)敏銳的創(chuàng)新者組成的團(tuán)隊(duì),反而更可能產(chǎn)生真正在基礎(chǔ)模型方面的未來顛覆式的創(chuàng)新。
某些企業(yè)之所以會(huì)說,“未來機(jī)會(huì)不在基礎(chǔ)模型的構(gòu)建上了”,是出于他們是基礎(chǔ)模型的提供方,他們認(rèn)為基礎(chǔ)模型已經(jīng)構(gòu)建好了,接下去就需要大家去構(gòu)建上層應(yīng)用,把現(xiàn)有的基礎(chǔ)模型用起來。
但是,在我看來,這種觀點(diǎn)稍顯不負(fù)責(zé)任。上層應(yīng)用是需要做的,但是前提是基礎(chǔ)設(shè)施已經(jīng)搭建好了,而這一點(diǎn)仍值得商榷。在我看來,基礎(chǔ)設(shè)施遠(yuǎn)遠(yuǎn)沒有搭建好。
所以,當(dāng)這些頭部大廠把80%精力投入在上層應(yīng)用和基礎(chǔ)設(shè)施的進(jìn)一步優(yōu)化方面時(shí),至少應(yīng)該拿20%的人力、物力投入到真正顛覆性的創(chuàng)新中,投入到下一輪的準(zhǔn)備中。否則下一輪競賽,他們將會(huì)花更大的力量去追趕。至于到時(shí)候還剩多少機(jī)會(huì),就很難說了。
我國很多企業(yè)的問題是,一直在等風(fēng)口。當(dāng)他們覺得有一點(diǎn)點(diǎn)微風(fēng)的時(shí)候,他們會(huì)認(rèn)為太危險(xiǎn),絕不投入;等到風(fēng)刮起來的時(shí)候,比賽已經(jīng)結(jié)束了。
所以,中國的產(chǎn)業(yè)創(chuàng)新為什么與其他國家有較大差距?我們到現(xiàn)在為止都沒有準(zhǔn)備好去做一次真正長期的準(zhǔn)備,這是最危險(xiǎn)的事情。當(dāng)我們看到別的企業(yè)像微軟,它可以注資百億,給一個(gè)根本沒有得到廣泛認(rèn)可的小公司進(jìn)行豪賭時(shí),這樣的故事在產(chǎn)業(yè)界已經(jīng)發(fā)生了若干次。但在這個(gè)過程當(dāng)中,我還是非常納悶,中國的產(chǎn)業(yè)怎么還沒有學(xué)到呢?
05
AI的“中國時(shí)刻”何時(shí)到來:
下一輪的機(jī)會(huì)在哪里?
為什么ChatGPT沒有產(chǎn)生在中國?事實(shí)上,人工智能的發(fā)展,它從發(fā)展的范式上已經(jīng)顛覆了很多次,可以說沒有一次真正突破的科學(xué)基礎(chǔ)是來自中國。
在這種情況下,我們往往是按照別人畫的路走,所以一直在追趕,一直比的是別人放出來的服務(wù)。但是別人放出來的服務(wù),它的基礎(chǔ)設(shè)施可能是三年以前搭建好的,花了兩三年的時(shí)間在優(yōu)化它的用戶體驗(yàn)、收集用戶反饋,再用大量的人工去修改。
而我們國內(nèi)的生成式人工智能,基本是一兩個(gè)月、三個(gè)月上線,三個(gè)月上線的都算是慢的。在這種情況下,用戶體驗(yàn)如何跟別人比?我們根本沒有背后框架的積累。當(dāng)然,在這種情況下,我們可以追趕,但是在我看來,這種超越不是真正事實(shí)性的。也許,我們在某一兩個(gè)應(yīng)用的案例上,看上去似乎取得了比別人更好的結(jié)果,但是在我看來,這種所謂的評估,實(shí)際上都是片面的。就像一個(gè)學(xué)生參加考試,考了100分,是否能夠證明這門課他都學(xué)懂了?顯然不能,考試本身是以偏概全的考察,一張卷子上能夠容納的知識(shí)點(diǎn)是非常有限的。
所以,如果要真正迎來人工智能的中國時(shí)刻,就不能只是沿著別人畫的路進(jìn)行追趕。
OpenAI誕生的時(shí)候不是一個(gè)簡單的延伸;Alpha Go基礎(chǔ)模型誕生的時(shí)候也不是一個(gè)簡單的延伸;當(dāng)人工智能規(guī)則系統(tǒng)在被發(fā)明出來的時(shí)候,它也不是對簡單的信息處理系統(tǒng)的一個(gè)延伸。它們都是在用另外一種思維去創(chuàng)新。
所以,中國現(xiàn)在就要布局下一次的顛覆。但是,下一次顛覆中國的機(jī)會(huì)在哪里?
其實(shí),生成式人工智能的發(fā)展已經(jīng)證明,智能模型的本質(zhì)是需要顛覆的。在我看來,現(xiàn)在數(shù)據(jù)驅(qū)動(dòng)的人工智能,不是真正意義的人工智能。因?yàn)楝F(xiàn)在的智能來自于人類的數(shù)據(jù),需要極大規(guī)模的數(shù)據(jù)和參數(shù)。但是同等智慧的獲取,人類并不需要如此大的數(shù)據(jù)做支撐。所以參照人類智能的本質(zhì),未來AI若要真正實(shí)現(xiàn)“智能”,當(dāng)前的智能模型是一定要從本質(zhì)上顛覆的。
未來的人工智能,究竟是基于目標(biāo)和服務(wù)驅(qū)動(dòng)去訓(xùn)練的人工智能系統(tǒng);還是合乎自然演化機(jī)制,模擬人的大腦結(jié)構(gòu)、信息處理機(jī)制,從而受其啟發(fā),構(gòu)建成人工智能算法?
目前為止,全世界能夠處理各種各樣的問題,真正具有通用智能,而且能夠穩(wěn)定地工作幾十年的智能系統(tǒng),就只有人類的大腦。
大自然數(shù)億年的演化,能犯的錯(cuò)誤很多都已經(jīng)犯過了,否則為什么現(xiàn)在人類的大腦進(jìn)化成現(xiàn)在的樣子,而不是保留猴子大腦的結(jié)構(gòu)?正是文明發(fā)展的需要。自然演化塑造了智能,我們要從自然演化中去學(xué)習(xí)智能的本質(zhì)。人類就是最好的智能參照物,我們應(yīng)該受其啟發(fā)去構(gòu)造真正意義的智能,這才是真正意義的人工智能。
06
絕不能以發(fā)展為借口
讓人工智能無處不在!
技術(shù)的發(fā)展永遠(yuǎn)不是中立的,特別是人工智能系統(tǒng)。
在它沒有接觸人類社會(huì)的數(shù)據(jù)的時(shí)候,它可能是無善無惡的,但是當(dāng)它接觸到人類數(shù)據(jù),它就變得有善有惡了。若我們不在倫理、安全方面規(guī)制它,它就不可能知善知惡,因?yàn)闆]有人類的反饋,它沒有辦法區(qū)分善惡。
比如Sora在連續(xù)高精度視頻生成方面的進(jìn)展,使得利用人工智能造假的效果到達(dá)了一個(gè)前所未有的高度,也給“眼見為實(shí)”帶來了更大的挑戰(zhàn),對于公眾而言,區(qū)分虛假信息變得難上加難。同時(shí),視覺取證與執(zhí)法也將面臨更大的挑戰(zhàn)。所以,一方面人工智能治理相關(guān)政策發(fā)展和落實(shí)要進(jìn)一步跟上;另一方面,生成式人工智能技術(shù)研發(fā)的機(jī)構(gòu)和企業(yè)要同步發(fā)展、推廣更高水平的自動(dòng)化鑒偽技術(shù)與應(yīng)用。
可以說,沒有倫理安全框架的人工智能,是最危險(xiǎn)的一種人類發(fā)明。
它可能把人類的惡通過數(shù)據(jù)學(xué)到并且去放大,并且采用負(fù)面的方式去影響社會(huì)。甚至,有些人認(rèn)為,未來人工智能(超級智能時(shí)代)會(huì)像核武器一樣危險(xiǎn),可能造成人類社會(huì)的顛覆。
但是,在我看來,即便是超級智能沒有到來的時(shí)候,人工智能也有可能給我們帶來顛覆性的風(fēng)險(xiǎn)。因?yàn)槿斯ぶ悄軟]有真正理解的能力。
當(dāng)它可以利用人類的缺陷,制造人類之間的沖突時(shí),比如以某種方式激發(fā)類似欺騙、仇恨、敵對等負(fù)面情緒。當(dāng)這些負(fù)面、虛假信息,給人類社會(huì)造成極端不信任、大范圍社會(huì)沖突的時(shí)候,它就會(huì)威脅人類生存,乃至帶來毀滅性的風(fēng)險(xiǎn)。
而這個(gè)時(shí)候人工智能系統(tǒng)甚至還并不理解什么叫做沖突,什么叫做不信任,這是最糟糕的。當(dāng)它給人類社會(huì)大范圍地造成問題時(shí),它甚至不明白什么叫做問題。在我看來,這是現(xiàn)階段人工智能最大的風(fēng)險(xiǎn)。
除此之外,現(xiàn)在的人工智能仍是人類的一個(gè)輔助系統(tǒng),但是,如果它被不合理地使用,比如把它當(dāng)作一個(gè)決策系統(tǒng),替代人類的決策;再比如,當(dāng)它應(yīng)用于戰(zhàn)爭,又被黑客利用的時(shí)候,那么它就可能產(chǎn)生相當(dāng)大范圍的殺傷力,甚至給人類造成類似于核武器級別的風(fēng)險(xiǎn)。
現(xiàn)在甚至有一種假設(shè),有人認(rèn)為人工智能做決策快,所以考慮使用人工智能控制核武器。那將是世界末日。
所以,不要讓人工智能去代替人類決策,特別是關(guān)鍵的決策。人類要把自身的命運(yùn)留在自身的手中,這是非常關(guān)鍵的。
所以,有很多在科學(xué)上可以實(shí)現(xiàn)的事情,但是在社會(huì)上我們都不應(yīng)該去應(yīng)用。當(dāng)然,有人會(huì)說,中國人工智能要發(fā)展起來,不要管得太死。
但是,需要強(qiáng)調(diào)的是,可以商討的地方是那些灰色地帶,不是紅線。比如個(gè)人數(shù)據(jù)、個(gè)人隱私的問題,就是不可跨越的紅線。所以,發(fā)展人工智能,這條紅線應(yīng)當(dāng)是非常清晰的,絕對不能以所謂的發(fā)展為借口,讓人工智能無處不在,那是非常危險(xiǎn)的。
所以,人工智能技術(shù)的創(chuàng)新者,一定要樹立正確的價(jià)值觀。
一個(gè)人工智能的服務(wù)產(chǎn)品,從誕生到它服務(wù)于社會(huì),中間可能只有10分鐘的時(shí)間,它馬上可以部署在網(wǎng)上,開始收集數(shù)據(jù)、獲得用戶。但是想象一下,若它背后的技術(shù)創(chuàng)新者,從未接觸過任何社會(huì)學(xué)的教育培訓(xùn),沒有任何在倫理道德方面的考量,而完全是基于好奇心而去構(gòu)建服務(wù)產(chǎn)品,這背后潛在的風(fēng)險(xiǎn)可能是巨大的。
所以說未來人工智能的創(chuàng)新者,他需要一個(gè)綜合交叉學(xué)科的培養(yǎng),而不僅僅是對技術(shù)創(chuàng)新手段的學(xué)習(xí)。
人工智能的倫理安全,對于人工智能創(chuàng)新者不是一個(gè)選修課,而是一個(gè)必修課。
07
數(shù)字生命距離我們還有多遠(yuǎn)?
人工智能技術(shù)的進(jìn)展,并不一定能加速數(shù)字生命盡早到來。它們是兩種類型的智能,人工智能是使機(jī)器擬人化,數(shù)字生命是使人類機(jī)械化。
未來的人工智能也可能變得有生命,但是它就像一個(gè)新生兒,用自己的方式去觀察世界,像前文說到的以智能體的方式去探索世界;而數(shù)字生命是人類智能的一個(gè)刻畫、模擬和延續(xù)。
人類十幾年、幾十年的記憶存儲(chǔ)在我們大腦神經(jīng)網(wǎng)絡(luò)的突觸當(dāng)中,若想把突觸當(dāng)中的每一個(gè)記憶解碼出來,并且構(gòu)建在一個(gè)智能系統(tǒng)當(dāng)中,目前在科學(xué)上還做不到。但是不代表未來不可能。
所以像《流浪地球2》里面的場景,數(shù)字的圖恒宇和圖丫丫,在數(shù)字世界重建了他們的生命,這確實(shí)是未來人類一部分人延續(xù)的一種可能性。但是它現(xiàn)在還并不具備科學(xué)的完全的合理性。
但是,若構(gòu)造一個(gè)數(shù)字生命,可能人類的缺陷也被構(gòu)造在了系統(tǒng)中,而且這種缺陷可能會(huì)被放大。但是,另一種智能形式——純?nèi)斯ぶ悄?,即基于機(jī)器,使機(jī)器擬人化發(fā)展出來的智能,我們在構(gòu)造它的時(shí)候,并非真正的大腦仿真,我們現(xiàn)在把它叫做類腦的人工智能,是腦啟發(fā)的人工智能。
它跟大腦仿真的區(qū)別是,我們希望看到的人類的惡,不要被構(gòu)造在里面,盡量只保留人類善的一面。
當(dāng)然,這也是一種科學(xué)的愿景,因?yàn)榇嬖诩春侠?。在我們看來人類自私的一面,人類的惡,它可能是在自然演化的過程中被留下來的。但為什么被留下來?只有大自然知道。它可能是生存的一種機(jī)制,甚至是一種優(yōu)勢。
所以,未來超級智能實(shí)現(xiàn)的方式是多種多樣的。可能最先到來的是融合了人類的智慧,輔以人工智能的技術(shù)而產(chǎn)生的具有超級決策能力的超級智能體。
但是在我看來它不是真正意義的超級智能,真正意義的超級智能是,智能本身不依賴于人類的智慧,而是受到人類智慧的啟發(fā)。比如,基于機(jī)器的純?nèi)斯ぶ悄埽换蛘邤?shù)字生命,它已經(jīng)脫離了人類生物的個(gè)體,而以一種純機(jī)器優(yōu)化的方式去運(yùn)行,這種意義的超級智能可能是更純粹的超級智能,當(dāng)然可能也是風(fēng)險(xiǎn)最大的超級智能。
作為一個(gè)人工智能的研究者,我并不那么期待成為一個(gè)真正意義的數(shù)字人。而且我相信對于很多人來說,比如我的壽命就只有90歲,他可能真的非常甘于我的壽命只有90歲。而且,數(shù)字世界可能是未知的。如果未來我們的生命停留在數(shù)字世界,甚至可能它的存在與否就取決于別人了。
在現(xiàn)實(shí)生活中,我們還可以自己做決策。生活在數(shù)字世界中,可能更容易被算法干擾,如果別人修改了自己的大腦連接模式,在數(shù)字世界當(dāng)中,我還是不是自己?可能存在這種風(fēng)險(xiǎn)。
但是,從另一個(gè)角度來說,未來現(xiàn)實(shí)世界中,會(huì)不會(huì)存在人工智能生命?若存在,人類能不能接受?
08
當(dāng)超級智能看待人類
像人類看待螞蟻
你能接受嗎?
未來人類很可能不再是這個(gè)世界上智慧水平最高的物種,但是我們能不能夠接受這個(gè)現(xiàn)實(shí)?我們應(yīng)該做何準(zhǔn)備?
某種程度上來說,現(xiàn)代意義的人類是以種族滅絕的形式,在毀滅了最接近人類的物種的基礎(chǔ)上,繁衍出來的現(xiàn)代人類社會(huì)。所以從這個(gè)意義上來說,真正的人類社會(huì),在歷史上其實(shí)已經(jīng)做過一次抉擇——人類是不能夠接受的。
但我希望未來的人類,能夠做好準(zhǔn)備。在我看來,未來通用智能、超級智能到來的時(shí)候,智能水平可能會(huì)遠(yuǎn)遠(yuǎn)超越人類。未來,超級智能看到人類,可能就像今天的人類看到螞蟻一樣。螞蟻其實(shí)很有智慧,甚至有社會(huì)智能。曾經(jīng)有神經(jīng)生物學(xué)家說過,螞蟻社會(huì)合作的模式,是人類社會(huì)合作的典范。但是即便在這種認(rèn)知的情況下,人類又是如何去對待螞蟻這樣的智能生命的存在的?
世界上人和螞蟻的比例是1:100萬。但是我們是如何去忽略這樣龐大的生命群體的存在的?更何況不只是螞蟻,我們又是如何對待猴子、黑猩猩的?
所以,當(dāng)超級智能看待人類,如人類現(xiàn)在看待螞蟻一樣,我們憑什么說超級智能應(yīng)當(dāng)給人類留有生存的空間?
而且,如果它是真正的超級智能,它也有可能是超級利他的、道德的。所以,對于超級智能實(shí)現(xiàn)超級利他,我很有信心。但是對于人類能否準(zhǔn)備好,接受超越人類智慧水平的另外一類生命的產(chǎn)生,我很沒信心。
因?yàn)檎嬲赖碌漠a(chǎn)生對于一個(gè)人工智能來講,只要它學(xué)到人類產(chǎn)生自我的意識(shí),能夠區(qū)分自我和他人,產(chǎn)生認(rèn)知和情感的共情,在這個(gè)基礎(chǔ)之上產(chǎn)生道德的直覺,進(jìn)而產(chǎn)生利他、道德的推理,它就有可能實(shí)現(xiàn)超級利他。
但是我問了很多朋友,我的學(xué)生、我的同事等,很多人是非常難接受這個(gè)社會(huì)當(dāng)中存在智能水平遠(yuǎn)遠(yuǎn)超過人類的智能體的存在的。所以,現(xiàn)在超級智能的演化是在不斷加速的,但是人類觀念、思想的進(jìn)化速度遠(yuǎn)遠(yuǎn)趕不上超級智能進(jìn)化的速度。
最終人類和人工智能是不是能夠和諧共生,我覺得不在于超級智能,很可能在于人類本身。如果人類自己要作,最終結(jié)果非常難說。
所以,人類需要變革。
人類要給其它的生命留有余地。
違法和不良信息舉報(bào)投訴電話:0377-62377728 舉報(bào)郵箱:fbypt@ex12580.com
網(wǎng)絡(luò)警察提醒你 a>
中國互聯(lián)網(wǎng)舉報(bào)中心
網(wǎng)絡(luò)舉報(bào)APP下載
掃黃打非網(wǎng)舉報(bào)專區(qū)