欧美人与性囗牲恔配,久久亚洲AV,国产区一二三,色综久久

云服務(wù)

熱門搜索: 防爆監(jiān)控 電動機 防爆暖通 防爆風(fēng)機

首頁 行業(yè)資訊 政策解讀 電商會議 人物觀點 電商數(shù)據(jù) 電商干貨 電商報 博文資訊 客戶庫 企業(yè)庫
首頁>新聞詳情

曾毅最新解讀AIGC:從ChatGPT到Sora,哪些認知需要重啟?

2024年4月25日 來源:防爆云平臺--防爆產(chǎn)業(yè)鏈服務(wù)平臺 防爆空調(diào) 防爆電氣 防爆電機 防爆風(fēng)機 防爆通訊 瀏覽 487 次 評論 0 次

網(wǎng)易財經(jīng)智庫《C位觀察》節(jié)目一一看C位大佬解讀C位大事。獨家對話智庫頭部經(jīng)濟學(xué)家、企業(yè)家、各個領(lǐng)域 KOL,解讀時下熱議的財經(jīng)和社會問題。

NO.043 對話中國科學(xué)院自動化研究所研究員、類腦智能實驗室副主任、人工智能倫理與治理中心主任、聯(lián)合國人工智能高層顧問機構(gòu)專家曾毅

60S要點速讀:

1、生成式人工智能技術(shù)的發(fā)展,并沒有真正做到科學(xué)上的突破。

2、生成式AI只是一個信息處理系統(tǒng)。它會犯一堆人類不犯的錯誤,大家要準(zhǔn)備好。

3、當(dāng)未來人類的部分工作被人工智能接替,紅利分配的方式可能也應(yīng)該發(fā)生變化。

4、對于企業(yè)來說,基礎(chǔ)模型的構(gòu)建還有很大的機會,還存在很大的顛覆性的可能;另外,相較于傳統(tǒng)的生成式AI大模型,終端側(cè)的生成式AI在應(yīng)用方面更值得探索。

5、沒有倫理安全框架的人工智能,是最危險的一種人類發(fā)明。

6、當(dāng)超級智能看待人類,像人類看待螞蟻,你能接受嗎?人類需要變革。

正文:

-1985年,微軟推出 Windows 1.0,通過實現(xiàn)直觀的用戶圖形界面和鼠標(biāo)操作,開啟了 PC 全面普及的新時代;

-2008年,iPhone 3G正式發(fā)售,iPhone 3G向第三方開發(fā)商開放了App Store,從此開啟了移動互聯(lián)網(wǎng)時代;

-2022年底,OpenAI發(fā)布大語言模型ChatGPT,并迅速破圈,成為史上用戶增長最快的消費級應(yīng)用程序,生成式人工智能模型隨之爆火。

微軟公司創(chuàng)始人比爾?蓋茨將OpenAI 的 GPT 模型,與“圖形用戶界面”的誕生相提并論;

英偉達CEO黃仁勛將它看作“AI的iPhone時刻來臨”。

-2024年2月, OpenAI推出全新的生成式人工智能模型——首個文生視頻模型Sora,再次震撼世界。

01

生成式人工智能技術(shù)并沒有真正做到科學(xué)上的突破

生成式人工智能Sora 在生成數(shù)據(jù)的真實性、連續(xù)性上的進步是明顯的,主要進展包括但不限于采用了更有效的對視頻數(shù)據(jù)統(tǒng)一表示與融合訓(xùn)練的算法,以及用生成式AI來豐富用于訓(xùn)練的視頻數(shù)據(jù)等,雖然相關(guān)的技術(shù)都不是此次Sora首次提出的,但是在若干技術(shù)的高效組合的工程化方面,達到了前所未有的用戶感知體驗。尤其是將視覺和聽覺數(shù)據(jù)跨模態(tài)生成,所帶來的用戶體驗是更上一層樓的。

但是,生成式人工智能技術(shù)的發(fā)展,并沒有真正做到科學(xué)上的突破。

生成式人工智能,只是一個工程技術(shù)組合優(yōu)化的創(chuàng)新。它把很多已知的科學(xué)技術(shù),通過大規(guī)模工程優(yōu)化的方法,達到了用戶體驗方面的顯著提升,在用戶體驗方面取得了一個前所未有的高度。

從用戶的角度來說,它可以做很多事情,甚至給人一種感覺,它近乎接近人類。比如ChatGPT能回答一般智力的人可能也比較難回答的問題,特別是在知識的廣度方面。的確,生成式人工智能在用戶體驗上取得了很大的提升,但是,這不是基于科學(xué)技術(shù)突破所帶來的提升。

1950年,“計算機之父”艾倫·麥席森·圖靈(Alan Mathison Turing)發(fā)表了一篇文章——《計算機器與智能(Computing Machinery and Intelligence)》。其中,他提到判斷人工智能是否達到人類水平的方式,是將TA(人工智能)放在一個屋子里,找一個人與TA對話,當(dāng)這個人無法分辨TA是人還是機器的時候,我們可以判斷人工智能達到了人類的水平。

所以,從某種程度上來說,人工智能起源于一個欺騙。2014年,一個俄羅斯團隊開發(fā)的一款名為“尤金·古特曼(Eugene Goostman)”的計算機軟件首次通過了測試,成功地讓33%的被試相信它是一個13歲的男孩。所以,第一次騙人成功的機器并不是ChatGPT。

除此以外,生成式人工智能背后的技術(shù)Next Token Prediction,以及基于人類反饋的強化學(xué)習(xí)的技術(shù)早就存在。比如,Next Token Prediction是第一代人工智能的創(chuàng)建者就提出的數(shù)學(xué)模型,在我看來,它對于真實世界的呈現(xiàn)或理解可能是一種過度的簡化。

所以,生成式人工智能技術(shù)的創(chuàng)新,并非顛覆性的科學(xué)突破。事實上,對于生成式人工智能來說,只要數(shù)據(jù)量足夠大、神經(jīng)網(wǎng)絡(luò)的參數(shù)足夠多,那么它在用戶體驗上都能達到相當(dāng)高的水平。但是,這并不能說明人工智能技術(shù)的進展,這只能說明以前的人工智能沒有機會應(yīng)用到互聯(lián)網(wǎng)規(guī)模的數(shù)據(jù),以及幾乎接近人腦規(guī)模的這種連接和參數(shù)的量,所以在用戶體驗上沒有經(jīng)歷過這樣的體驗。

而且,現(xiàn)在大家使用的這種所謂的生成式大模型,它其實已經(jīng)是一個工程的產(chǎn)品,它背后不僅僅是生成式的人工智能,還要結(jié)合一些其他技術(shù)。

比如,大家最初使用 ChatGPT的時候,讓它推薦人類歷史上引用率最高的科學(xué)文獻,它可能推薦了10篇文獻,但是當(dāng)我們?nèi)プ龊藢嵉臅r候,會發(fā)現(xiàn)這10篇文獻根本不存在。

因為生成式人工智能,它只是一個看似智能的大規(guī)模信息處理系統(tǒng),它無法區(qū)分任務(wù),它把所有的任務(wù)都定義為生成式的任務(wù)。既然是生成式的任務(wù),就不能跟原始的數(shù)據(jù)一模一樣。但是“查閱文獻”本質(zhì)上是一個信息檢索類的任務(wù)。所以作為一個服務(wù)系統(tǒng),它就要把生成式人工智能技術(shù),跟信息檢索等技術(shù)去結(jié)合。

所以從這個意義上來說,現(xiàn)在服務(wù)于大眾的生成式人工智能模型,本質(zhì)上是一個大規(guī)模的工程化系統(tǒng)。它是一個現(xiàn)有技術(shù)的工程化的組合優(yōu)化的創(chuàng)新,是大規(guī)模數(shù)據(jù)和大參數(shù)的積累,帶來的用戶體驗極大提升。

微軟公司聯(lián)合創(chuàng)始人比爾·蓋茨將 ChatGPT與當(dāng)年的圖形用戶界面相提并論;英偉達CEO黃仁勛也將它看作“AI的iPhone時刻來臨”,但是在我看來,它們的相似之處更多在于用戶體驗方面——都給用戶帶來了耳目一新的感覺。而從科學(xué)原理角度來說,AIGC沒有太多新進展。

02

生成式人工智能不該被“過度承諾”

認為“生成式AI在處理任務(wù)時就像真正的人一樣”,這是一種幻覺。因為AIGC大模型會犯很多人都不會犯的錯。

比如,“恭祝大家龍年快樂”,這句話有幾個字?這個問題,ChatGPT就不一定能數(shù)對。

它最開始可能會回答“7個字”,我們告訴它輸錯了,它會告訴你,“是8個字”,但是,當(dāng)我們再次繼續(xù)告訴它輸錯了的時候,它會重新告訴你,“是7個字”。

其實,這與生成式人工智能的編碼有關(guān)。我們在處理信息的時候,一個字符就是一個漢字。但是,它會把英文、中文等不同的語言都轉(zhuǎn)換成Token(模型輸入的基本單位)去表示,所以生成式人工智能背后的技術(shù)叫Next Token Prediction。所以,他只是一個處理器,它并沒有真正理解。

當(dāng)然,若讓ChatGPT編一個小程序,來統(tǒng)計文本中的字數(shù),它完全沒問題。我們可以利用這個小程序,再按照人的邏輯去處理之前我們提到的字數(shù)問題。

但是,不可否認的是,它有一定的創(chuàng)造能力。在創(chuàng)作藝術(shù)作品方面,有時候會給人耳目一新的感覺。但是,有時候很多細節(jié)也經(jīng)不起推敲。比如某些具有視覺生成功能的大模型,讓它創(chuàng)作一幅楷書作品“和諧共生”,它可以生成一幅作品,但是這四個字可能是錯的,可能只有其中的1個字或3個字。

背后的原因,除了它沒有真正理解之外,關(guān)鍵是對于中國書法作品,它沒有足夠多的語料。假設(shè)標(biāo)注這個字是“和”,可能需要輸入幾千張幾萬張“和”,如此級別的語料喂進去,它可能才能夠?qū)W好。

所以,當(dāng)數(shù)據(jù)量不夠多的時候、當(dāng)沒有足夠多的人類反哺的時候,我們甚至想象不到它會犯什么錯誤。

現(xiàn)在很多人說,“人類歷史上見證了通用人工智能的誕生”、“人工智能系統(tǒng)已經(jīng)全面超越了人類”,其實都沒有。生成式人工智能既不通用,也沒有形成真正的理解。它現(xiàn)在仍然是基于人類智慧的一個產(chǎn)出,脫離了人類大規(guī)模的數(shù)據(jù),它不太能夠真正工作。它并不能在任何場景下,解決我們所有的問題。

它只是一個信息處理系統(tǒng)。它會犯一堆人類不犯的錯誤,大家要準(zhǔn)備好。我們應(yīng)該謹慎地、適度地使用它。比如,與Sora相關(guān)的生成式人工智能技術(shù),可以降低人工影視、娛樂、文化產(chǎn)品等產(chǎn)業(yè)的開發(fā)成本和門檻,所以我國的人工智能研究和產(chǎn)業(yè),有能力一定要盡快趕上;但是我們也需要特別指出,這并不意味著生成式人工智能已經(jīng)真正理解了我們的物理世界,并可以完全替代這些產(chǎn)業(yè)中傳統(tǒng)需要人類完成的工作。事實上,當(dāng)前Sora系統(tǒng)生成的視頻,還會犯很多違反生活與物理常識的錯誤。


所以,當(dāng)技術(shù)的發(fā)展波及到用戶、服務(wù)于用戶時,任何時候都不應(yīng)該嘗試過度的承諾。這也是人工智能發(fā)展歷史上的問題。每一次過度承諾并不一定是科學(xué)家造成的,但是在產(chǎn)業(yè)推動的過程中,過度承諾和過度宣傳,使得技術(shù)在沒有真正準(zhǔn)備好的時候,接觸了用戶,當(dāng)然,需要用戶反饋是無可厚非的,但是當(dāng)你過度承諾而又無法兌現(xiàn)承諾的時候,大家就會產(chǎn)生落差感,從而可能對此類技術(shù)失望。

比如,現(xiàn)在有一種宣傳大肆鼓吹,現(xiàn)在的人工智能已經(jīng)能夠真正模擬人類的大腦,能夠構(gòu)造數(shù)字人,以后甚至我們不需要主持人、不需要老師了,我們可以用數(shù)字人去替代等等,這些都是過度承諾。當(dāng)出現(xiàn)了過度承諾的時候,用戶往往會非常嚴格審慎地去進行體驗。

所以,還是要再次強調(diào),現(xiàn)在的生成式AI,它并沒有準(zhǔn)備好替代人類。它沒有真正達到人類的智能水平,沒有真正產(chǎn)生理解。所以,公眾不應(yīng)該對它有過高的期待,科研工作者和產(chǎn)業(yè)推動者,更不應(yīng)該去助推這種誤解。

03

未來若人類工作被AI替代

失業(yè)問題 誰來負責(zé)?

未來,隨著人工智能技術(shù)的發(fā)展,某些重復(fù)性的工作,比如那些幾乎是模板化的編程需求量可能會降低。初級程序員的需求量隨之可能會越來越少,但是基于當(dāng)前人工智能技術(shù)在發(fā)展中可能存在一定的風(fēng)險、安全隱患,測試工程師的需求量可能會增加。

但是,這并不一定是一個壞現(xiàn)象。也許確實你在做的很多這種重復(fù)性性質(zhì)的工作,它可能不是你想做的事情。如果是這樣,不如再多花點時間去思考,自己更感興趣的是什么。未來工作的意義應(yīng)該被重新定義,工作的形式應(yīng)該更多樣化,更多地發(fā)揮人的人性。由此,人將重新認識自身的意義,而不是去用工作定義自己。

但是,有些人會說,我非常愿意一輩子就在裝配線上做一個工人,我只要能夠換來收入,能夠生活,沒什么不好。

如果你的需求只是生活的收入,未來當(dāng)人工智能高度發(fā)達的時候,紅利分配的方式可能也要發(fā)生變化。


當(dāng)未來人類的部分工作被人工智能接替,這時候,紅利可能流向了人工智能的應(yīng)用方、人工智能技術(shù)的提供方;或者,可能在構(gòu)造這樣的人工智能的過程中,大量學(xué)習(xí)的數(shù)據(jù)來自于人類本身,比如來自于這部分被替代工作的工人本身的時候,我們需要考慮是否應(yīng)該分配給這部分人更多的紅利?這是社會層面需要去思考的問題。

所以,未來人工智能工作替代帶來的社會問題,誰來承擔(dān)?我初步的想法是,至少人工智能的應(yīng)用和部署方,以及人工智能的研發(fā)方,對于這種社會結(jié)構(gòu)的轉(zhuǎn)變,其實是應(yīng)該承擔(dān)部分責(zé)任的。

04

企業(yè)的機會在哪里?

(一)相較于傳統(tǒng)的生成式AI大模型

終端側(cè)的生成式AI在應(yīng)用方面更值得探索

現(xiàn)階段生成式人工智能大模型,若想在用戶體驗上提高一點點,它的代價是很大的,比如,把精確度從96.5%提高到96.6%,數(shù)據(jù)量可能要翻上去1/3甚至1倍,換來0.1%的提升。但是,這樣的代價真的值得嗎?

相較而言,終端側(cè)的生成式人工智能,在應(yīng)用方面其實是更值得探索的。

終端側(cè)的生成式人工智能有兩點優(yōu)勢。第一,它是資源受限的,無需特別龐大的園區(qū)作為基礎(chǔ)支撐;第二,智能體的發(fā)展為其提供了更多承載渠道。人工智能的發(fā)展有一個重要的方向是具身智能,就像任何動物都有一個身體,人類也是具身智能,我們對世界的認知需要通過身體的不同部位去感知。

為什么我們看到雞蛋的時候不會拿起來把它摔一下,但是當(dāng)我們拿起一個乒乓球的時候,就會把它往地上砸?這是長時間地,通過我們外周神經(jīng)系統(tǒng)、感知系統(tǒng)跟世界交互產(chǎn)生的常識。所以,很多的世界知識通過大規(guī)模數(shù)據(jù)去喂是喂不出來的,很多認知是需要通過交互的方式去產(chǎn)生的,而這并不一定需要一個特別大的生成式大模型去支撐。也許通過端的小模型,以交互式、強反饋的方式,去提升AI的智能水平,比大模型通過迭代、依賴更多的大數(shù)據(jù)去喂哺,可能會更有效。

所以,在我看來,人工智能的發(fā)展很難越過具身智能。所以,它一定要通過端來探索和反饋,這個端可能是一個人形機器人、一只機器小狗,或是每天跟著我們的手機等,通過它不斷收集我們的個性化數(shù)據(jù),從而給我們提供更好的服務(wù)。它(端側(cè)的生成式模型)更多地是融入場景,或者是更個性化的,通過交互,獲得一個更精準(zhǔn)的用戶畫像。這不是傳統(tǒng)的、基于大規(guī)模數(shù)據(jù)統(tǒng)計的生成式大模型能夠替代的。

(二)基礎(chǔ)模型的構(gòu)建

仍有很大的機會空間

現(xiàn)在有一些人,特別是企業(yè),認為未來人工智能的機會已經(jīng)不在基礎(chǔ)模型的構(gòu)建上。他們認為這條賽道的競爭之后會聚焦在頭部幾家企業(yè),別人已經(jīng)沒有機會了。在他們看來,未來就是基于生成式大模型,去構(gòu)建基于端的服務(wù)。我不贊同這些觀點。


在我看來,當(dāng)前生成式AI在基礎(chǔ)模型方面,大家都遇到了瓶頸。當(dāng)沒有足夠多的數(shù)據(jù),并且算力提升仍然存在瓶頸的時候,智能水平的提升也必然會遭遇瓶頸。甚至更多數(shù)據(jù)的積累,似乎也難以實現(xiàn)智能水平真正的質(zhì)的飛躍。

所以,基礎(chǔ)模型的構(gòu)建,還存在很大的顛覆性的可能。

若按照已有的頭部大廠的構(gòu)建方式,去構(gòu)建一個基礎(chǔ)模型,這種工作意義確實不大,但是若采用一種全新的方式去構(gòu)建基礎(chǔ)模型,機會還是非常大的,它的潛力是非常大的。

比如,用全新的方式去使用數(shù)據(jù),極大規(guī)模地縮小可能需要的參數(shù)量,在這種基礎(chǔ)之上,再創(chuàng)新性地構(gòu)建基礎(chǔ)模型。

而事實上,真正的顛覆創(chuàng)新,很多都不來自于這些大廠。當(dāng)年大家也不看好OpenAI,2017年創(chuàng)始人之一的埃隆·馬斯克也選擇了退出,而正是在這樣的背景下,OpenAI開戰(zhàn)谷歌旗下的DeepMind,并隨后推出ChatGPT,一戰(zhàn)成名。所以,這種科學(xué)驅(qū)動的、有產(chǎn)業(yè)敏銳的創(chuàng)新者組成的團隊,反而更可能產(chǎn)生真正在基礎(chǔ)模型方面的未來顛覆式的創(chuàng)新。

某些企業(yè)之所以會說,“未來機會不在基礎(chǔ)模型的構(gòu)建上了”,是出于他們是基礎(chǔ)模型的提供方,他們認為基礎(chǔ)模型已經(jīng)構(gòu)建好了,接下去就需要大家去構(gòu)建上層應(yīng)用,把現(xiàn)有的基礎(chǔ)模型用起來。

但是,在我看來,這種觀點稍顯不負責(zé)任。上層應(yīng)用是需要做的,但是前提是基礎(chǔ)設(shè)施已經(jīng)搭建好了,而這一點仍值得商榷。在我看來,基礎(chǔ)設(shè)施遠遠沒有搭建好。

所以,當(dāng)這些頭部大廠把80%精力投入在上層應(yīng)用和基礎(chǔ)設(shè)施的進一步優(yōu)化方面時,至少應(yīng)該拿20%的人力、物力投入到真正顛覆性的創(chuàng)新中,投入到下一輪的準(zhǔn)備中。否則下一輪競賽,他們將會花更大的力量去追趕。至于到時候還剩多少機會,就很難說了。

我國很多企業(yè)的問題是,一直在等風(fēng)口。當(dāng)他們覺得有一點點微風(fēng)的時候,他們會認為太危險,絕不投入;等到風(fēng)刮起來的時候,比賽已經(jīng)結(jié)束了。

所以,中國的產(chǎn)業(yè)創(chuàng)新為什么與其他國家有較大差距?我們到現(xiàn)在為止都沒有準(zhǔn)備好去做一次真正長期的準(zhǔn)備,這是最危險的事情。當(dāng)我們看到別的企業(yè)像微軟,它可以注資百億,給一個根本沒有得到廣泛認可的小公司進行豪賭時,這樣的故事在產(chǎn)業(yè)界已經(jīng)發(fā)生了若干次。但在這個過程當(dāng)中,我還是非常納悶,中國的產(chǎn)業(yè)怎么還沒有學(xué)到呢?

05

AI的“中國時刻”何時到來:

下一輪的機會在哪里?

為什么ChatGPT沒有產(chǎn)生在中國?事實上,人工智能的發(fā)展,它從發(fā)展的范式上已經(jīng)顛覆了很多次,可以說沒有一次真正突破的科學(xué)基礎(chǔ)是來自中國。


在這種情況下,我們往往是按照別人畫的路走,所以一直在追趕,一直比的是別人放出來的服務(wù)。但是別人放出來的服務(wù),它的基礎(chǔ)設(shè)施可能是三年以前搭建好的,花了兩三年的時間在優(yōu)化它的用戶體驗、收集用戶反饋,再用大量的人工去修改。

而我們國內(nèi)的生成式人工智能,基本是一兩個月、三個月上線,三個月上線的都算是慢的。在這種情況下,用戶體驗如何跟別人比?我們根本沒有背后框架的積累。當(dāng)然,在這種情況下,我們可以追趕,但是在我看來,這種超越不是真正事實性的。也許,我們在某一兩個應(yīng)用的案例上,看上去似乎取得了比別人更好的結(jié)果,但是在我看來,這種所謂的評估,實際上都是片面的。就像一個學(xué)生參加考試,考了100分,是否能夠證明這門課他都學(xué)懂了?顯然不能,考試本身是以偏概全的考察,一張卷子上能夠容納的知識點是非常有限的。


所以,如果要真正迎來人工智能的中國時刻,就不能只是沿著別人畫的路進行追趕。

OpenAI誕生的時候不是一個簡單的延伸;Alpha Go基礎(chǔ)模型誕生的時候也不是一個簡單的延伸;當(dāng)人工智能規(guī)則系統(tǒng)在被發(fā)明出來的時候,它也不是對簡單的信息處理系統(tǒng)的一個延伸。它們都是在用另外一種思維去創(chuàng)新。

所以,中國現(xiàn)在就要布局下一次的顛覆。但是,下一次顛覆中國的機會在哪里?

其實,生成式人工智能的發(fā)展已經(jīng)證明,智能模型的本質(zhì)是需要顛覆的。在我看來,現(xiàn)在數(shù)據(jù)驅(qū)動的人工智能,不是真正意義的人工智能。因為現(xiàn)在的智能來自于人類的數(shù)據(jù),需要極大規(guī)模的數(shù)據(jù)和參數(shù)。但是同等智慧的獲取,人類并不需要如此大的數(shù)據(jù)做支撐。所以參照人類智能的本質(zhì),未來AI若要真正實現(xiàn)“智能”,當(dāng)前的智能模型是一定要從本質(zhì)上顛覆的。

未來的人工智能,究竟是基于目標(biāo)和服務(wù)驅(qū)動去訓(xùn)練的人工智能系統(tǒng);還是合乎自然演化機制,模擬人的大腦結(jié)構(gòu)、信息處理機制,從而受其啟發(fā),構(gòu)建成人工智能算法?

目前為止,全世界能夠處理各種各樣的問題,真正具有通用智能,而且能夠穩(wěn)定地工作幾十年的智能系統(tǒng),就只有人類的大腦。

大自然數(shù)億年的演化,能犯的錯誤很多都已經(jīng)犯過了,否則為什么現(xiàn)在人類的大腦進化成現(xiàn)在的樣子,而不是保留猴子大腦的結(jié)構(gòu)?正是文明發(fā)展的需要。自然演化塑造了智能,我們要從自然演化中去學(xué)習(xí)智能的本質(zhì)。人類就是最好的智能參照物,我們應(yīng)該受其啟發(fā)去構(gòu)造真正意義的智能,這才是真正意義的人工智能。

06

絕不能以發(fā)展為借口

讓人工智能無處不在!

技術(shù)的發(fā)展永遠不是中立的,特別是人工智能系統(tǒng)。

在它沒有接觸人類社會的數(shù)據(jù)的時候,它可能是無善無惡的,但是當(dāng)它接觸到人類數(shù)據(jù),它就變得有善有惡了。若我們不在倫理、安全方面規(guī)制它,它就不可能知善知惡,因為沒有人類的反饋,它沒有辦法區(qū)分善惡。

比如Sora在連續(xù)高精度視頻生成方面的進展,使得利用人工智能造假的效果到達了一個前所未有的高度,也給“眼見為實”帶來了更大的挑戰(zhàn),對于公眾而言,區(qū)分虛假信息變得難上加難。同時,視覺取證與執(zhí)法也將面臨更大的挑戰(zhàn)。所以,一方面人工智能治理相關(guān)政策發(fā)展和落實要進一步跟上;另一方面,生成式人工智能技術(shù)研發(fā)的機構(gòu)和企業(yè)要同步發(fā)展、推廣更高水平的自動化鑒偽技術(shù)與應(yīng)用。

可以說,沒有倫理安全框架的人工智能,是最危險的一種人類發(fā)明。

它可能把人類的惡通過數(shù)據(jù)學(xué)到并且去放大,并且采用負面的方式去影響社會。甚至,有些人認為,未來人工智能(超級智能時代)會像核武器一樣危險,可能造成人類社會的顛覆。

但是,在我看來,即便是超級智能沒有到來的時候,人工智能也有可能給我們帶來顛覆性的風(fēng)險。因為人工智能沒有真正理解的能力。

當(dāng)它可以利用人類的缺陷,制造人類之間的沖突時,比如以某種方式激發(fā)類似欺騙、仇恨、敵對等負面情緒。當(dāng)這些負面、虛假信息,給人類社會造成極端不信任、大范圍社會沖突的時候,它就會威脅人類生存,乃至帶來毀滅性的風(fēng)險。

而這個時候人工智能系統(tǒng)甚至還并不理解什么叫做沖突,什么叫做不信任,這是最糟糕的。當(dāng)它給人類社會大范圍地造成問題時,它甚至不明白什么叫做問題。在我看來,這是現(xiàn)階段人工智能最大的風(fēng)險。

除此之外,現(xiàn)在的人工智能仍是人類的一個輔助系統(tǒng),但是,如果它被不合理地使用,比如把它當(dāng)作一個決策系統(tǒng),替代人類的決策;再比如,當(dāng)它應(yīng)用于戰(zhàn)爭,又被黑客利用的時候,那么它就可能產(chǎn)生相當(dāng)大范圍的殺傷力,甚至給人類造成類似于核武器級別的風(fēng)險。

現(xiàn)在甚至有一種假設(shè),有人認為人工智能做決策快,所以考慮使用人工智能控制核武器。那將是世界末日。

所以,不要讓人工智能去代替人類決策,特別是關(guān)鍵的決策。人類要把自身的命運留在自身的手中,這是非常關(guān)鍵的。

所以,有很多在科學(xué)上可以實現(xiàn)的事情,但是在社會上我們都不應(yīng)該去應(yīng)用。當(dāng)然,有人會說,中國人工智能要發(fā)展起來,不要管得太死。

但是,需要強調(diào)的是,可以商討的地方是那些灰色地帶,不是紅線。比如個人數(shù)據(jù)、個人隱私的問題,就是不可跨越的紅線。所以,發(fā)展人工智能,這條紅線應(yīng)當(dāng)是非常清晰的,絕對不能以所謂的發(fā)展為借口,讓人工智能無處不在,那是非常危險的。

所以,人工智能技術(shù)的創(chuàng)新者,一定要樹立正確的價值觀。

一個人工智能的服務(wù)產(chǎn)品,從誕生到它服務(wù)于社會,中間可能只有10分鐘的時間,它馬上可以部署在網(wǎng)上,開始收集數(shù)據(jù)、獲得用戶。但是想象一下,若它背后的技術(shù)創(chuàng)新者,從未接觸過任何社會學(xué)的教育培訓(xùn),沒有任何在倫理道德方面的考量,而完全是基于好奇心而去構(gòu)建服務(wù)產(chǎn)品,這背后潛在的風(fēng)險可能是巨大的。

所以說未來人工智能的創(chuàng)新者,他需要一個綜合交叉學(xué)科的培養(yǎng),而不僅僅是對技術(shù)創(chuàng)新手段的學(xué)習(xí)。

人工智能的倫理安全,對于人工智能創(chuàng)新者不是一個選修課,而是一個必修課。

07

數(shù)字生命距離我們還有多遠?

人工智能技術(shù)的進展,并不一定能加速數(shù)字生命盡早到來。它們是兩種類型的智能,人工智能是使機器擬人化,數(shù)字生命是使人類機械化。

未來的人工智能也可能變得有生命,但是它就像一個新生兒,用自己的方式去觀察世界,像前文說到的以智能體的方式去探索世界;而數(shù)字生命是人類智能的一個刻畫、模擬和延續(xù)。

人類十幾年、幾十年的記憶存儲在我們大腦神經(jīng)網(wǎng)絡(luò)的突觸當(dāng)中,若想把突觸當(dāng)中的每一個記憶解碼出來,并且構(gòu)建在一個智能系統(tǒng)當(dāng)中,目前在科學(xué)上還做不到。但是不代表未來不可能。

所以像《流浪地球2》里面的場景,數(shù)字的圖恒宇和圖丫丫,在數(shù)字世界重建了他們的生命,這確實是未來人類一部分人延續(xù)的一種可能性。但是它現(xiàn)在還并不具備科學(xué)的完全的合理性。

但是,若構(gòu)造一個數(shù)字生命,可能人類的缺陷也被構(gòu)造在了系統(tǒng)中,而且這種缺陷可能會被放大。但是,另一種智能形式——純?nèi)斯ぶ悄?,即基于機器,使機器擬人化發(fā)展出來的智能,我們在構(gòu)造它的時候,并非真正的大腦仿真,我們現(xiàn)在把它叫做類腦的人工智能,是腦啟發(fā)的人工智能。

它跟大腦仿真的區(qū)別是,我們希望看到的人類的惡,不要被構(gòu)造在里面,盡量只保留人類善的一面。

當(dāng)然,這也是一種科學(xué)的愿景,因為存在即合理。在我們看來人類自私的一面,人類的惡,它可能是在自然演化的過程中被留下來的。但為什么被留下來?只有大自然知道。它可能是生存的一種機制,甚至是一種優(yōu)勢。

所以,未來超級智能實現(xiàn)的方式是多種多樣的??赡茏钕鹊絹淼氖侨诤狭巳祟惖闹腔?,輔以人工智能的技術(shù)而產(chǎn)生的具有超級決策能力的超級智能體。

但是在我看來它不是真正意義的超級智能,真正意義的超級智能是,智能本身不依賴于人類的智慧,而是受到人類智慧的啟發(fā)。比如,基于機器的純?nèi)斯ぶ悄?;或者?shù)字生命,它已經(jīng)脫離了人類生物的個體,而以一種純機器優(yōu)化的方式去運行,這種意義的超級智能可能是更純粹的超級智能,當(dāng)然可能也是風(fēng)險最大的超級智能。

作為一個人工智能的研究者,我并不那么期待成為一個真正意義的數(shù)字人。而且我相信對于很多人來說,比如我的壽命就只有90歲,他可能真的非常甘于我的壽命只有90歲。而且,數(shù)字世界可能是未知的。如果未來我們的生命停留在數(shù)字世界,甚至可能它的存在與否就取決于別人了。

在現(xiàn)實生活中,我們還可以自己做決策。生活在數(shù)字世界中,可能更容易被算法干擾,如果別人修改了自己的大腦連接模式,在數(shù)字世界當(dāng)中,我還是不是自己?可能存在這種風(fēng)險。

但是,從另一個角度來說,未來現(xiàn)實世界中,會不會存在人工智能生命?若存在,人類能不能接受?

08

當(dāng)超級智能看待人類

像人類看待螞蟻

你能接受嗎?

未來人類很可能不再是這個世界上智慧水平最高的物種,但是我們能不能夠接受這個現(xiàn)實?我們應(yīng)該做何準(zhǔn)備?

某種程度上來說,現(xiàn)代意義的人類是以種族滅絕的形式,在毀滅了最接近人類的物種的基礎(chǔ)上,繁衍出來的現(xiàn)代人類社會。所以從這個意義上來說,真正的人類社會,在歷史上其實已經(jīng)做過一次抉擇——人類是不能夠接受的。

但我希望未來的人類,能夠做好準(zhǔn)備。在我看來,未來通用智能、超級智能到來的時候,智能水平可能會遠遠超越人類。未來,超級智能看到人類,可能就像今天的人類看到螞蟻一樣。螞蟻其實很有智慧,甚至有社會智能。曾經(jīng)有神經(jīng)生物學(xué)家說過,螞蟻社會合作的模式,是人類社會合作的典范。但是即便在這種認知的情況下,人類又是如何去對待螞蟻這樣的智能生命的存在的?

世界上人和螞蟻的比例是1:100萬。但是我們是如何去忽略這樣龐大的生命群體的存在的?更何況不只是螞蟻,我們又是如何對待猴子、黑猩猩的?

所以,當(dāng)超級智能看待人類,如人類現(xiàn)在看待螞蟻一樣,我們憑什么說超級智能應(yīng)當(dāng)給人類留有生存的空間?

而且,如果它是真正的超級智能,它也有可能是超級利他的、道德的。所以,對于超級智能實現(xiàn)超級利他,我很有信心。但是對于人類能否準(zhǔn)備好,接受超越人類智慧水平的另外一類生命的產(chǎn)生,我很沒信心。

因為真正道德的產(chǎn)生對于一個人工智能來講,只要它學(xué)到人類產(chǎn)生自我的意識,能夠區(qū)分自我和他人,產(chǎn)生認知和情感的共情,在這個基礎(chǔ)之上產(chǎn)生道德的直覺,進而產(chǎn)生利他、道德的推理,它就有可能實現(xiàn)超級利他。

但是我問了很多朋友,我的學(xué)生、我的同事等,很多人是非常難接受這個社會當(dāng)中存在智能水平遠遠超過人類的智能體的存在的。所以,現(xiàn)在超級智能的演化是在不斷加速的,但是人類觀念、思想的進化速度遠遠趕不上超級智能進化的速度。

最終人類和人工智能是不是能夠和諧共生,我覺得不在于超級智能,很可能在于人類本身。如果人類自己要作,最終結(jié)果非常難說。

所以,人類需要變革。

人類要給其它的生命留有余地。

我來說兩句
人參與 丨 評論0條)
圖標(biāo)
注冊 登錄    
評論列表
每頁 10 條,共 0 條

品牌商品

營業(yè)執(zhí)照 | 增值電信業(yè)務(wù)經(jīng)營許可證 | 豫公網(wǎng)安備41130202000490號 | 豫ICP備19015714號-1 (版權(quán)所有 防爆云平臺 © Copyright 2009 - 2022 . All Rights Reserved.)