9月11日,HICOOL2021全球創(chuàng)業(yè)者峰會在京舉辦,會后北京智源人工智能研究院理事長張宏江接受了新京報的專訪,就目前人工智能的現(xiàn)狀和發(fā)展分享了自己的看法。
智源人工智能研究院是在科技部和北京市委市政府指導和支持下的新型研究機構。張宏江表示,建立智源研究院的初衷就是保持和發(fā)展北京市在人工智能科研和創(chuàng)新方面的領軍地位,建立不到三年取得的成績還算令人滿意。
近年來,人工智能發(fā)展迅速,但在隱私、數(shù)據(jù)安全、算法推薦等方面仍存在一些技術悲觀論。對此,張宏江表示,技術帶來的算法推薦、偏見等隱憂是可控的,數(shù)據(jù)安全和隱私保護也是未來技術發(fā)展的基本原則,解決這類問題需要建立一個共識,“這種共識就是,我們一定要保護個人的隱私,這并不意味著我們人工智能不能用個人的數(shù)據(jù),而是一定要在當事人知情的情況下,用完后一定不要侵犯這個人的隱私,這都是基本的原則。”
而對于企業(yè)的數(shù)據(jù)安全,他期待未來能夠把這種共識變成企業(yè)的規(guī)則,嵌入到企業(yè)的服務設計中,除此之外更重要的是法律方面的完善,“不可能有任何一個機構能夠控制所有企業(yè)的行為或者個人的行為,最后控制個人和企業(yè)行為的一定是法律,而不是行政手段?!?nbsp;
提到AI偏見,張宏江認為這不是個負面詞匯,“AI偏見是基于數(shù)據(jù)的偏見,未來通過數(shù)據(jù)的不斷補充,這方面的問題也可以解決?!?nbsp;
關于人工智能的未來,在張宏江看來,還有很大的增長空間,大模型時代的到來將為人工智能領域帶來非常大的變化。
所有事情都要在保護和發(fā)展中達成一種共識
新京報:前不久,網信辦出臺了規(guī)定,嚴管企業(yè)的算法推薦,你怎么看待這件事?算法推薦算是人工智能帶來的負面影響嗎?
張宏江:推薦算法本身是人工智能的一個非常好、非常有效的應用,有問題的是算法背后的人,推薦什么一定是由設計算法的團隊來確定的,那么它是基于用戶習慣來推薦還是針對某個法律要求來推薦,其實是可控的。
比如在購物平臺購買推薦、天氣預報推薦就是比較好的應用,這個算法一定是有用處的,而且大大地幫人提高效率,只是說把它用在什么地方,這是人可以控制的。
新京報:隨著AI技術的發(fā)展,出現(xiàn)了很多代替人的技術,比如無人駕駛、智能家居包括和我們相關的AI采訪,未來人工智能和人類的關系是怎樣的?
張宏江:我們?yōu)樾氯A社做了一個AI記者,AI永遠是人的工具,目前我們還看不到AI有意識的那一天。
新京報:人工智能被越來越多地運用于決策制定,比如面試評估、風險評估、信貸預測等,人們普遍認為沒有意識、情感的AI會做出更公平中立的決策,但最近有研究顯示存在AI偏見,你怎么看?
張宏江:AI偏見是目前做AI的服務和產品工程領域的人都在花時間留意的,“偏見”這個詞在英文里面是bias,這是一個中性詞,不是負面的詞,偏見是長大過程中形成的概念。如果你把一個孩子放在可控的環(huán)境里面長大,他就只知道的環(huán)境里面他被教育的事情,比如你從來沒有看過黑人,你看黑人會問出一些“他是不是人”這種非常蠢的問題,比如你就在北京長大,從來沒有聽別人說過外地的方言,你認為這個世界說的話就應該是普通話,那你聽到方言的時候,就會覺得很奇怪,這也是一種偏見。
所以,偏見這件事情跟你有沒有接觸過,你的形成過程,你的知識是否完備有關。人工智能的偏見很大程度上是因為人工智能的訓練本身靠數(shù)據(jù)來做,有些數(shù)據(jù)沒有,有些數(shù)據(jù)太強都可能形成偏見。
新京報:所以,還是數(shù)據(jù)不夠全面,未來能夠解決這個問題嗎?
張宏江:當然,原來人臉識別對于女性不友好,識別率不高或者是準確率不高,是因為它的數(shù)據(jù)不夠多,多放點女性的數(shù)據(jù)進去,在訓練中再加以調整,就可以解決。
新京報:你也提到AI是建立在數(shù)據(jù)的基礎上,近兩年,數(shù)據(jù)保護受到越來越多的重視,不管是個人隱私還是企業(yè)數(shù)據(jù)上,如何平衡數(shù)據(jù)保護和技術發(fā)展的關系?
張宏江:這塊也是智源研究院一開始就非常注意的一個方面。我們在2018年年底成立以后到2019年5月,就發(fā)布了一個《人工智能北京共識》,談了15個原則,很重要一條就是關于數(shù)據(jù)和隱私保護。隨著人工智能的普及,就像移動互聯(lián)網的普及一樣,人工智能的普及一定會把數(shù)據(jù)保護和隱私保護帶到日常當中來,我們所有的事情都一定要在保護和發(fā)展中去達成一種共識或妥協(xié)。
這種共識就是我們一定要保護個人的隱私,當然并不意味著我們人工智能就不能用個人的數(shù)據(jù),但是一定要在當事人知情的情況下,用完以后一定不要侵犯這個人的隱私,這都是基本的原則。所以,在立法這個層面當中,也經過了多年的考慮,我們有研究機構專門研究隱私、大數(shù)據(jù)、AI之間的政策和倫理這一系列的內容。我相信經過大家的研究,會達到都能夠接受的共識。然后能夠在倫理、法規(guī)方面有所建樹。
新京報:這其中有一個問題是,現(xiàn)在很多數(shù)據(jù)存在企業(yè)手里,我們怎么去管控這個企業(yè)去維護個人的利益?
張宏江:完全可以用法律法規(guī)手段做這件事,除此之外,智源在大力推廣的就是在企業(yè)中建立共識,讓這種共識變成企業(yè)的規(guī)則、企業(yè)的規(guī)范。這種規(guī)范包括把我剛才說的這些原則嵌入到服務設計中去,不可能有任何一個機構能夠控制所有企業(yè)的行為或者個人的行為,最終一定是法規(guī)法律來規(guī)范個人和企業(yè)的行為,而不是說簡單的行政手段,因為行政手段也跟不上技術的發(fā)展。
人工智能大模型時代到來,未來人工智能還有很大的發(fā)展空間
新京報:那你覺得現(xiàn)在進入后疫情時代,AI將會發(fā)揮怎樣的作用?另外你怎么看待最近的元宇宙概念?
張宏江:我想在疫情時代,大家開始隔離,減少物理上的活動,減少在工作場所的聚集,這樣其實推動了虛擬辦公的發(fā)展,像騰訊會議、美國的ZOOM、微軟一系列辦公的技術得以廣泛的應用,這背后其實也有很多是AI在驅動。經過一年半的疫情,人們逐漸適應了遠距離的交流、辦公,我想也會讓人們改變一些行為的方式,這是為什么有很多美國的企業(yè)到現(xiàn)在還都是遠程辦公,企業(yè)對時間效率非常在意,科研開發(fā)的效率是否有所降低?事實上是有所改善,而不是降低。
人們習慣的改善,我認為未來會很大程度上影響到新技術的發(fā)展,也會推動AI的發(fā)展,而AI反過來也是這樣。另外,元宇宙的背后一定是互聯(lián)網、AI、區(qū)塊鏈的驅動。
新京報:你未來最期待的人工智能技術是什么?
張宏江:我在大會上講的大模型的技術,就是語言大模型,它的核心在于以前在自然語言的任何應用上,包括圖形的任何應用上,都會需要安置一定的應用場景來訓練自己的模型,形成了無數(shù)多個小模型。大模型把大量的語料放在一起,通過大規(guī)模的計算,搭起了1.7萬億的參數(shù)大模型,從而使得在不同的應用里面,只需要一些具體的調試,就能夠應用。
這背后的話是什么意思?相當于100年前,建個工廠的話,第一件事買個發(fā)電機自己建發(fā)電廠,要不然的話就沒有電。今天做大模型的意思就是相當于100年前所有工廠把自己發(fā)電機拆掉,接的是電網。大模型就是智能源,以后接上它就可以做很多事情,這帶來的變化實際上是非常有意義的,也會讓我們看到無論機器翻譯、對話甚至設計,說一句話做一個設計圖,AI自動把圖設計出來?;蛘呶野l(fā)朋友圈的時候想配上一首詩,這些大模型都能夠做。
所以,整體來說是潛移默化的。
新京報:最后一個問題,智源研究院當時建立的初衷是什么?這三年有沒有達到你的預期?
張宏江:初衷就是保持和發(fā)展北京市在人工智能科研和創(chuàng)新方面的領軍地位,我們是通過挖掘北京市的科研人員,把他們變成智源學者,帶動北京的科研,進一步靠創(chuàng)立創(chuàng)新中心的方式,讓創(chuàng)業(yè)成果變成創(chuàng)業(yè)公司,逐漸挖掘出商業(yè)價值。
三年下來的話,尤其大模型的發(fā)布,還不錯。
新京報貝殼財經記者 宋美璐 編輯 徐超 校對 賈寧