• <track id="6sua3"></track>

  • <menuitem id="6sua3"></menuitem>
  • <menuitem id="6sua3"></menuitem>

    <progress id="6sua3"><bdo id="6sua3"></bdo></progress>
    <samp id="6sua3"></samp>

        1. <samp id="6sua3"></samp>

            當計算力爆發,AI或將迎來“開掛”節奏

            2020-01-02 17:49:27     來源:科技日報     作者: 華凌

            科技日報記者?華凌?

            ?人工智能被稱為未來十大科技之一,技術上取得的進步將推進人類社會邁入更加智慧的世界。如果說十年前人工智能還是“草色遙看近卻無”,如今已是“百花齊放春滿園”。業內人士將算法、數據和算力視為推動人工智能發展三大要素,其中將算力形容是支撐人工智能走向應用的“發動機”。

            近日,臉譜人工智能副總裁杰羅姆·佩森蒂在接受《連線》雜志采訪時,談到人工智能發展和計算能力的問題。基于OpenAI 最近指出“高級人工智能所需的計算能力每3個半月翻一番”的狀況,他認為“科研成本的持續上漲,會導致在該研究領域碰壁,我們到了一個需要從優化、成本效益等方面考慮的地步”。

            那么,為何人工智能需要如此強大的計算能力;計算能力是否會限制人工智能的發展;我們能否不斷滿足人工智能持續擴大的計算需求??

            計算力也是生產力??

            “2016年3月,谷歌人工智能阿爾法(AlphaGo)戰勝韓國棋手李世石時,人們慨嘆人工智能的強大,而其背后巨大的‘付出’鮮為人知:數千臺服務器,上千塊CPU,高性能顯卡,以及對弈一場棋所消耗的驚人電量。”遠望智庫人工智能事業部部長、圖靈機器人首席戰略官譚茗洲在接受科技日報記者采訪時表示。

            為何如此耗費算力?具體而言,在經典的馮·諾伊曼計算機架構中,存儲單元和計算單元涇渭分明。運算時,需要將數據從存儲單元讀取到計算單元,運算后會把結果寫回存儲單元。在大數據驅動的人工智能時代,AI 運算中數據搬運更加頻繁,需要存儲和處理的數據量遠遠大于之前常見的應用。當運算能力達到一定程度,由于訪問存儲器的速度無法跟上運算部件消耗數據的速度,再增加運算部件也無法得到充分利用,即形成所謂的馮·諾伊曼“瓶頸”,或“內存墻”問題。這就如同一臺馬力強勁的發動機,卻因為輸油管的狹小而無法產生應有的動力。

            譚茗洲指出,“當前隨著人工智能算法模型的復雜度和精度愈來愈高,互聯網和物聯網產生的數據呈幾何倍數增長,在數據量和算法模型的雙層疊加下,人工智能對計算的需求和挑戰越來越大。無疑,人工智能走向深度學習,計算力已作為評價人工智能消耗的重要成本。計算力即是生產力,甚至是一種權力。”

            譚茗洲說,現在人工智能運用深度學習的框架,多數時依賴大數據進行科研訓練,形成有效模型,這些都十分消耗計算力。另外,在區塊鏈上,AI也會消耗更多的計算力,如挖礦,主要運用計算解密碼挖比特幣。

            “相比云計算和大數據等應用,人工智能對計算力的需求幾乎無止境。”中國工程院院士、浪潮集團首席科學家王恩東指出。

            據介紹,人工智能最大的挑戰之一是識別度不高、準確度不高,提高準確度就要提高模型的規模和精細度,提高線下訓練的頻次,這需要更強的計算力。準確度也是算出來的,比如大型互聯網公司或者知名人工智能創業公司,有能力部署規模比較大的人工智能計算平臺,算法的模型已經達到千億參數,萬億的訓練數據集規模。?

            創新體系結構突破瓶頸?

            顯然,頻繁的數據搬運導致的算力瓶頸及功耗瓶頸,已經成為對更為先進算法探索的限制因素。而計算力瓶頸對更先進、復雜度更高的?AI?模型研究產生影響。

            據了解,最先進的自然語言處理模型XLNet有約4億模型參數,而據估算,人腦中細胞間互聯軸突個數在百萬億到千萬億數量級,兩者相差約六個數量級。顯然AI在認知問題上離我們追求的所謂通用人工智能還有巨大差距,預計將需要計算能力和計算系統的能源效率比現在至少提高幾個數量級。因此人工智能要進一步突破,必須采用新的計算架構,解決存儲單元和計算單元分離帶來的算力瓶頸。

            王恩東曾指出,“計算力的提升對體系結構提出挑戰。在半導體技術逐步接近極限的情況下,計算機發展迎來體系結構創新的黃金期,計算力的提升將更多通過體系結構創新來滿足。”

            譚茗洲說,目前人工智能本身計算框架的提升對計算力很有效,但很多無用計算較多。現在人工智能還處在像不斷灌水一樣輸數據調參數‘試錯、在猜’的階段,是個“黑盒子”模式,特別在圖片視頻方面消耗很多能量,而其中真正用在有效方面的計算卻不多,非常浪費能源。今后AI有待在“可解釋性”上突破,搞清前面什么原因導致后面的結果,這樣可以精準運用數據和算力,大大減少運算量。這是目前重要的研究課題,對深度學習的推動作用力非常大。

            2020年伊始,阿里達摩院發布《2020十大科技趨勢》報告顯示,在人工智能方面,計算存儲一體化,類似于人腦,將數據存儲單元和計算單元融合為一體,能顯著減少數據搬運,極大提高計算并行度和能效。

            然而,計算存儲一體化的研究無法一蹴而就。這個報告提出策略,對于廣義上計算存儲一體化計算架構的發展,近期策略的關鍵在于通過芯片設計、集成、封裝技術拉近存儲單元與計算單元的距離,增加帶寬,降低數據搬運的代價,緩解由于數據搬運產生的瓶頸;中期規劃是通過架構方面的創新,設存儲器于計算單元中或者置計算單元于存儲模塊內,可以實現計算和存儲你中有我,我中有你;遠期展望是通過器件層面的創新,實現器件即是存儲單元也是計算單元,不分彼此,融合一體,成為真正的計算存儲一體化。近年來,一些新型非易失存儲器,如阻變內存,顯示了一定的計算存儲融合的潛力。

            據介紹,計算存儲一體化正在助力、推動算法升級,成為下一代?AI?系統的入口。存內計算提供的大規模更高效的算力,使得算法設計有更充分的想象力,不再受到算力約束。從而將硬件上的先進性,升級為系統、算法的領先優勢,最終加速孵化新業務。?

            協同融合資源集中發力降低成本?

            計算力會限制人工智能的發展嗎?“目前的階段還談不上限制,不過計算力確實提高參與人工智能的門檻,目前一場AI實驗,少則幾千美金,高則幾百萬美金,甚至更多,對研發人員來說,以前有個筆記本電腦就夠用,但現在可不行了。”譚茗洲指出。

            例如,目前最先進的自然語言處理模型XLNet,每次訓練需要數百個谷歌深度學習加速器TPU運算三天,耗資超過10萬美元。

            要想促進算力飛速發展最需要什么?譚茗洲說,美國電視劇《蝙蝠俠》中小伙子問蝙蝠俠“你為什么有超能力”?蝙蝠俠答道,“因為我很有錢。”而現在要擁有AI的研發能力和未來超能力,從實際來講就要“砸”錢,這是非常需要花錢的領域。

            另外,有個好消息是,目前量子計算機的發展已經超越傳統計算機的摩爾定律,以傳統計算機的計算能力為基本參考,量子計算機的算力正在以雙重指數的速度迅速發展。

            業內人士預計,量子處理器對于算力的改變將不可避免,并一定具有爆發性,以至于谷歌量子人工智能實驗室主任哈特穆特·內文這樣描述——“開始看起來沒有什么明顯的變化,沒什么變化……突然間,你會被嚇到尖叫,瞬間進入一個不可思議的世界!”

            據介紹,在計算力爆發之前的很長一段時間,產生數據的場景隨著互聯網的發展滲透到生活、生產的各個角落,并且隨著通訊技術的進步,尤其是5G的商用,使得產生數據的基礎場景覆蓋面和深度達到新的層次,數據的生產也將達到一個新的數量級。

            最后,譚茗洲表示,未來人工智能的突破,除了不斷提升技術本身之外,還需要全球各國協同創新,融合發展,探索新的合作模式,如采取共享思維,調動世界各方面的計算資源集中發力,以降低計算的巨大成本。?

            或許在不久的未來,人工智能將迎來“開掛”的節奏。

            科技新聞傳播、科技知識普及 - 中國科技新聞網
            關注微信公眾號(kjxw001)及微博(中國科技新聞網)
            微信公眾號
            微博

            免責聲明

            中國科技新聞網登載此文出于傳遞更多信息之目的,并不意味著贊同其觀點或證實其描述。文章內容僅供參考,不構成投資建議。投資者據此操作,風險自擔。


            推薦閱讀
            已加載全部內容
            點擊加載更多
            www.97sese.com.