• <track id="6sua3"></track>

  • <menuitem id="6sua3"></menuitem>
  • <menuitem id="6sua3"></menuitem>

    <progress id="6sua3"><bdo id="6sua3"></bdo></progress>
    <samp id="6sua3"></samp>

        1. <samp id="6sua3"></samp>

            最新研發模擬人工智能芯片:能效14倍于傳統芯片提升語音識別效率

            2023-08-25 11:55:57     來源:中新網

            中新網北京8月24日電 (記者 孫自法)國際著名學術期刊《自然》最新發表一篇計算科學論文,研究人員報道了一種能效為傳統數字計算機芯片14倍的模擬人工智能(AI)芯片。研究顯示,這一由美國IBM研究實驗室開發的芯片在語音識別上的效率超過通用處理器,該項技術或能打破當前AI開發中因對算力性能和效率的需求而遇到的瓶頸。

            14納米模擬AI芯片在檢測板上(圖片來自Ryan Lavine)。施普林格·自然 供圖

            該論文介紹,隨著AI技術的崛起,對能源和資源的需求也隨之上升。在語音識別領域,軟件升級極大提升了自動轉寫的準確率,但由于在存儲器與處理器之間移動的運算數量不斷增加,硬件無法跟上訓練和運行這些模型所需的數以百萬計的參數。研究人員提出的一個解決辦法是使用“存內計算”(CiM,或稱模擬AI)芯片。模擬AI系統通過直接在它自己的存儲器內執行運算來防止低效,而數字處理器需要額外時間和能源在存儲器和處理器之間移動數據。模擬AI芯片預計能極大提升AI計算的能效,但之前對此的實際演示一直缺乏。

            研究者手上拿著的14納米模擬AI芯片(圖片來自Ryan Lavine)。施普林格·自然  供圖

            論文第一作者和通訊作者、IBM研究實驗室S. Ambrogio和同事開發了一個14納米的模擬AI芯片,在34個模塊(tile)中含有3500萬個相變化內存單元。研究團隊用兩個語音識別軟件在語言處理能力上測試了該芯片的效率,這兩個軟件分別是一個小網絡(Google Speech Commands)和一個大網絡(Librispeech),并在自然語言處理任務上與行業標準進行對比。小網絡的性能和準確率與當前的數字技術相當。對于更大的Librispeech模型來說,該芯片能達到每秒每瓦12.4萬億次運算(Tera Operations),系統性能估計最高能達到傳統通用處理器的14倍。

            用來制造模擬AI芯片的300毫米晶圓(圖片來自Ryan Lavine)。施普林格·自然  供圖

            《自然》同期發表同行專家的“新聞與觀點”文章稱,該研究在小模型和大模型中同時驗證了模擬AI技術的性能和效率,支持其有望成為數字系統的商業可行的替代選擇。(完)


            科技新聞傳播、科技知識普及 - 中國科技新聞網
            關注微信公眾號(kjxw001)及微博(中國科技新聞網)
            微信公眾號
            微博

            免責聲明

            中國科技新聞網登載此文出于傳遞更多信息之目的,并不意味著贊同其觀點或證實其描述。文章內容僅供參考,不構成投資建議。投資者據此操作,風險自擔。


            推薦閱讀
            已加載全部內容
            點擊加載更多
            www.97sese.com.