產(chǎn)品分類

      當(dāng)前位置: 首頁 > 其他資訊

      防止被算力“鎖死” AI進(jìn)化急需革命性算法

      發(fā)布日期:2022-04-26 點擊率:78

        “深度學(xué)習(xí)所需的大規(guī)模樣本數(shù)據(jù)對于算力產(chǎn)生巨大需求,但近日美國麻省理工學(xué)院等研究機(jī)構(gòu)的報告顯示,深度學(xué)習(xí)正在逼近算力極限,而提升算力所需的硬件、成本和對于環(huán)境的影響正變得越來越難以承受……”

        美國麻省理工學(xué)院、安德伍德國際學(xué)院和巴西利亞大學(xué)的研究人員在最近的一項研究中發(fā)現(xiàn),深度學(xué)習(xí)的進(jìn)步強(qiáng)烈地依賴于計算的增長。其結(jié)論顯示,訓(xùn)練模型的進(jìn)步取決于算力的大幅提高,具體來說,計算能力提高10倍相當(dāng)于3年的算法改進(jìn)成果。大量數(shù)據(jù)和算力是促進(jìn)人工智能發(fā)展的重要因素,但是研究人員認(rèn)為,深度學(xué)習(xí)正在逼近算力極限。換言之,算力提高的背后,其實現(xiàn)目標(biāo)所隱含的計算需求——硬件、環(huán)境和金錢等成本將變得無法承受。

        研究人員表示,深度學(xué)習(xí)急需革命性的算法才能讓AI更有效地學(xué)習(xí),并越來越像人類。那么,為何深度學(xué)習(xí)算法十分依賴算力的增長,現(xiàn)在算力的極限在哪里,如何突破?除了算力,深度學(xué)習(xí)還能否依靠其他方式改進(jìn)算法性能?革命性算法的標(biāo)準(zhǔn)是什么?

        大規(guī)模樣本數(shù)據(jù)催生計算需求

        “深度學(xué)習(xí)本質(zhì)上是基于統(tǒng)計的科學(xué),所以大規(guī)模的樣本數(shù)據(jù)對于深度學(xué)習(xí)的效果至關(guān)重要。更大規(guī)模和更復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型已經(jīng)被證明非常有效,并在產(chǎn)品中有廣泛的使用,同時這也讓深度學(xué)習(xí)對計算能力有著更大要求和消耗。”遠(yuǎn)望智庫AI事業(yè)部部長、圖靈機(jī)器人首席戰(zhàn)略官譚茗洲表示。

        人工智能設(shè)計之初,并沒有考慮節(jié)能原則,只要有足夠的算力和電力,算法就可以一直跑下去。

        2019年6月,美國馬薩諸塞州大學(xué)阿默斯特分校的一份報告顯示,訓(xùn)練和搜索某種模型所需的電量涉及約626000磅二氧化碳排放量,這相當(dāng)于美國普通汽車使用壽命內(nèi)排放量的近5倍。此外,優(yōu)越的靈活性使深度學(xué)習(xí)可以很好地建立不同的模型,超越專家的模型,但也帶來昂貴的算力成本。深度學(xué)習(xí)需要的硬件負(fù)擔(dān)和計算次數(shù),背后消耗的是巨額資金。

        一份業(yè)內(nèi)報告顯示,華盛頓大學(xué)的Grover假新聞檢測模型兩周內(nèi)培訓(xùn)費用約為25000美元。另據(jù)報道,著名人工智能非營利組織OpenAI花費高達(dá)1200萬美元訓(xùn)練其GPT-3語言模型,而GPT-2語言模型,每小時訓(xùn)練花費則達(dá)到256美元。

        改進(jìn)算法降低對計算平臺要求

        實際上,算力一直在提高。OpenAI一項研究表明,自2012年以來,每16個月將AI模型訓(xùn)練到ImageNet(一個用于視覺對象識別軟件研究的大型可視化數(shù)據(jù)庫)圖像分類中,相同性能模型所需的計算量就減少了一半;谷歌的Transformer架構(gòu)超越了其之前開發(fā)的seq2架構(gòu),計算量減少了61倍;DeepMind的AlphaZero與該系統(tǒng)的前身AlphaGoZero的改進(jìn)版本相匹配,其計算量也減少了8倍。

        有網(wǎng)友提出,現(xiàn)在的硬件算力提升有些誤區(qū),不一定非得在單位面積上堆更多的晶體管,我們需要更好的框架來支持底層計算條件及相應(yīng)的硬件改進(jìn)。理想情況下,用消費級的GPU就能運行很多深度模型。

        “人們對深度學(xué)習(xí)的性能或結(jié)果的要求越來越高,隨之對于算力的需求也越來越大。要讓算力增長或突破,從算法層面,首先可以優(yōu)化并行計算,有效利用多機(jī)多核的計算能力,靈活滿足各種需求。同時,相對于傳統(tǒng)的基于單機(jī)編寫的程序,如果改寫為多機(jī)多核的并行程序,能夠充分利用其CPU和GPU(或AI芯片)的資源,將使運行效率大幅度提升。”西安電子科技大學(xué)電子工程學(xué)院教授吳家驥表示。

        除了算力,深度學(xué)習(xí)本身還可通過哪些方式改進(jìn)算法?吳家驥介紹,深度學(xué)習(xí)都是在異構(gòu)硬件上運行,大數(shù)據(jù)進(jìn)入時,需要分流處理,從算法上來看,可以調(diào)度優(yōu)化,讓異構(gòu)架構(gòu)(CPU、GPU、AI芯片)因地制宜地調(diào)度深度學(xué)習(xí)和大數(shù)據(jù)處理業(yè)務(wù)。

        吳家驥指出,未來可能很長一段時間內(nèi),對深度算法的改進(jìn),不僅要從架構(gòu)、硬件上考慮,還要考慮模型的壓縮能力。例如,就具體問題而言,考慮如何把大象關(guān)進(jìn)冰箱,但問題是冰箱關(guān)不了大象,但若把大象壓縮成小貓小狗的大小,就可裝入冰箱。這就需要模型壓縮,在保證精度的前提下,壓縮神經(jīng)網(wǎng)絡(luò)模型,降低對計算平臺的要求,大大提高計算效率,滿足更多的實際場景需求。

        研究人員認(rèn)為,在算法水平上進(jìn)行深度學(xué)習(xí)改進(jìn)已有先例。例如谷歌的張量處理單元,現(xiàn)場可編程門陣列和專用集成電路,并試圖通過網(wǎng)絡(luò)壓縮和加速技術(shù)來降低計算復(fù)雜性。他們還引用了神經(jīng)體系結(jié)構(gòu)搜索和元學(xué)習(xí),查找在一類問題上保持良好性能的體系結(jié)構(gòu),以此作為計算上有效改進(jìn)算法的途徑。

        算力增長未必會讓AI擁有類人智力

        無疑,算法突破的目的是讓機(jī)器更像人類大腦一樣具有神經(jīng)元的功能。但就功耗而言,大腦要像超級計算機(jī)那樣運算,自身溫度就會飆升上百攝氏度,所以若簡單認(rèn)為更多的計算能力就可讓人工智能擁有人類智能的想法顯然是存在爭議的。

        “人類的智能中基因與常識是機(jī)器所不具備的,其中基因是不需要計算的,常識是可以通過簡單計算實現(xiàn)的。”譚茗洲指出。

        “常識決定了基本能力、發(fā)現(xiàn)力和創(chuàng)造力,而具有常識能力,是更先進(jìn)意義上的人工智能。革命性的算法,就是要讓AI具備擁有學(xué)習(xí)常識的能力,這也是未來一個很有潛力的研究方向。”吳家驥說。

        有人說,深度學(xué)習(xí)大多數(shù)是“煉金術(shù)”,大多數(shù)算法是對經(jīng)驗更樸實的歸納,對說的問題進(jìn)行更精辟的演繹。譚茗洲說:“現(xiàn)在數(shù)據(jù)非常多,算力也在增強(qiáng),人們依賴深度學(xué)習(xí)提升AI智力,但‘傻學(xué)硬練’形成更強(qiáng)的學(xué)習(xí)方法,很難達(dá)到或超越人類的算力及智力。”

        那么,革命性算法的標(biāo)準(zhǔn)是什么,為什么優(yōu)于深度學(xué)習(xí)的算法遲遲沒出現(xiàn)?

        譚茗洲認(rèn)為,革命算法的標(biāo)準(zhǔn)首先是在不同場景具有高適應(yīng)度,可以形成知識記憶和經(jīng)驗記憶的算法,并且低耗能低成本。未來革命性算法有可能基于三點提升,一是基于常識推理。由于我們面對的大量場景不是通過大量數(shù)據(jù)訓(xùn)練而來,人類大腦面對這些場景往往是通過常識推理運算而得出結(jié)論,而深度學(xué)習(xí)并沒有建立這套體系。另外,常識和常識之間的關(guān)聯(lián)性,加速了人類對結(jié)果的推理速度。二是基于負(fù)性小樣本的學(xué)習(xí)。在深度學(xué)習(xí)模型中,往往很少去學(xué)習(xí)什么是錯誤的,而汲取負(fù)面行為及教訓(xùn)性質(zhì)類型的小樣本是有學(xué)習(xí)意義的。三是基于交流、溝通的學(xué)習(xí),人與人交流在學(xué)習(xí)中分幾個層次,看、聽、模仿等,AI也應(yīng)多從這幾個方面入手,建立以交通、溝通為目的的學(xué)習(xí),而不是單單通過大數(shù)據(jù)訓(xùn)練模仿人類智能。


      下一篇: 疫情前后,通用位置傳

      上一篇: 英特爾侵權(quán)中科院,7

      主站蜘蛛池模板: 日本大香伊一区二区三区| 日韩一区二区三区射精| 国产高清视频一区三区| 一区 二区 三区 中文字幕| 国产一区二区在线| 欧美日本精品一区二区三区| 91无码人妻精品一区二区三区L| 亚洲国产精品一区第二页| 日韩在线不卡免费视频一区| 91福利国产在线观一区二区| 国产福利微拍精品一区二区| 亚洲愉拍一区二区三区| 在线欧美精品一区二区三区| 无码日韩精品一区二区免费| 日韩aⅴ人妻无码一区二区| 国产伦一区二区三区免费| 精品女同一区二区| 狠狠色婷婷久久一区二区三区| 久久一区二区三区免费| 亚洲av不卡一区二区三区| 亚洲一区动漫卡通在线播放| 国产精品久久无码一区二区三区网 | 在线观看亚洲一区二区| 无码人妻精品一区二区蜜桃网站 | 日韩一区精品视频一区二区| 精品一区二区三区无码免费视频| 中文字幕人妻第一区| 国产在线一区二区视频| 成人免费av一区二区三区| 亚洲日本一区二区| 天堂成人一区二区三区| 久久精品国产一区二区电影| 国产精品视频一区二区噜噜| 日韩一区二区超清视频| 国产乱码精品一区二区三区四川| 国产成人高清视频一区二区| 久久久久人妻一区精品色 | 亚拍精品一区二区三区| 国产成人av一区二区三区在线| 国产凹凸在线一区二区| 亚洲宅男精品一区在线观看|