一顆GPU如何帶動人工智能發展?
為什么一家顯卡公司忽然在人工智能領域有了巨大影響力?一家圖形解決方案的供應商與人工智能行業又能有多少瓜葛?

◆ GPU對深度學習的助推力
到今天,人工智能研究已經有六十多年的時間。從最簡單的文字對話,到電腦程序戰勝人類國際象棋大師,人工智能在豎立了一個里程碑之后似乎就進入了平臺期,再無標志性的成績出現。然而最近兩三年,計算機的智能水平突然得到了明顯提升:識別圖片和語音正確率超過人類,自動駕駛汽車開始上路,參加智力問答競賽獲得冠軍,甚至曾經被認為無法戰勝人類的圍棋領域,人工智能也成績斐然。這些成績的背后,都離不開一種叫深度學習的算法,而運行這種算法的硬件平臺,大多都在使用NVIDIA生產的GPU。
NVIDIA中國區總裁張建中在接受中關村在線視頻專訪時表示,這一兩年機器的智能水平突然提升得益于三個因素。第一,大數據;第二,深度學習的算法;第三,強大的計算內容。這三個因素綜合在一起,在人工智能的研究領域產生很大的突破,圖形圖像和語音的識別準確度都大幅度提升。

NVIDIA中國區總裁張建中
GPU強大的并行運算能力緩解了深度學習算法的訓練瓶頸,從而釋放了人工智能的全新潛力,也讓NVIDIA順利成為人工智能平臺方案供應商。然而深度學習帶來的飛躍是否會很快進入平臺期,人工智能研究和應用會有新的熱點嗎?
在張建中看來,人工智能由于算法的原因,永遠達不到百分之百的精準度,因此永遠都有提升的機會。“通過不停的迭代提升精度和準確度,越往后難度越高,需要的計算量、數據量、算法模型和深度學習的層次更高,這些都會隨著我們工作當中不停的積累和提升,這是一個良性循環的過程。”
至少在現階段,我們看到深度學習算法在人工智能應用領域還有很大潛力。在以往的研究中,一個特定的應用在面對海量數據時,可能需要幾個月甚至幾年的時間才能完成訓練,這顯然不能滿足實際應用的要求。以NVIDIA GPU為代表的并行處理技術進入人工智能領域,則極大緩解了計算層面的瓶頸,讓深度學習成為實用的算法。
◆ 超前的架構設計為AI興起奠定基礎
在計算機圖形解決方案領域,NVIDIA早已占據領導地位,而現在它在人工智能領域也同樣重要。在圖形應用中,GPU里專門設計的多個計算單元可以高速完成復雜的圖形學計算,瞬間渲染出清晰逼真的圖像。但是在NVIDIA看來,GPU不僅能處理圖形,還有潛力完成更多應用領域的數據處理,實現新的算法優化。可以說NVIDIA早在二十年前就已經為今天的人工智能浪潮埋下了伏筆。
NVIDIA中國區總裁張建中在采訪中透露,NVIDIA在做CUDA架構的時候就預測到超級計算機極大的潛力。“為了讓GPU可以百分之百的編程,我們就調整了CUDA架構,每一個處理器并行在一起,從幾百個做到幾千個,成為今天超級計算機的核心根本。全新架構能夠讓超級計算機運算更快,在很小的功耗上發揮最大的計算能力。”目前GPU在超級計算機行業有相當大的應用,我國的天河1號就是采用NVIDIA的GPU做大型數據處理。

NVIDIA的CUDA架構為GPU在深度學習領域鋪路
GPU大規模并行計算架構恰好符合深度學習的需要,通過幾年的研發和積累,GPU已經成為超級計算機的重要支撐,極大的提升了機器學習的運算能力。人工智能的并行算法在過去可能需要一兩年的時間才能看到結果,在GPU的強大計算能力的支持下,深度學習的算法得以突破,可以在短時間內高效能的得到數據結果。
?????投稿郵箱:jiujiukejiwang@163.com ??詳情訪問99科技網:http://www.hacbq.cn
推薦資訊























