APSys 2014于 6月25日-26日在北京隆重召開,和人工智能的國際頂會ICML同期舉行,來自全球各地的學者聚集在次,會議開設了專門針對人工智能設計的系統,解決Big Data+人工智能為系統設計帶來的挑戰問題。AMD研究院DNN研究項目專家,谷俊麗博士在APSys 2014上發表《基于主流異構處理器的DNN實現與評估》的論文并做大會報告,內容主要針對主流的機器學習算法,圍繞如何創建高效的DNN異構平臺以及OCL的實現技巧作出深入探討。
AMD在DNN研究上的新突破
“性能制約”是早期商用語音識別系統中無法采用人工神經網絡技術實現的原因之一。在APsys學術上,AMD DNN深度探討了基于多個異構平臺包括APU/CPU+GPUs方面的研究,以最大限度利用計算機的運算能力。經研究表明,APUs能夠實現高達2X單位瓦特性能,能效超過已有的CPU+GPU平臺。這足以說明,APU服務器可以為DNN應用提供更加高效和高密度的解決方案。
值得慶幸的是,AMD在APSys發表的這篇論文――機器學習系統得到了業界的一致好評,該論文也是最受歡迎的作品之一。以下是APSys上的資深專家給予的高度評論:
深度學習帶來了機器學習的一個新浪潮,受到從學術界到工業界的廣泛重視,也導致了“大數據+深度模型”時代的來臨,未來越來越多的識別都將依賴于深度神經網絡。
DNN背景介紹
早在20世紀50年代就出現了人工神經網絡,它是一個有很悠久歷史的結構,但經過了很多年的發展,依然有很多的局限,比如訓練時間長、效率低下等。近年來由于Deep Learning的研究出現了比較大的突破,Deep Neural Network(以下簡稱DNN)應該是伴隨著Deep Learning一起出現的一種人工神經網絡的重大改良,其模擬了人腦的一些特性,比如人腦具有一個深度的結構,每深入一層就進行一次抽象,認知的時候逐層進行抽象,進而突破了傳統的神經網絡算法的局限性,可以說,DNN的出現為語音/圖像/人臉等大規模物體的識別技術帶來了一次新突破。
眾多知名企業參與探討DNN
2012年《紐約時報》就曾披露了Google Brain項目,吸引了公眾的廣泛關注。該項目是由著名的斯坦福大學機器學習教授Andrew Ng和在大規模計算機系統方面的世界頂尖專家Jeff Dean共同主導,用16000個CPU Core的并行計算平臺訓練一種稱為“深層神經網絡”(DNN,Deep Neural Networks)的機器學習模型,在語音識別和圖像識別等領域獲得了巨大的成功。
據悉,Google(DNN)是最早突破深層神經網絡工業化應用的企業之一。如今,越來越多的企業開始參與到DNN的研究中,這其中也包括AMD、微軟亞洲研究院以及上海交通大學均在APsys上發表了學術論文(APsys是亞太地區系統領域專家組織的專門從事論文研究的學術會議,發展至今已成功舉辦多次)。