工具機大廠Sandvik Coromant將機器學習放到靠近資料源的設備前端來分析,省下資料兩地往返的等待時間,讓異常事件預警可以更接近即時反應,甚至沒有網路也不怕
文/余至浩 | 2017-06-09發表
瑞典百年老牌的金屬刀工具製造商Sandvik Coromant,為了加快反應設備故障預警,而改採用了邊緣運算架構,將原放在雲端上的機器學習預測模型,改直接在工廠設備前端來執行分析後,能做到比以前反應速度快20倍,大幅縮短預測停機故障的反應時間。
瑞典百年老牌的金屬刀工具製造商Sandvik Coromant,過去在全球設有好幾座工業自動化工廠,主要從事生產各種先進工具機零配件,因為生產過程需經過非常高精密複雜的金屬切割作業,所以工廠內的每臺切割設備都需具備高精細切割操作的能力,所以一臺造價昂貴,動輒上百萬美元,甚至每部機器就有將近一千個可動式零件組成,只要一個細小零件脫落,都可以讓該機器故障停擺,所以這些生產設備內也具備很多感測器,以便蒐集資料來進行機器學習分析,來做為預防性的設備維護。
改採邊緣運算架構,以縮短機器學習預判時間
以前,Sandvik Coromant的作法,是將事先已訓練過的機器學習模型放在雲端,所以從設備蒐集大量感測器的資料後,得先回傳雲端才能使用機器學習來分析,判斷有無異常,再將預判結果傳回本地端的設備,這對於Sandvik Coromant來說,反應還是太慢,而且網路斷線時,無法將資料傳回雲端分析,承擔的故障風險更高,畢竟只要一臺機器停機,可能導致整座工廠產線受牽連,生產延遲的後果,就是每小時損失超過數百萬美元。
所以,Sandvik Coromant後來決定開始採用了邊緣運算架構,不只是將資料放在本地端設備處理,更開始將機器學習直接使用在工廠設備前端,來加快異常事件預警的反應時間。以前,經由網路將資料傳回雲端處理完,再回傳結果到反應,平均需要花2秒,現在改將機器學習模型就近放置在工廠設備前端來執行,只須0.1秒就能反應,兩者反應時間相差多達20倍。
能有快20倍的反應速度,靠得就是把機器學習放到最靠近資料源的設備前端來分析,讓異常事件預警可以更接近即時,因為省下了資料兩地往返的等待時間,所以能更快處理,可以更即時現場判斷,甚至,因為在設備前端就可以執行機器學習模型,所以一旦網路斷線也不怕。長期研究人工智慧及物聯網市場趨勢發展的Gartner研究副總裁蔡惠芬就指出,「AI技術的成熟,是邊緣運算興起的一大關鍵。」
瑞典百年老牌的金屬刀工具製造商Sandvik Coromant,為了加快反應設備故障預警,而改採用了邊緣運算架構,將原放在雲端上的機器學習預測模型,改直接在工廠設備前端來執行分析後,能做到比以前反應速度快20倍,大幅縮短預測停機故障的反應時間。(圖片來源/Bulid 2017)
AI技術成熟成為推動邊緣運算的另一股力量
這就是為什麼微軟今年要押寶邊緣運算,甚至還在2017年Build開發者大會推出了一項全新邊緣運算服務Azure IoT Edge,可以利用容器(Container)技術,將Azure機器學習、微軟AI認知服務的程式碼,打包成為一個個可以在閘道器上啟用執行的微服務(Microservices),讓企業就近能在本地端裝置上結合AI技術,以便於更快現場進行預判。Azure IoT Edge也支援了Windows或Linux兩大作業系統,對於硬體運算能力要求也不高,即使是記憶體容量只有128MB大小的Raspberry Pi單板電腦也能用。
除了微軟之外,另一家今年也開始布局邊緣運算的雲端ERP商用軟體巨頭SAP最近也在新推出的SAP Leonardo邊緣運算服務中,開始將SAP雲端上的機器學習服務,直接改就近提供在本地端的IoT閘道器來部署,以便於前端設備能更快現場即時反應,同時還可以和後端的SAP S/4HANA ERP系統串接,以加強自動化工廠管理。「AI技術的成熟,更將加速邊緣運算的發展。」 SAP物聯網暨數位供應鏈資深副總裁 Hans Thalbauer最近來臺時表示,因為有了AI技術的加入,物聯網邊緣裝置將變得更聰明,而不需要將資料回傳雲端,現場就能立即分析處理,以便於企業運用在更多需要即時分析的IoT應用上,例如預防性維護等。
除了雲端、商軟業者開始將AI技術帶進裝置,也開始有越來越多可以支援邊緣運算生態系發展的AI硬體和開發工具出現。連全球兩大行動晶片業者高通和聯發科都不約而同,從2016年開始針對自家的Snapdragon 820及Helio X20高階行動處理器,提供深度學習的SDK套件,讓手機晶片也能具備執行深度學習處理的能力,來提高用戶的使用體驗,使得將深度學習部署到行動裝置上變更容易,也能用於常見的AI應用,如臉部辨識、影像識別及自然語言分析等。
更瘦身的深度學習框架,前端裝置開發AI應用變更容易
而在AI布局已大幅領先的GPU處理器大廠Nivdia也不遑多讓,在AI專用伺服器以外,最近也推出一片體積只有信用卡大小的AI運算硬體Jetson TX2,因為搭載最新Pascal架構的GPU,因此具備有更強大的運算能力,可以用在安防攝影機、商用無人機、機器人等裝置上,來提高在影像辨識、導航以及語音辨識方面的應用。
有了更容易開發AI應用的硬體之後,過去1年來也開始有更多的AI開發工具推出,讓即使是運算能力不強的邊緣裝置,也能具備有提供基本的機器學習,甚至是深度學習處理的能力。
早在AI領域深耕多年的臉書,2017年4月就開源釋出了一個輕量版深度學習框架Caffe2,開始能在iOS、Android以及Raspberry Pi裝置上執行較簡單的深度學習模型,可以用於辨識影像、圖片、聲音及文本。目前Caffe2的開放原始碼已在GitHub上釋出。在早之前,臉書也曾推出另一個不同版本Caffe2Go,同樣也可以在手機上執行深度學習。
另外,臉書前不久才開源釋出的AI快速文本分類工具FastText,最近也開始能部署在手機及Raspberry Pi上,來優化機器學習的相關應用。
Google2017年5月也將兩年前才開源的深度學習框架TensorFlow大瘦身而釋出TensorFlow Lite的精簡版本,可以在Android裝置提供AI應用。甚至Google還在新版Android Wear 2.0穿戴式裝置作業系統中,首次加入機器學習功能(on-device ML system),可以提供使用於支援穿戴裝置的AI應用,例如新增的智慧訊息回覆功能,可依據收到訊息上下文的內容關聯,來提供更聰明的訊息回覆,因為在裝置端就可以執行機器學習模型,所以不用連網就能用。
甚至近來也開始有大數據分析服務商MapR試圖將大數據分析技術輕量化後,帶進裝置端,而推出一款迷你版的融合資料平臺MapR Edge,讓大數據分析處理引擎Hadoop,也開始能在多臺裝置建立運算叢集來分析。
不過,蔡惠芬也表示,目前並不是所有的AI技術都適合用在邊緣運算上。「若是需要利用巨量資料訓練機器學習模型時,因為需分析的資料量過於龐大,所以通常還是得傳回雲端來處理。」另外,當預測模型需要的運算分析越複雜時,若裝置本身的運算力不夠強大,也沒有足夠軟硬體做搭配時,還是得靠雲端才能解決。