Intel 在這兩天於台北舉辦亞洲區創新高峰會,除了有亞洲各國新創代表、學者、研發專家與產官人員外,也展示包括 Intel 實驗室、台大 IoX 研究中心(前身為台大創新研究中心)等開發成果,並聚焦於機器學習、感知、物聯網、 FPGA 與 5G 相關議題,稍早也開放一段時間供媒體參觀展示區,接下來簡單介紹一些會場展示的技術與應用。
Intel 在會場展示了一項針對聯網汽車的應用,稱為 Bumper-to-Bumper 聯網汽車完整性驗證,這項技術宣稱可用於 2020 年的可信賴車輛上,旨在為車內的微控制器之間的安全性與驗證做把關,利用硬體安全防禦機制,除了可用於管控車內各個微控制器之間訊號傳遞的可靠性,同時可避免車輛被駭客入侵,同時能使使用中的車輛及時偵測並防禦漏洞以及即時進行修補程式的安裝,使車聯網更安全。
關於聯網家庭應用, Intel 也展示由 Intel 開放原始碼技術中心提供的多項計畫, Intel 強調藉由開放原始碼技術中心貢獻到多項計畫以及積極參與這些開放平台的物聯網系統,使 Intel 與其它物聯網廠商的終端更容易相互連結,加速智慧家庭產業發展。
針對新一代的人工智慧方面,會場也由台大 IoX 中心展示基於深度學習的互動式對話代理人,這項技術透過讓深度學習平台可藉由名人的對話內容影片等作為學習素材,藉此學習名人的對話模式並加以模仿,使對話人工智慧的語意更貼近人類,除了可作為趣味的"與名人對話"機器人以外,也適合用於包括智慧照護、客服系統等,讓對話機器人更有"人"味,目前宣稱約提供 4 小時的影片內容可ˋ建構出初步的對話能力,當然如同多數的深度學習平台一樣,提供的學習素材越豐富,也更貼近本人的對話方式。
另外有一項有趣的應用稱為 DynaFrame 與 DynaBase ,這是一項藉由機器手臂引導使用者如何進行手寫、手繪的技術展示,此計畫是因為目前許多使用者已經習慣觸控螢幕的直觀操作,利用機器手臂作為輔助幫助使用者學習如何在觸控螢幕上進行使用,其中一項是把機器手臂直接介入觸控筆的控制,有點類似以前練習書法使用時,由老師直接握住使用者的手一起進行操作;另一項則是把機器手臂置於觸控螢幕下方,藉由觸控螢幕顯示機器手臂目前的位置,讓使用者看著螢幕上的紙是描繪;兩項使用都是希望藉由減少畫面被屏蔽的情況讓使用者能進行學習。
在物聯網的世界中,視訊攝影會是相當重要的 像應用,尤其像是在公共安全場合會相當仰賴攝影機作為分析與追蹤,今天會場中也藉由深度學習的方式,作為在區域影像監控環境中作為多攝影機中的物體追蹤應用;這項應用的場合在於區域型監視攝影機監測,利用影像分析的方式辨識主體,並於多個攝影畫面中持續追蹤該物體(或是人物)。
藉由此技術,例如公眾場合中出現可疑人物時,當他陸續穿過多個攝影機的追蹤範圍時,系統可在多個監視攝影機中監控他的移動,並將各個攝影機中出現該位可疑人物的畫面以時間軸的方式進行剪接,不需仰賴人力逐一畫面找尋可疑人物。
會場中還有一項有趣的無人機搭配 AR 輔助應用,這是一項藉由 Hololens 進行太極拳練習的方式,在一些場合可能無法由老師陪伴進行練習,藉由配戴 VR 顯示器看到虛擬教練在八個不同的方案展是太極拳,而無人機則是可在無法架設固定鏡頭的環境拍下練習者的姿勢並提供正確的虛擬教練資訊。
會場當中有一項由中國新創團隊展示的 Genius Arm ,這是一項利用肌電圖訊號進行分析後的遠端機器手臂控制系統,利用佩戴在手上的表面肌肉電訊號感測器分析手臂的動作,並藉由遠端機器人配備的雷射雷達與 SLAM 演算法進行空間位置地圖的建構,這項應用可讓一些危險情境下利用具備機器手臂的機器人深入後,利用機器手臂與手臂動作同步進行操作。
你或許會喜歡