李守仁/ 健行科技大學;白立文/ 工研院材化所
2015年6月30日「日本再興戰略」修訂版,明確將人工智慧、物聯網(IoT)、與大數據列為產業結構與就業結構變革的主要方向。內閣府「第五期科學技術基本計畫」(2016年1月25日)亦將人工智慧列為「超智慧社會」的「共同基礎技術與人才強化」重點挑戰技術,並由文部科學省、總務省、經濟產業省於2016年4月25日共同舉辦「第一屆下世代人工智慧技術研討會」,展開人工智慧技術跨部會的合作。
日本將人工智慧技術區分為辨識能力、運動能力、語言/詞意理解、數據資料處理/人類行為或系統模式化以及計算硬體五大類,分別訂定了現在〜2020年、2020年〜2030年,與2030年以後,三階段的目標。以下概略說明各類別的分段目標。
1. 辨識能力
(1). 現在〜2020年:
以下三者達到人眼辨識等級---一般物體影像之靜態與動態辨識、經由三次元資訊認識環境、對於人類表情與感情的辨識。
(2). 2020〜2030年:
解決原始的意象背景(Symbol Grounding;指意象認知解讀之機理)問題,可辨識特定範圍的上下文或背景知識;利用小量資訊的學習。
(3). 2030年以後:
不限特定範圍,可辨識一般文化或社會背景的資訊。
2. 作動能力
(1). 現在〜2020年:
融合深度學習(DL-Deep Learning)與強化學習,於設定之報酬體系下,達到人工水準的高級遊戲任務;確定可自動產生運動相關的原始、結構(自動邏輯)技術;除了剛性物件的操控外,利用深度學習與強化學習,學習柔軟物件的操作控制;以自律移動形成3D圖,將週邊環境結構化;確立不規則形狀之非結構化環境的近似技術。
(2). 2020〜2030年:
利用小量資料學習,處理需深度背景知識的任務,而可達到人工水準;可自動取得人的運動、物件操作以及動態影像的概念(確立可由運動中取得自動邏輯的技術);確立安全的操作、移動技術;除了硬體的進化之外,確立各種實用性任務的操作技術。
(3). 2030年以後:
以人工智慧技術執行需要文化或社會背景任務時,其作動能力可以達到人工水準;將操作功能模式化,使其適用於整體社會;融入社會的變遷效應,可提供整體社會變遷的解決方案。
3. 語言/詞意理解能力
(1). 現在〜2020年:
確定影像與文字相互變換的原始意象背景技術;在特定範圍內可自動產生對話的語音計畫。
(2). 2020〜2030年:
多重樣式資訊、運動原始行為與文字間的相互變換,確立更趨真實的意象背景架構技術;解決原始的意象背景問題,對於新聞等正式文字能進行分類、資訊檢索、含意辨識,而可達到人工水準;特定範圍的機器翻譯,達到人工水準。
(3). 2030年以後:
融合人類語言知識、影像與運動,得以獲取大量的訊息;不限正式文字,對於非正式文字可進行分類、資訊檢索、含意辨識,臻人工水準;機器翻譯,達到人工水準;由機器產生假設或結論;語音對話達到人工水準---以上為部分節錄資料,完整內容請見下方附檔。