劉沅輔、徐文月、曾詩存、牟志元、呂常興、朱文彬 / 工研院材化所
塗佈技術廣泛應用於光電、電子與醫療等領域,其製程中微小的缺陷即可能造成良率下降與成本增加。近年來,許多研究導入深度學習以改善傳統光學檢測系統的不足,並指出缺陷檢測技術對品質控制與產品收益具有顯著貢獻。雖然缺陷辨識可透過大量影像資料進行模型訓練並建立客觀標準,但缺陷成因的判斷與改善方式仍高度依賴資深工程師經驗與試誤流程,導致排查過程耗時且難以系統化傳承。本研究以「塗佈產線智慧缺陷檢測與專家診斷技術」為核心,結合YOLO物件偵測模型與專家系統,建構可辨識多種類型塗佈缺陷之AI平台,並以規則式知識庫與推理引擎提供成因分析與改善建議。實驗結果顯示,針對氣泡、毛屑、膠粒、垂流、肋形紋等常見缺陷皆具有優異的辨識能力,模型預測結果與人工標註高度一致。整體而言,所提出之技術可協助產線縮短排查時間、降低停機損失,並將製程經驗系統化與知識化,推動塗佈產線邁向智慧製造與知識管理的發展。
【內文精選】
AI缺陷辨識技術與智慧診斷系統架構
YOLO架構最初由Redmon等學者(2016)提出,如圖三所示,其運作原理為將圖像切分成規則網格,每個網格負責判斷是否包含物件並同時預測該物件的類別機率與邊界框參數。在YOLO的預測結果中,每一個網格會輸出:①該區域是否存在物件的信賴區間、②各類別的分類機率、以及③物件邊界框的位置參數(中心點、寬度與高度)。透過網格化分類機率分布與邊界框回歸結合,模型最終可標示影像中所有物件的位置與類別。整體而言,物件偵測的核心任務可分為兩部分:其一是判斷影像區域屬於何種類別(分類),其二是精準錨定物件在影像中的位置(定位)。
圖三、YOLO物件偵測運作原理
本研究針對塗佈製程中常見的缺陷類型進行訓練與辨識,包括氣泡、毛屑、膠粒、垂流、肋形紋等,經調適後的缺陷辨識模型在測試集上的表現整體可達96.8%的準確率,顯示模型能有效識別不同缺陷之型態與特徵。其中,氣泡、膠粒等尺寸較小之缺陷的辨識準確率略低,推測與影像解析度限制及外觀變異度較大等因素有關。圖五顯示模型預測結果與真實標註資料之對比,左側影像為真實缺陷標註結果,右側為模型推論後產生的預測邊界框與標註。由圖中可見,模型在多數影像中皆能正確偵測缺陷位置並辨識其類型。圖五(a)、(c)呈現真實人工標註資訊,圖五(b)、(d)顯示模型對應之預測結果。兩者在位置標示與缺陷類別上高度一致,顯示辨識模型已能準確捕捉塗佈缺陷的形態特徵---以上為部分節錄資料,完整內容請見下方附檔。
圖五、真實缺陷標註(a、c)與預測數據(b、d)對比
★本文節錄自《工業材料雜誌》471期,更多資料請見下方附檔。