鸿海发布「FOXCONN NxVAE」 AI验算降低50%产线检测人力

▲非监督式学习AI算法FOXCONN NxVAE,实际用在产线检测状况。(图/鸿海提供)

记者姚惠茹台北报导

鸿海(2317)今(21)日宣布,正式推出非监督式学习(Unsupervised Learning)人工智慧(AI)演算法「FOXCONN NxVAE」,运用正面表列的模型训练方式,只以产品容易取得的正样本进行光学检测演算,解决产线中瑕疵样本取得的问题,适用于良率高的成熟产品线,可增加AI模型的整体容错能力,并已实际导入集团部分产品外观检测生产线,成功降低50%以上的产线检测人力

鸿海半导体事业群AI团队历时8个多月的研发,从架设AOI光学检测设备,到产线采集产品外观影像,期间因新冠肺炎疫情影响,团队无法亲临产线,改由远端工作模式,进行影像数据处理与AI演算法的开发与调适,最终研发出非监督式学习AI演算法FOXCONN NxVAE,并已实际应用在鸿海科技集团中国大陆园区内的电子产品外观检测产线上。

鸿海半导体事业群晶片系统方案事业处副总经理刘锦勋表示,鸿海生产线品质良率早已超过99%,累积的工业数据庞大,除了持续进行品质改善外,也让AI得以发挥,助益产业发展,而这次AI团队研发非监督式学习演算法,不仅降低产线新产品导入的阵痛期,也是业界人工智慧发展的重要里程碑

鸿海发表的FOXCONN NxVAE已可全检产品外观常见的13类瑕疵,并达到0漏检的客户要求,降低50%以上的产线检测人力,除提升整体工作效率外,也代表鸿海往智慧工厂目标也更向前迈进一大步。

▲非监督式学习AI演算法FOXCONN NxVAE,实际用在产线的检测状况。(图/鸿海提供)

传统机器视觉(Computer Vision)检测,大多以标准样本(Golden Sample)为基准与待测样本进行差异比对,当产线是在客制化环境下进行检测时,准确度会因光源变化、待测样本定位差或产品本身纹路不规则等不定、不同因素造成比对失败,产生较高的过杀率,甚至因此加设人力进行过杀样本的二次检测,造成人力支出浪费

FOXCONN NxVAE演算法采集不同日期的数据进行AI模型训练,平均产品数据的变异性,增加AI模型的整体容错能力,也解决数据差异化问题,而非监督式学习算法的核心概念即为「不是好的,就是坏的」、「只需正样本」、「让模型重建自己」。

一般监督式学习的AI算法为提升准确率,动辄需要数百至上千张瑕疵影像,才可取得90%以上的准确率,但仍未达到产线采用标准,因此,要提升准确率以达到产线检测要求,根本之道在于高品质瑕疵影像数据集的建立与取得。

鸿海AI团队先前亦针对厂内机壳瑕疵检测提出监督式学习(Supervised Learning) 演算法,让产品外观瑕疵的检测率达到99%以上,然而在鸿海产线良率高的情况下,要收集20种以上各类瑕疵的足够样本实属不易。

有别于监督式学习算法在瑕疵影像采集的困难、瑕疵数据标注与瑕疵分类痛点,Foxconn NxVAE非监督式学习产品检测模型的演算法导入正面表列的模型训练方式,沿用原本产线每日皆可取得的正样本,解决瑕疵样本取得的问题,快速迭代AI模型,以适应不同产品的智能检测,可大幅度缩短客户导入AI检测的时间压力,并可协助定义产品检测标准,提升生产品质,进而降低成本,最终达到以AI赋能产业应用,提升产业价值的目标。