大数据助力芯片制造物流供应链体系(上)
2016-04-19     □简桢富 来源:经济参考报

半导体芯片产业发展至今已超过五十年,随着应用愈来愈广泛,人类对电子产品的依赖程度也愈来愈深,使得半导体芯片产业的角色日趋重要。英特尔(Intel)共同创办人高登·摩尔(Gordon Moore)于1965年提出摩尔定律(Moore’s Law),认为制程技术的进步,每12个月就能在相同单位面积的晶圆(wafer)中放入加倍数量的晶体管(transistors)。发展至今,半导体组件不断地微缩,线宽已经进入16纳米,一颗如指甲大小的集成电路(IC)就可以放进超过十亿个晶体管,其中的线路比人类头发的十分之一还要细。

集成电路制造是将设计好的电路,经由反复曝光、显影、离子植入、蚀刻等几百道复杂的制造程序,把多达三十层以上的每一层电路,都准确成形于一片片如圆饼般的薄片晶圆上,最后经过后段的封装测试而成为一颗颗芯片(chips),而这个生产周期时间超过一个月。

芯片制造有赖先进的微影技术、脑力密集的尖端人才以及非常昂贵的精密设备,而芯片产业的供应链则有赖于其后台强大的物流保障体系和上下游供应链协作关系。

进入纳米制程时代之后,半导体芯片的制程更复杂冗长、影响变量更多、技术门槛愈来愈高,研发成本与产能资本支出形成双重负担,生产过程中稍有不慎或异常,就可能造成合格率损失甚至产品报废。

同时,随着IC产品的多样化、生命周期愈來愈短,如何借助大数据分析快速提升纳米制程合格率,并通过上下游形成有效的物流供应链体系,已成为国际半导体大厂的竞争策略。

1996年新竹清华大学成立了决策分析研究室,应用数据挖掘和决策分析方法来研究如何提升半导体的合格率,并针对低合格率的晶圆进行分类,再挖掘造成低合格率的制程、产品类别、设备、时间等可能原因,结合算法、信息科技与图形用户接口,发了“合格率提升系统”。

研究时我们也发现,人们在思考如何提升合格率时,一般只着重解决制程和设备异常的问题,但“合格率”的本质应该是在一片晶圆上产出最多可卖钱的晶粒。因此,我们建立了“综合晶圆效益”(Overall Wafer Effectiveness, OWE)指标架构,并提出利用数据分析,以改变晶粒排列方式提升晶圆合格率的创新想法。

我们利用数据挖掘整理出了优化晶圆产出的IC尺寸设计指引(gross die advisor),使工程师不论经验多寡都可以迅速决定晶圆曝光的最佳配置方式,并有效证明可以增加晶粒产出、提升工作效率和设备效益,及减少客户抱怨,平均效益估计每年可达新台币4.25亿元,这项技术已经导入台积电8吋及12吋厂,以服务其下游客户。

2003年起,笔者在台积电开始将复杂的实际问题架构成数学模式,建立可以随时空环境转换的决策分析模式,并导入数据挖掘降低生产周期时间(cycle time)以提升生产力的方法。

进入消费电子时代之后,半导体芯片产品的价值随着时间快速折旧,因此上市时间和生产周期时间的缩短极为重要。另外,由于半导体的生产模式相当复杂,所以传统生产管理理论仅能处理小范围的工作站。

我们利用半导体制造的巨量数据,分析影响在制品水位和在线等候时间的影响因子,以找出每个工作站在线在制品的理想水位和产出关系,透过宏观调控机制以维持生产系统的平衡与加工流程的顺畅,有效地缩短了生产周期。

台积电曾把晶圆厂自动化的发展,分为拟人化、无人化、超人化三个阶段。首先是用计算机和设备学习人的做法,第二是将机械性的工作自动化以取代人,最后则是发展一个集结众人智能的制造系统。让系统不仅能自动化,还能“智能”地知道如何判断和决策,超越一般人的能力。这不仅是未来趋势,也是一项极大的挑战。

半导体纳米制程的技术难度和变异有增无减,完全自动化的12吋晶圆厂月产能超过十万片,在线同时用十几种制程配方参数(recipe)生产各种产品,每片晶圆要经过数百道到上千道反复循环的制造程序,每个工作站有几个到几十个精密的反应室(chamber)可以选择、生产过程中可以随着时间读取几万种实时监控数据、近万个在线抽样检测的量测值(metrology),以及几百种在一片晶圆上不同位置测量的电性测试参数,再加上集成电路复杂的生产模式,使得数据除了具有大数据常见的4V特性,也就是大量(volume)、多样(variety)、快速变动(velocity)以及真实性(veracity)等之外,还有数据主效应不明显、数据分布不均衡、前后制程的交互作用复杂等挑战。

另一方面,随着半导体制程持续微缩挑战物理极限,允许误差也在不断紧缩,使得即便是资深工程师也很难单凭专业知识和经验,或传统的统计分析方法,从大数据中迅速找出制程异常的原因。

尽管商用统计软件逐渐可以支持大数据分析,但由于缺乏针对半导体产业需求和特性的应用模块,影响了一般工程师的使用意愿。为此,2011年起,台积电推动既有的工程数据分析(Engineering Data Analysis)系统升级,并开始“制造智能以协助先进纳米制程提升合格率”的产学合作计划。

半导体芯片大数据的分析难度在于,半导体制造各阶段中所产生的数据具有密切关联性。因此,必须考虑数据的时间性、群集性、连动性,而不是滥用计算机计算能力地作数据捕捞(data dredging)。

目前台积电与清华大学合作,将数据准备技巧和分析技术结合,透过大数据分析技术将自动累积的大数据转成有价值的信息,再结合决策者的经验与能力,成为企业专属的制造智能,并加入跨领域的生物信息领域人才,加入台积电大数据分析的相关部门。

研究室通过与台积电合作开发单位和领域专家的密切合作,结合理论与领域知识作全面性数据分析,以建立对复杂半导体制造系统的了解与掌握,整合大数据分析、数据挖掘、图形化技术、和决策分析等方法及信息系统,发展适合半导体数据特性之数据挖掘架构与算法,终于成功建立了多变量事故分析和诊断等不同分析技术模块,以缩短用户的学习曲线,辅助工程师进行后续的数据分析等专业判断,大幅提升工程师的决策质量,加速合格率提升。

(作者系台积电卓越制造中心主任、台湾新竹清华大学讲座教授)

  凡标注来源为“经济参考报”或“经济参考网”的所有文字、图片、音视频稿件,及电子杂志等数字媒体产品,版权均属经济参考报社,未经经济参考报社书面授权,不得以任何形式刊载、播放。