之前喷了一下抖机灵的人竟然就被举报了,知乎药丸。
Jim Keller之前是苹果手机CPU的架构师,后来去了AMD操刀zen架构CPU,把AMD从泥潭中带出。之后跳槽到特斯拉,负责AI芯片的架构设计,之后从特斯拉跳槽到intel。
目前运算处理器发展的趋势是专业性运算,我们熟知的Intel强项在于通用性运算,对于很多专业领域的运算还是处于劣势,图像计算比不上nVidia和AMD,AI处理器方面被Nvidia吊打,移动处理干不过苹果高通三星。目前芯片工艺趋近物理极限,通用性计算效率低下,难以吸引企业级别的客户,intel把Jim Keller挖过去明显是要发展自己的AI处理器,以面对不断萎缩的pc市场,开拓未来专业性运算领域。
还有一个迫在眉睫的原因,intel自己的10nm架构处理器面临难产问题,原本计划18年年中发布的10nm处理器因为架构设计缺陷和难产原因被推迟到了2019年,所以intel花重金挖Keller过来解决问题。
我想在这里多啰嗦几句Intel和它同僚们在处理器制程上的变化。
简要回顾一下:英特尔前两年的Broadwell,Skylake和Kaby Lake CPU都是采用其专有的14-nm FinFET工艺制造的。 AMD的Ryzen CPU和Polaris GPU采用GlobalFoundries的14-nm FinFET技术生产,Nvidia Pascal GPU 使用台积电的16-nm FinFET技术。这些制程生产出来的处理器在实际使用中表现都差不多。目前三星和台积电都开始了10nm甚至是7nm的制程,Intel还在守着14nm,看起来intel已经落后了很多,但是晶体管制程中栅极宽度只是衡量处理器能力的指标之一,并非绝对指标,如果用Intel最喜欢的逻辑门密度(megatransistors per square millimeter (MTr/mm²))做指标,Intel可以吊打另外两位。
比如Intel以14-nm FinFET工艺为例介绍了这一指标。Intel自己的工艺可达到37.5 MTr /mm²,相比之下,台积电的16-nm工艺为29 MTr /mm²,GlobalFoundries的14-nm FinFET技术为30.5 MTr /mm²。英特尔表示,最坏的情况是,其14纳米工艺仍然比竞争对手所能达到的密度高出25%,这是传统n-nm特征尺寸无法展现的。
包括之后14nm+的Kaby lake,还有14nm++的coffee lake,都是在14nm的基础上做的优化,相比第一代Broadwell和Skylake芯片的性能提高了25%,或者在同等性能水平下功耗降低了52%。事实上,英特尔的预测显示,14nm++的晶体管性能实际上将超过其第一代(2015年)10nm产品。
实际上Intel14nm的晶体管密度就已经和三星10nm制程的密度相当,这已经是对制作工艺极大的考验了,不过为了将制程工艺继续降到10nm,Intel非常激进的设立了2.7x晶体管密度的目标,这是目前10nm制程难产的重要原因。
Intel目前的制作工艺很难提高10nm的良品率,由于10nm工艺晶体管密度超高,需要使用多重曝光技术,有些时候不得不使用五重乃至是六重曝光,这就导致生产流程加长、成本加高,因此良品率令人堪忧。而且Intel在10nm制程上选择的光刻机也令人匪夷所思,因为该公司决定放弃EUV,完全采用传统193纳米深紫外光源光刻机(DUV)。
多重图形的最简单形式是将图形分离成二个或者三个部分。每个部分按照通常的制程方法进行制作。整个图形最终会合并形成最终的图层。这种方法有时称为中心距分离,也会被称为光照-刻蚀-光照-刻蚀(LELE)。这种技术用于20纳米制程、14纳米制程等。额外暴光的成本在相关制程中可以承受。一个重要的关注点是多次暴光中的图形交叠问题。自对准多重暴光技术成功的引入解决这一问题。
现在Intel不可能抛弃10nm制程直接上用EUV的7nm,每次架构升级或者制程升级的时候,硅片和光刻工具的交互都会有出现缺陷的可能,这是个相互的关系。intel发展模式在更新制程基础上会更新处理器架构,Jim Keller不仅是救火队长,还是10nm架构之后的希望。
看了一大堆回答,全都是尴尬到令人发指的抖机灵答案,你抖机灵也就算了,好歹有点靠谱的论据好不好?知乎就是被你们这群____弄的和天涯差不多了。
互联网公司……
都不是996……
一般是9126……特别是游戏业