半导体行业里有三大定律,摩尔定律差不多人人都知道,牧本定律知道的人就少多了。
1987 年,原日立公司总工程师牧本次生(Tsugio Makimoto,也有翻译为牧村次夫,故称为“牧村定律”) 提出,半导体产品发展历程总是在“标准化”与“定制化”之间交替摆动,大概每十年波动一次。牧本定律背后是性能功耗和开发效率之间的平衡。
在标准化阶段,半导体产品通常会遵循一定的规范和标准,使得不同厂商和不同产品之间能够相互兼容。标准化可以降低开发成本,提高生产效率,并促进市场竞争。然而,随着技术的不断进步和市场需求的变化,标准化可能会逐渐失去其优势,需要引入定制化来满足不断增长的性能需求和差异化的市场需求。
在定制化阶段,半导体产品通常会根据特定应用的需求进行定制。定制化可以提供更高的性能和更好的功能,以满足不断变化的市场需求。然而,定制化也会带来更高的开发成本和更长的开发周期,并且可能会限制产品的通用性和可扩展性。
性能、功耗和开发效率之间的平衡是决定标准化和定制化之间波动的重要因素,在追求高性能的同时,还需要考虑产品的功耗和开发效率。如果性能需求较高,而功耗和开发效率不是主要考虑因素,那么定制化可能更合适。反之,如果性能需求不是主要考虑因素,而功耗和开发效率是关键因素,那么标准化可能更合适。
随着晶圆 ( 芯片 )应用日益复杂化,半导体出现各种为特殊应用而定制的晶圆(芯片),而不是采用标准化架构,牧本定律(Makimoto Wave)钟摆看似已经脱离原有的轨道,继续朝向定制化前进,但长期而言,标淮化仍将是半导体产业不可或缺的要素。
从1957年开始,牧本周期成功解释了微处理器 、专用集成电路 、 FPGA 这些芯片类型的出现和发展,这个理论也成功预测了1997-2007之间FPGA的繁荣。在2007年前后,牧本本人对”牧本浪潮”的理解做了新的解释,他认为未来定制品或者标准品这两个极端不会再特别”泾渭分明”,而将迎来两者在某种程度上共存共荣的时代,因为有更多的技术手段和方案可以实现这样的平衡。
CPU 、GPU、DSA其实都在进行这种波动:
CPU:现在是通用处理器的代名词。
GPU:最开始是为图像处理 、显卡、游戏设计,现在更通用化地用于大规模计算领域。
DSA:领域专用架构(Domain-Specific Architecture),就比如我们常说的 AI芯片就是DSA。
AI芯片的发展也正在跟随牧本定律在通用化和专用化之间摆动,AI芯片从大概2014起,到现在也接近十年了,也正处于专用向通用转化的顶峰阶段。
最开始的GPU(Graphics Processing Unit)其实是专用的图形加速芯片。在上世纪90年代,有太多的公司做专用的GPU加速芯片或者其他各种专用类型的加速芯片。后来 NVIDIA 发现GPU中有非常多的并行计算部分,于是把GPU改造成由很多高效能的小CPU核(CUDA核)组成的通用GPU(GPGPU),最终才获得了成功。而其他仍然坚持做专用加速芯片的公司,都已经销声匿迹。
早在2010年,百度就学习微软开始使用FPGA做AI芯片架构的开发,这正好是在AI芯片爆发的周期,也是FPGA和GPU共荣的时代。到2017年周期转换的时候,百度已经部署了超过12000片FPGA作为AI加速器了,并且形成了自己的XPU架构。
英伟达和 ChatGPT 强势崛起之后,标志着通用AI芯片到达顶峰状态,但谷歌、苹果、Meta、亚马逊、 特斯拉等大客户都在尝试两条腿并行,一边用着英伟达的芯片,一边下场自研,试图继续拓展专用AI芯片。
2021年,马斯克推出了由自研AI芯片D1打造的Dojo 超级计算机,用以训练特斯拉的自动驾驶系统。据摩根士丹利最新研报,这套系统比用英伟达的A100,足足省下了65亿美元。
公开资料显示,亚马逊不仅设计自己的计算服务器 、存储服务器、 路由器,还研发了自己的服务器芯片Graviton。
硅谷巨头当中,谷歌非常在意自身架构、成本和芯片技术的差异化,从2016年起就自研AI张量处理单元( TPU ),以便于在大中型训练与推理中,获得更好的成本效益和性能,以保证自己的云计算产品有更好的独特性和识别度。根据谷歌披露的第4代TPU相关数据,与同等规模的系统相比,TPU v4的效率比英伟达A100强1.7倍,节能效率强1.9倍。
除了谷歌TPU、亚马逊Graviton这些已臻成熟的自研成果。近日,整个科技圈都被“全球首款Transformer专用AI芯片Sohu”刷屏。这款芯片直接将Transformer架构嵌入芯片内部,在推理性能上远超GPU和其他通用人工智能芯片,号称比今年3月才面世的顶尖芯片B200性能高出10倍。据传,一台配备8块Sohu芯片的服务器,性能足以媲美160块H100 GPU的集群,每秒能处理高达50万的Llama 7B tokens。
AI芯片的通用和专用路线之争,互相拉扯,互相赶超,这种状态估计还将延续很多年。
不只是用户在通用和专用之间抉择,每颗芯片的微架构都在通用和专用之间trade off。芯片行业的很多人认为,“通用”和“专用”是对等的,是一个天平的两边。设计研发的产品,偏向通用或偏向专用,是基于客户场景需求,对产品实现的权衡。
MCU 经过数十年的发展,也逐渐分化出通用MCU和专用MCU两种形态的产品,也在跟随“牧本定律”左右摆动。
专用MCU属于定制化的MCU,面对的市场相对比较小,客户相对比较集中,如果单个生产厂家的MCU用量达到千万级别,就会用专用型MCU。从市场评估到项目提案,内部立项到真正产生产品一般都要一年的时间,产品推出以后还要样品验证和量产验证,推出到产品往往要1年以上,每次研发出产品修改3-6个月时间又过去了,不确定性较大。
通用MCU会尽量满足客户的所有常规需求,带来的代价是很多功能客户用不上,客户特别需要的某些特性又做不到。专用MCU对于确定的高量客户非常适合,只不过在客户面对新兴市场的时候,需要空窗等待时间,这时假如有竞争对手抢先出牌,就可能错失机会。
作为芯片厂商,无法做到为每一个场景定制开发专用芯片,一方面是专用芯片覆盖场景太少,此外专用芯片的生命周期较短。通用芯片,是唯一解决之道。并且,越来越复杂的场景及场景的差异化,对芯片的通用性设计也提出了更高的要求。芯片的通用性设计,难度越来越高,需要更多的创新思路和更多的投入。
任何行业都存在“二八定律”,客户需求也存在二八定律:
1、RISC和CISC之争,是因为二八定律。人们发现,80%时间里,运行的常见指令只占指令数量的20%,而另外80%的指令较少使用。
2、存储分层,Cache的存在,也是因为二八定律。程序局部性原理,用二八定律来解释,就是在某个时间段内,80%的大部分时间里,只是在访问20%的区域。
绝大部分系统是符合二八定律的:就是系统中存在80%相对确定且共性的工作,而20%的工作是相对多变且个性的工作。
我们的产品架构恰好兼具了通用MCU和专用MCU的优势,通过MCU+C PLD 的异构融合系统可以处理所有系统的工作,在通用MCU和专用MCU之间达到了平衡。作为团队,MCU和CPLD发挥各自的优势,通过二八定律,可以形成各自能力的高效整合:
-从系统中,分离出来80%共性的工作,这部分由通用MCU完成。
-系统中另外20%的个性的工作,交给CPLD 可编程逻辑来定制完成。
在很多新兴领域,客户需求并不太确定,未来市场能不能起来也不确定,通用芯片不能完全满足新需求,专用芯片则需要时间和决策,很多就成为了我们的间接客户和合作伙伴。
随着业务场景越来越复杂,场景的变化也就越来越快。即使同一领域同一场景,不同客户的业务之间仍然存在巨大差异,甚至在大客户内部,不同团队的业务之间也存在差异。此外,业务仍在快速地迭代。
这就需要对业务场景的深刻理解,并且在场景和应用里不断进行试错和快速迭代,生态和落地往往更加重要,我们这个通用+专用的产品目标,就是帮助客户更快速地落地到应用场景。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。