tag 标签: AI芯片

相关帖子
相关博文
  • 热度 6
    2023-8-17 17:01
    671 次阅读|
    0 个评论
    汽车芯片按其功能可分为控制类(MCU和AI芯片)、功率类、传感器和其他(如存储器)四种类型。市场基本被国际巨头所垄断。人们常说的汽车芯片是指汽车里的计算芯片,按集成规模可分为MCU芯片和AI芯片(SoC芯片)。功率器件集成度较低,属于分立器件,主要包括电动车逆变器和变换器中的IGBT、MOSFET等。传感器则包括智能车上的雷达、摄像头等。 一、车规级MCU芯片 车规级MCU芯片是汽车电子控制单元(ECU)的重要组成部分,广泛用于车内几十种次系统中,如悬挂、气囊、门控等,是汽车电子系统内部运算、处理的核心。MCU芯片按照CPU一次处理数据的位数分为8、16和32位MCU。 (1)8位MCU:具有简单耐用、低价的优势,提供低端控制功能,如风扇控制、空调控制、雨刷、天窗、车窗升降、低端仪表板、集线盒、座椅控制、门控模块等。 (2)16位MCU:提供终端控制功能,用于动力系统和底盘控制系统,如引擎控制、齿轮与离合器控制和电子式涡轮系统、悬吊系统、电子式动力方向盘、扭力分散控制和电子泵、电子刹车等。 (3)32位MCU:工作频率最高,处理能力、执行效能更好,应用也更广泛,价格也在逐渐降低;提供高端控制功能,在实现L1和L2的自动驾驶功能中扮演重要角色。 据统计,每辆传统汽车平均用到70颗以上MCU,智能电动汽车则超300颗。不过随着整车电子架构的集中化趋势加速,单车MCU的用量和种类也将出现“缩减”。MCU的性能将进一步提升,高端MCU将逐渐替代部分低端MCU的需求。 二、AI芯片 AI芯片是未来智能化汽车的“大脑”。这类芯片一般是一种集成了CPU、图像处理GPU、音频处理DSP、深度学习加速单元NPU以及内存和各种I/O接口的SOC芯片,不同于以CPU运算为主的MCU。在汽车中,主要在智能座舱和自动驾驶两个方面使用SoC芯片。 未来智能座舱所代表的“车载信息娱乐系统+流媒体后视镜+抬头显示系统+全液晶仪表+车联网系统+车内乘员监控系统”等多重体验,都将依赖于智能座舱的SoC芯片。 自动驾驶芯片是指可实现高级别自动驾驶的SoC芯片,通常具有“CPU+XPU”的多核架构。L3及以上的车端中央计算平台需要达到500+TOPS的算力,仅具备CPU处理器的芯片无法满足这一需求。自动驾驶的SoC芯片上通常需要集成除CPU之外的一个或多个XPU来进行AI运算。用于AI运算的XPU可以选择GPU/FPGA/ASIC等。 GPU、FPGA和ASIC在自动驾驶AI运算领域各有优势:CPU通常是SoC芯片的控制中心,其优点在于调度、管理、协调能力强,但计算能力相对有限。而对于AI计算,人们通常使用GPU/FPGA/ASIC进行加强:1)GPU适合数据密集型应用进行计算和处理,尤其擅长处理CNN/DNN等图形类机器学习算法。2)FPGA对RNN/LSTM和强化学习等顺序类机器学习算法具有明显优势。3)ASIC是面向特定用户算法需求设计的专用芯片,具有体积更小、重量更轻、功耗更低、性能提高、保密性增强以及成本降低等优点。 三、功率器件 功率半导体器件是用于电力转换和控制的半导体器件。其典型应用场景包括变频、变压、变流、功率放大和功率管理等,主要类型为IGBT和MOSFET。在具体应用上,燃油车一般使用低压MOSFET,其衬底材料为Si。相比之下,BEV对功率器件的性能要求更高,IGBT和高压MOSFET更为主流。 IGBT(绝缘栅双极型晶体管)是一种全控型电压驱动的大功率电力电子器件,由双极性晶体管(BJT)和绝缘栅场效应管(MOS)组成。IGBT的特点是兼具了BJT的导通电压低、通态电流大、损耗小和MOS的开关速度高、输入阻抗高、控制功率小、驱动电路简单等优点。在电动汽车中,IGBT的应用主要集中在三个方面:首先,在电控系统中,IGBT模块将直流转换为交流,驱动汽车电机(电控模块);其次,在车载空调控制系统中,负责小功率直流/交流逆变,该模块的工作电压不高,单价相对也低一些;最后,在充电桩中,IGBT模块被用作开关使用。 IGBT最常见的形式是模块,主要由IGBT芯片、FWD芯片、主端子、辅助端子、浇注封装材、绝缘基板、金属基、树脂外盖和树脂外壳等组成。多个芯片以绝缘方式组装到金属基板上,采用空心塑壳封装,与空气的隔绝材料是高压硅脂或者硅脂,以及其他可能的软性绝缘材料。 ​ 从功能安全角度来看,IGBT模块具有以下优点:(1)多个IGBT芯片并联,使得IGBT的电流规格更大;(2)多个IGBT芯片按照特定的电路形式组合,如半桥、全桥等,可以减少外部电路连接的复杂性;(3)多个IGBT芯片处于同一个金属基板上,等于是在独立的散热器与IGBT芯片之间增加了一块均热板,工作更可靠;(4)模块中多个IGBT芯片之间的连接与多个分立形式的单管进行外部连接相比,电路布局更好,引线电感更小。因此,模块的外部引线端子更适合高压和大电流连接。 四、传感器类芯片 汽车传感器主要分为两大类,一类是车辆感知传感器,包括速度/位置传感器、低/中压压力传感器、高压传感器、加速度传感器、角速度传感器、磁力计和温度传感器。另一类是环境感知传感器,包括氧、气体传感器、车载摄像头、超声波雷达、毫米波雷达和激光雷达。 ​ 传感器类芯片 五、存储器 汽车传感器存储器分为闪存和内存,其中闪存包括NANDFlash和NORFlash,内存包括DRAM和SRAM。随着智能化的发展,ADAS和信息娱乐系统产生的数据将不断增加,根据CounterpointResearch的估计,未来十年,单车存储容量将达到2TB-11TB。
  • 热度 10
    2020-2-27 12:56
    1244 次阅读|
    0 个评论
    在刚刚过去的2019年,国内外产业玩家们共同推动着AI芯片的车轮向前滚动。7nm芯片还未全面铺开,5nm冲锋的号角已经吹响,在AI强势侵入并颠覆各个传统领域的同时,AI芯片的架构创新持续发酵。“AI芯片”这个新鲜的概念在过去一年间逐渐走过了普及的阶段,越来越被大众所熟知。在行业走过野蛮生长,开始加速落地、加速整合的过程中,也有更多的AI芯片公司也开始走出属于自己的差异化路线。 如今,AI芯片正在云计算、手机、安防监控、智能家居、自动驾驶五大场景上演新的群雄争霸赛,包括华为、阿里、百度等巨头企业,均拿出自己的“杀手锏”。这些“杀手锏”在不同程度上提振了自己在行业的影响力,也给产业带来巨大变革,更让业界看到了中国半导体行业的希望。但是,在经历了一次次疯狂打call之后,每次都觉得差了点什么——那种感觉仿佛就是看了一晚上网红带货,但是当主播大喊“买它!”之后,却无人下单的尴尬。 可以说,尽管去年各大厂商纷纷推出了多款产品,但至今仍然没有任何一款产品可以称得上“现象级爆款”。为什么出现了此种叫好不叫买的情况?不由让笔者深感疑惑。 究其原因不难发现,覆盖细分领域,偏离主战场是其中的重要问题。相关调研公司数据显示,到2022年,整体AI芯片市场规模将会达到596.2亿美元,其中云端训练+云端推断芯片达到244亿美元,占据四成以上的市场规模。毫无疑问,云端服务器市场是AI芯片的主战场。目前的现状是具备通用性优势的GPGPU占据了云端人工智能主导市场,以TPU为代表的ASIC目前只运用在巨头的闭环生态,FPGA在数据中心业务中还在尝试阶段。目前全球各大公司云计算中心如谷歌、微软、亚马逊、阿里巴巴等主流公司均采用GPU进行AI计算。英伟达就是在这里赚的钵满盆满。目前,全球主流的硬件平台都在使用英伟达的 GPU 进行加速,AMD 也在积极参与。亚马逊网络服务 AWS EC2、Google Cloud Engine(GCE)、IBM Softlayer、Hetzner、Paperspace 、LeaderGPU、阿里云、平安云等计算平台都使用了英伟达的 GPU 产品提供深度学习算法训练服务。 反观其他专用AI芯片厂商,在各自聚焦的细分领域都表现抢眼,但难以粉饰自身配角的地位。赛迪顾问的预测数据显示,2019年中国对于AI芯片需求最大的市场依次为安防、零售、医疗、教育、金融、制造、交通、物流等行业。其中最大的安防市场也仅占20%,多家聚焦安防领域的AI芯片厂商在经历了奋力厮杀后,也难以在出货量等方面取得好成绩。 而深究下去,聚焦单一领域又诱发了另一问题:成本问题。随着芯片制造工艺的日益先进,芯片制造成本也水涨船高,如今设计制造一颗10nm芯片的成本要几千万美元,综合成本高达上亿美元。因此,如果不能保证某款单一应用场景下能够大量出货,专用芯片需要保持一定的通用性与灵活度。 最近两年间,产业界开始陆续涌现出神经网络计算专用芯片(AI芯片),寒武纪、深鉴科技、中星微电子等玩家的AI芯片产品采用的都是28nm的芯片工艺,前期从投入到流片的成本超过400万美元,单一品类出货量没有百万的级别将很难收回成本。 而除了成本之外,AI算法的演进也需要纳入考虑。由于目前人工智能算法还在不断变化、不断演进的过程中,人工智能经历了六十多年的发展才迎来了深度学习的大规模爆发,然而现在深度学习算法还有众多有待优化的方面,比如稀疏化、低功耗、小数据训练等,算法尚未定型。 此外,目前语音/文字/图像/视频等不同应用无法使用统一算法,然而许多实际生活中的AI应用程序(识别图像中的对象或理解人类语言)需要不同类型的具有不同层数的神经网络的组合。 因此,在确保AI应用性能的前提下,AI芯片需要尽可能地保持芯片通用性。那么问题来了:既然GPGPU如此强大,能够大小“通吃”,为什么厂商反而顾左右而言他?其实真正的困难在于GPGPU的技术难度。 硬件角度看,最核心的是指令集。指令集的覆盖面、颗粒度、效率等决定一款芯片能否覆盖到足够宽的应用市场领域,并对软件开发和产品迭代足够友好。无论是英伟达还是AMD的GPGPU,指令集都在千条量级,而目前国内的AI芯片指令集大多数都在百条以内。类型与数量的差别映射到硬件高效实现的复杂程度,差距是巨大的,在这方面国内的团队还存在着一定的差距。另一个重要方面就是基于硬件层的任务管理和智能调度,这可以让芯片从硬件层即提高算力的利用率,也就是大家常说的实际算力。大多数AI芯片的做法是完全依赖于软件层的调度实现,但这种方式第一增加了软件开发的复杂度,第二降低了硬件算力的利用率,第三减缓了软件栈迭代更新的速度,这在AI领域,面向算法模型、开发环境、应用场景加速更新的大背景下无疑大大增加了产品落地与工程化的难度。 在软件方面,毫无疑问,最重要的必然是开发生态,GPGPU通过英伟达十多年的耕耘,已经建立起了一个超过160万开发用户的庞大而成熟的生态-CUDA。AI芯片则需要搭建全新的生态,它会带来两个维度显著的问题,第一个维度是客户端,客户需要冗长的适配期,从原有的开发环境切换到新的软件生态,这不仅带来了资源投入,推迟了业务部署时间窗口,增加了业务的不确定性,更严重的是不利于保护已有的软件投资,软件的很多部分都要重新来写并适配,这对企业级用户来讲恰恰是非常敏感与慎重的事情。另一个维度是产品开发端,从底层芯片与系统软件,跳过CUDA层去直接支持开发框架,必然带来巨大的软件投入,不停得追赶现有框架的新版本,以及生态巨头的新框架,这在底层软件人员缺乏的背景下矛盾显得尤其突出。 本文在一开头就提出了一个貌似针对产品的问题,而事实上,这还是一个关于市场的问题。能否成为爆款,一方面要看产品,另一方面还需要看市场需求。数据显示,2018年中国AI芯片市场依然保持增长,整体市场规模达到80.8亿元,同比增长50.2%。且目前依然以云端训练芯片为主。2018年中国云端训练芯片市场份额达到51.3%。巨大的市场前景,也引来各方诸侯前来抢夺。 除了一骑绝尘的英伟达,其他老牌的芯片巨头都没闲着,特别是Intel也在加紧布局通用GPU。英特尔眼馋GPU路人皆知,其背后是一段辛酸史——从开始对GPU的不屑,到基于自家的x86架构开发独立显卡,英特尔折腾了十年之久仍然没做出来一款像样的GPU。近两年传出消息英特尔将在今年推出首款独立GPU,这恐怕要得益于英特尔的重金挖人——原AMD RTG显卡部门负责人Raja、Zen架构的功勋领袖Jim Keller、显卡技术市场总监Damien Triolet这几位大神都在2018年被英特尔招入麾下。 而在国内,一家名为“天数智芯”的公司也宣布将在今年发布GPGPU芯片。这家公司目前围绕GPGPU的系统研发已聚集了一支百余人的技术团队,其中不乏AMD在美国和上海做 GPU的核心团队成员、行业经验超20年的世界级技术专家。 从产业发展规律来看,在过去两年之内AI芯片将持续火热,大家扎堆进入;但是到了2020年前后,则将会出现一批出局者,行业洗牌开始。由于目前AI算法还在不断演进汇总的过程中,最终的成功与否则将取决于各家技术路径的选择和产品落地的速度。让我们静待2020年的第一个“爆款”早日来临。