随着 ICT 技术的发展,单 SOC 算力可以承担更多业务,网络带宽拓展及低时延、区分服务等特性使得业务部署、功能分配更加灵活,比如 : 感知、融合、规划、控制、执行可分离解耦,汽车业务功能可分可合、可软件定义。电子电气架构从分布式架构到域集中式架构,再到中央集中式架构转变,分散的 ECU功能集成到域控制器甚至车载中央计算机,这就是多域融合。 汽车电子底层硬件不再是由单一芯片提供简单的逻辑计算,而是需要复杂的多核 SoC 芯片提供更为复杂控制逻辑以及强大的算力支持。但是多域业务具有不同的技术需求,比如座舱域 IVI 业务强调交互体验、应用生态丰富,比较适合的操作系统是 Android;仪表盘、辅助驾驶有实时性、可靠性要求,操作系统倾向于 RTLinux、RTOS;智驾域强调大算力融合感知、推演规划,也有实时性、可靠性要求,也会选择 RTLinux、RTOS。在域融合的同时,要保证关键业务的安全可靠,也要考虑应用生态的可持续性兼容,这就需要有资源隔离技术来支撑在同一 SOC 上切分资源,可并发运行多种操作系统,保障互不干扰。 资源隔离技术有多种,从硬件底层逐层向上包括硬件隔离、虚拟化隔离、容器隔离、进程隔离等。硬件隔离的隔离性最好,单隔离域的性能、安全可靠性最好,但灵活性、可配置性差,不能实现硬件共享,导致整个系统的资源利用率差,不能充分达到软件定义汽车的目标。容器隔离、进程隔离可以更轻量级地实现业务隔离,但还是在同一个操作系统内,存在着资源干扰、相互安全攻击的隐患,并且无法支持异构操作系统业务域融合,影响传统业务继承,不利于生态发展。在众多的资源隔离技术中,虚拟化是安全可靠、弹性灵活的优选方案,是软件定义汽车的重要支撑技术。典型应用场景如图 1 所示: 图1 虚拟化典型应用场景 01 技术形态 Hypervisor 直译即 “超级监督者” ,也称为虚拟机监控程序(VMM)。如图 2 所示,Hypervisor处于 SoC 硬件平台之上,将实体资源(如 CPU、内存、存储空间、网络适配器、外设等 ) 转换为虚拟资源,按需分配给每个虚拟机,允许它们独立地访问已授权的虚拟资源。Hypervisor 实现了硬件资源的整合和隔离,使应用程序既能共享 CPU 等物理硬件,也能依托不同的内核环境和驱动运行,从而满足汽车领域多元化应用场景需求。 图2 虚拟化在系统中的位置 在汽车领域,Hypervisior 主要完成以下任务: CPU 虚拟化:为虚拟机提供 VCPU 资源和运行环境; 内存虚拟化:负责为其自身和虚拟机分配和管理硬件内存资源; 中断虚拟化:发生中断和异常时,按需将中断和异常路由到虚拟机进行处理; 虚拟机设备模拟:根据需求创建虚拟机可以访问的虚拟硬件组件; 硬件支持 BSP:提供 Hypervisor 在 SoC 上运行的板级支持包,如串口驱动; 虚拟机资源配置:对虚拟机的 CPU,内存,IO 外设等资源进行配置和管理; 虚拟机通信:为虚拟机提供 IPC,共享内存等通信机制。 虚拟机调度:为虚拟机提供优先级和时间片等调度算法; 虚拟机生命周期管理:创建,启动和停止虚拟机; 虚拟机调测服务:提供控制台,日志等调试功能; 在汽车领域,Hypervisior 还面临如下挑战: 轻量高效。Hypervisor 在带来软件定义的灵活性的同时,也导致了软件栈层次增加,不可避免会有性能损耗。汽车领域的成本敏感特性,注定了降低 CPU、存储、网络、GPU 等外设性能损耗的需求贯穿整车项目始终,因此 Hypervisor 的轻量和高效十分重要; 安全可靠。相较于互联网领域看重的资源动态分配和闲置利用,汽车领域更看重 Hypervisor 的实时性、可靠性、安全性; 便捷适配。在汽车领域,芯片类型和操作系统丰富多样,嵌入式虚拟化的一大特点就是异构,Hypervisor 必须具备快速适配不同的底层硬件和上层操作系统的能力。 02 技术发展趋势 2.1 云边端虚拟化关键技术差异化 虚拟化技术最早可以追溯到 20 世纪 60 年代,IBM 开发了虚拟机监视器软件,将计算机硬件虚拟分割成一个或多个虚拟机,可支持多名用户对大型计算机的同时、交互的访问。随着 21 世纪通用服务器算力的提升,云计算蓬勃发展,作为底层支撑技术的云虚拟化也快速迭代演进。后来算力从云、边、端逐步下沉,也就伴随着出现了边缘虚拟化、端侧嵌入式虚拟化。它们的典型架构、关键技术需求如图 3 所示。 图3 云边端虚拟化典型架构及关键技术需求 (1) 云侧虚拟化 其特点是硬件平台基本同构,大量节点构成集群,架构设计以吞吐能力优先,要支持多业务并发,虚拟化要满足集群负载均衡、节能降耗的资源调度策略,在进行跨节点虚拟机调配过程中,要保证业务无中断迁移。虚拟机故障时,要能保证从检查点恢复,减少业务损失,虚拟机要能支持 CPU 算力、内存、存储空间、网络、GPU、外设等能力的弹性扩展,还要能超分配,以便提升数据中心的运营收益。 (2) 边侧虚拟化 是在某些特定业务的边缘节点上,采用通用 ICT 架构,支持多种业务的动态部署,典型如 SDN、NFV。其技术特点是:基于通用硬件平台、行业定制的管理部署平台,实现软硬解耦、软件定义,多功能节点按需部署、弹性组网,一般会采用 1+1 或者 N+1 冗余方式保证业务高可用,在 5G 电信网元中需要考虑 5G 业务端到端实时性,Hypervisor、虚拟机、通信协议栈都需要设计考虑。 (3) 端侧虚拟化 端侧典型特点是异构,其芯片架构、处理能力都差异较大。一般是单芯片方案,不存在着集群、主备间的虚拟机迁移,因此比较强调高安全、单节点高可靠,比如会有功能安全 ASIL 等级要求,同时对于实时性、确定性有更强的要求。另外,端侧资源更加有限、成本更敏感,因此要求 Hypervisor 轻量化、高性能。 2.2 虚拟化模型趋势 Hypervisor 可以划分为两大类,一类是 Type1 裸机型,Hypervisor 直接运行在硬件设备上的,也叫做 Bare-Metal Hardware Virtualization(裸机虚拟化环境);一类是 Type2 主机托管型,也叫做 Hosted Virtualization (主机虚拟化环境)。图 4 展示了两种 Hypervisor 的分层架构。 图4 Type1和Typer2型Hypervisor Type2 型 Hypervisor 需要借助宿主操作系统来管理 CPU、内存、网络等资源,由于 Hypervisor 和硬件之间存在一个宿主操作系统,Hypervisor 及 VM 的所有操作都要经过宿主操作系统,所以就不可避免地会存在延迟、性能损耗,同时宿主操作系统的安全缺陷及稳定性问题都会影响到运行在之上的 VM(虚拟机),所以 , Type-2 型 Hypervisor 主要用于对性能和安全要求不高的场合,比如 : 个人 PC 系统。 Type1 型的 Hypervisor 不依赖主机操作系统,其自身具备操作系统的基础功能。设计上更简洁,直接运行于硬件之上,整体代码量和架构更为精简,对内存和存储资源要求更少,可满足自动驾驶车控系统功能安全等级要求,也具备进行形式化验证的条件。所以汽车操作系统更适合使用 Type 1 型 Hypervisor。 随着微内核操作系统技术的发展,很多基于微内核操作系统设计的 Hypervisor 依赖的 Host OS 已经非常精简,只包括基本的、不变的功能,如 : CPU 调度和内存管理,设备驱动和其他可变组件处于内核之外,这类 Hypervisor 应当归于 Type1、还是 Type2,业内存在分歧。总体来说,微内核 Hypervisor 更小、更稳定、扩展性更好,更适合用于嵌入式虚拟化场合。 2.3 Hypervisor 与虚拟机协作技术路线 (1) 全虚拟化 最初的虚拟化是通过软件模拟具有完整硬件系统功能的、运行在一个隔离环境中的计算机系统,即通过软件虚拟硬件设备提供给 GuestOS 使用,优点是 GuestOS 不感知外部真实硬件环境、不用改动。由于 Guest OS 中每次访问全虚拟化硬件都要陷入到 Hypervisor 中,直接导致该方式虚拟的硬件性能较差,一般只用来模拟如串口等比较简单的硬件。对硬件的模拟可以在 Hypervisor 中直接模拟,也可以将请求传递到其他 VM 中进行模拟,如在某一 VM 中通过 QEMU 进行模拟。 (2) 硬件辅助虚拟化 Intel 最早提出硬件辅助虚拟化技术,由硬件直接提供共享功能,支持多 GuestOS 的访问,减少软件虚拟技术带来的延时和性能损耗。Intel 提出了分别针对处理器 & 内存、IO、网络的 Intel VT-x、Intel VT-d 和 Intel VT-c 技术等。随着 ARM 算力提升,从移动端向边缘、甚至云算力中心发展,ARM 也在不断增强其硬件辅助虚拟化技术,比如 stage 2 页表转换、虚拟异常等。 (3) 半虚拟化 在硬件辅助虚拟化技术不完善、不强大的发展阶段,或者对于某些复杂外设的共享复用,为避免全虚拟化的性能问题,可以采用 GuestOS 与 Hypervisor 协作的半虚拟化技术。这种技术一般应用于 IO 设备虚拟化,采用前后端的方式来实现 IO 设备虚拟化,在 Guest OS 中实现前端驱动,在 Hypervisor 或 Host OS 中实现后端驱动,前后端一般按照 VirtIO 标准来实现,后端驱动作为硬件的实际访问方。Guest OS 中前端驱动通过 Virt Queue 等通信机制与后端驱动进行通信,前端驱动将 Guest OS 的请求传递给后端驱动,后端驱动将请求发送给硬件驱动,处理完后将结果再传回给前端驱动。半虚拟化相对全虚拟化实现的硬件性能较好,且可实现相对比较复杂的硬件,比如 : 块设备,网卡,显示设备等。具体如图 5 所示。 图5 半虚拟化Pass-through资源分配 Hypervisor 支持将硬件资源直接分配给其上虚拟机中 Guest OS 使用,无需通过 Hypervisor 进行地址和指令翻译。例如 : 串口资源、USB 资源等接口比较丰富的资源可以通过 Pass-through 直接分配给某虚拟机使用。设备控制器一般都是以 MMIO 方式来访问的,所以只需要将控制器地址区域映射到 VM 就可实现设备控制器的分配,同时还需要分配一个设备硬件中断对应的虚拟中断到该 VM,直接透传的方式就是 VM 独占访问该硬件,所以在性能上是最好的。 03 关键技术解读 3.1 CPU 虚拟化和节能降耗技术 车载高性能处理器一般采用多核 CPU 架构。在 SMP(Symmetric Multi-Processing 对称多处理)架构下,Hypervisor 调度器会根据 CPU 的亲和性配置让客户机操作系统在指定的 CPU 上运行,虚拟机的操作系统可按照自己的调度方式,比如:优先级方式在 CPU 上进行任务调度。为了最大化地利用系统资源,Hypervisor 也支持多个虚拟机对某个 CPU 的共享使用。在共享核上,Hypervisor 可通过优先级或时间分区方式对虚拟机进行调度,确保虚拟机运行时间和调度策略是确定的。Hypervisor 的调度算法需要确保不能够出现分区内某个虚拟机出现死循环或故障而长期占用处理器资源,导致其他虚拟机的业务无法得到合理时间配额的问题。 虚拟机调度还需要考虑节能降耗问题,在工作负载较高的情况下系统提升主频提升用户体验,在工作负载较低的情况下系统自动节能降频提升续航。车载高性能处理器本身为了节能降耗需求设计为大小核架构,CPU 以及之上运行的复杂操作系统需要支持大小核调度,动态调频,低功耗设置,关闭 CPU 核,休眠(Suspend to RAM/Suspend to Disk)等节能降耗功能。系统虚拟化后,CPU 等物理资源都需要Hypervisor 才能直接访问,Hypervisor 调度算法也需要完成对虚拟机节能降耗的支持。 3.2 IO 设备虚拟化 出于性能考虑,一般嵌入式领域多使用半虚拟化技术。半虚拟化技术需要 Guest OS 中的前端驱动与Hypervisor 中的后端驱动配合实现。前端驱动将 Guest OS 的请求通过 Hypervisor 提供的通信机制发送给后端驱动,后端驱动通过调用物理驱动实现对设备的访问。这就涉及到不同厂商的 Guest OS 与不同厂商的 Hypervisor 生态对接问题。 Virtio 是目前最流行的一种 I/O 半虚拟化解决方案。Virtio 是 OASIS 标准组管理的开放协议和接口,以使得虚拟机能够标准化方式访问 IO 设备。Virtio 于 2016 年 3 月正式标准化,2020 发布 V1.1 版本。Virtio 标准采用通用和标准化的抽象模型,支持设备类型不断增加,性能高效,在云计算领域广泛应用,开源活跃度高,Linux 等操作系统已有稳定的前端驱动代码。大部分商业和开源 Hypervisor 都已经支持Virtio 标准。 Virtio 是车载行业比较常用的半虚拟化技术的实现,如图 6 所示,在 Guest OS 内部虚拟一条设备总线 Virtio-bus,通过 Virtio Ring 双向通信机制,前端驱动与挂载在 Virtio-bus 上遵循 Virtio 标准的后端虚拟设备,进行访问与通信。Virtio 提供了全面的 Virtio 总线和设备控制接口,包括 virtio-net, virtio-blk, virtio-console, virtio-input 等。 图6 Virtio虚拟化实现模型 利用 virtio-blk 技术实现块设备共享 块设备是使用缓存机制读写的存储设备,分配给 Hypervisor 所在的操作系统进行管理。virtio-blk driver 是符合 virtio 标准的块设备驱动,vdev virtio block 是后端的虚拟块设备,virtio blk driver 通过该vdev 设备完成对物理块设备的读写,并获取执行结果。 利用 virtio-net 技术实现跨系统通信 Virtio-net 实现了多系统间点对点的通信,Guest 系统内部的 virtio-net driver 通过 virtqueue 与Hypervisor 所在系统的 virtio-net 设备进行全双工通信,实现多系统之间的控制类、配置类的指令、数据的交互。适合音视频流以外的数据传输,稳定性较好,因 virtqueue 的控制逻辑复杂,对实时性有一定影响。 利用 virtio 技术实现触摸共享 触摸设备是字符型设备,通过 virtio-input driver、vdev-input 实现前端驱动和后端设备。设备端通过 virtqueue 向驱动上报触摸坐标数据。 3.3 实时性技术 实时性是嵌入式实时操作系统的关键性能指标。Hypervisor 的实时性是整个系统实时性的基础,如果 Hypervisor 无法及时调度到客户机操作系统运行,客户机操作系统也不能取得较好的实时性指标。衡量 Hypervisor 实时性主要指标包括中断延迟和调度延迟。中断延迟以硬件发生中断时刻为起始时间,以虚拟机收到 Hypervisor 注入的中断时刻为截止时间,在各种压力情况下最长延时时间即为中断延时。调度延迟是指以高优先级的虚拟机进程就绪为起始时刻,以该高优先的虚拟机进程得到调度运行为截止时刻,在系统各种压力情况下最长的延时时间即为调度延迟。 中断虚拟化后,当外界中断产生时,Hypervisor 收到并以最快的速度注入到虚拟机,使得 Hypervisor 对虚拟机中断处理时间足够少。Hypervisor 优化虚拟机的切换时间,尽量减少 Hypervisor 上关中断和关抢占的时间,尽量少使用内核锁,当高优先级的虚拟机需要切换运行时,能最快速度切换至高优先级虚拟机上运行。 3.4 安全和可靠性技术 功能安全、信息安全和可靠性是车控操作系统产品可靠安全运行的必要组成部分。Hypervisor 为智能汽车域控制器提供基础运行环境,其安全性和可靠性是保证整个系统功能安全和可靠的基础和核心。Hypervisor 需按照汽车功能安全 ISO26262 ASIL-D 最高标准进行设计,开发和测试,其功能安全需求由域控制器产品的安全需求分解产生。 Hypervisor 上运行了多个虚拟机,一个虚拟机的异常不能传递至其他虚拟机。Hypervisor 能获取到当前系统整体健康状态,当虚拟机发生异常时,Hypervisor 应实时监控系统健康状态,有效地隔离故障,并在最小波及范围内修复异常,保障系统持续可用。 Hypervisor 加入汽车软件栈,会导致纵向上软件栈层次增加,横向上业务软件复杂度增加,而汽车的安全可靠要求强于既有的云侧虚拟化、边缘虚拟化,因此虚拟化安全性正日益得到行业的关注。这些安全性包括: 虚拟机管理器和虚拟机之间的信任链问题。利用虚拟化技术在一个可信物理平台上创建出多个虚拟机,并将从硬件可信根开始构建的信任链传递到每一个虚拟机,从而在一个可信物理平台上构建多个虚拟的可信计算平台,有些解决方案缺乏虚拟机管理器到虚拟机之间的信任链验证; 虚拟机间的攻击:恶意入侵者可以通过利用虚拟机管理程序中的漏洞,通过同一物理主机上存在的另一个虚拟机来获得对虚拟机的控制,从而破坏目标虚拟机; 虚拟机逃逸:利用虚拟机软件或者虚拟机中运行的软件的漏洞进行攻击,以达到攻击或控制虚拟机宿主操作系统的目的。 为了提高 Hypervisor 的安全性,建立相应的安全性目标很重要,下表简要列出相关要求: Hypervisor 的安全性能力可以从三个维度进行提升。 (1) 需要建立安全边界 如图 7 所示,这个边界由 Hypervisor 严格定义并且实施。Hypervisor 安全边界的保密性、完整性和可用性需要得到保证。边界能防御一系列攻击,包括侧向通道信息泄漏、拒绝服务和特权提升。虚拟机监控程序安全边界还提供网络流量、虚拟设备、存储、计算资源和所有其他虚拟机资源的隔离能力。 图7 安全边界 整体虚拟化安全架构如图 8 所示。安全边界的保密性可以通过传统的密码学方法来实施。完整性通过可信度量机制来保障,可信报告机制实现不同虚拟环境的可信互通,监控机制动态度量实体的行为,发现和排除非预期的互相干扰。虚拟技术提供的隔离机制将实体运行空间分开。 图8 整体虚拟化安全架构 安全边界的隔离通过Hypervisor的vCPU调度隔离安全、内存隔离、网络隔离和存储隔离技术来支持,实现了同一物理机上 Hypervisor 和虚拟机、虚拟机之间的隔离。 (2) 需要建立深度防御漏洞的缓解机制 对于安全边界存在的潜在漏洞,Hypervisor 需要有一定的技术手段进行主动防御,这些技术手段包括地址空间布局随机化(ASLR)、数据执行保护(DEP)、任意代码保护、控制流保护和数据损坏保护等。 (3) 建立强大的安全保障流程 与 Hypervisor 相关的攻击面包括虚拟网络、虚拟设备和所有跨虚拟机表面,所有虚拟机攻击面都建议实施威胁建模、代码审核、模糊(fuzzed)测试,通过建立自动化构建及环境,触发定期安全检查。 虚拟化技术作为云计算场景的重要技术,在 10 多年的生产实践中已经积累了很多安全范式,这些经验也可被汽车场景借鉴。但是与云场景相比,汽车场景的虚拟化技术也有其特殊性,如虚拟机不需要动态迁移 / 创建,Hypervisor 有功能安全等级的要求等等,其安全性手段需要在实践中不断丰富和完善。 04 典型应用案例 在汽车智能化发展历程中,虚拟化主要应用于智能座舱、智能驾驶、智能网关等融合场景。智能驾驶受技术成熟度、政策法规所限,基本处于预研、方案原型阶段。智能网关业务功能相对同构,并且有可能进一步融合到其他场景方案中。因此,目前主要的应用案例集中在智能座舱中。 智能座舱域融合也是在近几年启动,正在不断迭代演进中。受芯片算力、虚拟化技术成熟度、生态链对于虚拟化解决方案的掌控能力等因素影响,有些厂商同时采用了硬隔离方案来实现域融合,一方面最大程度地沿用既有技术能力,有确定性保障,但是缺少了软件定义的灵活性,智能化程度有限,是域融合的一种可选方案。在嵌入式虚拟化技术方面,国外的 QNX、OpenSynergy、PikeOS 等有先发优势,尤其在汽车领域已耕耘多年,因此在这两年涌现了较多的应用案例。在智能本土化发展的趋势带动下,国内这几年也出现了不少芯片厂商、独立软件厂商研发嵌入式虚拟化技术、产品、解决方案,如中瓴智行的 RAITE Hypervisor(RHOS)、中兴 GoldenOS、斑马智行的 AliOS Hypervisor、中汽创智 CAIC Hypervisor 等。 4.1 智能座舱域控制器产品 某厂家智能座舱域控制器产品,基于高通 8155、瑞萨 R-Car H3 处理器,采用 QNX Hypervisor,搭载 QNX Host、 Android P/R/S Guest OS, 可配置输出最多 6 块高清大屏独立显示,集成了娱乐系统、液晶仪表、车身控制、DMS、APA 等功能,支持独立四音区、多屏互动和音视频分享,集成度高,在长城、长安、宇通客车等多款车型上适配量产。 另外,国产化方案芯驰 X9HP+ 平台,采用硬分区、Hypervisor 两种方案灵活配置实现中低端智能座舱域控制器产品。 4.2 RHOS 智能座舱域控制器平台 (1) NXP I.MX8QM 座舱域控制器 某厂家基于自研的 Type-1 型虚拟化软件 RHOS(Raite Hypervisor OS),适配支持了 NXP I.MX8QM,提供一个轻量、灵活的汽车智能座舱虚拟化解决方案,已在东风车型量产上市。其系统架构如图 11所示: 图11 NXP I.MX8智能座舱系统架构 在 SoC 上运行 Hypervisor 后可支持同时运行多个操作系统,比如 Linux 系统可以运行实时性和安全性较高的业务,如全液晶仪表等,可以扩展运行 DMS、HUD 等业务。另外一个虚拟机运行 Android 操作系统,上面部署信息娱乐等安全性和实时性要求较低的业务。为保证系统具备良好的市场竞争力,域控制器兼容 TBOX 功能需求,系统能够支持休眠唤醒和快速启动。 Linux 和 Android 虚拟机可按需进行资源的配置,包括内存、CPU、存储空间、外设等。该架构支持系统升级,包括对虚拟机和 Hypervisor 的升级,支持异常日志记录,包括虚拟机内核和 Hypervisor 日志。 多屏交互是智能座舱重要的应用场景,Android 的 APP 应用程序可以通过 Hypervisor 推送到 Linux仪表进行显示。 图12 虚拟机多屏交互架构 Android 和 Linux 仪表交互的方案如图 12 所示。NXP I.MX8QM 芯片有两个以上显示接口,每个显示接口可以接 2 个显示屏,当 Android 系统需要投射信息到仪表屏幕时,仪表显示屏的 Overlay 图层可以进行投屏内容的显示。系统交互零延迟、零拷贝,多系统交互不额外占用 CPU 和 GPU 资源。通过Hypervisor 虚拟化技术实现跨系统多屏交互,有效提高了行车安全性,并降低智能座舱的硬件成本。 (2) MT8675 座舱域控制器 RHOS 通过适配支持MT8675,形成一个功能丰富、性价比高的一机多屏智能座舱域控制器解决方案,已获得多个车厂量产项目。其总体系统架构如图 13 所示: 图13 MT8675智能座舱系统架构 MT8675 只提供了一个 GPU,座舱域需要在仪表和中控上共享使用 GPU 资源。RHOS 实现了 GPU虚拟化共享,并通过性能优化,达到业界领先的虚拟化效果(损耗)。
本期我们来通过一个实例,详细了解机房如何做防雷接地? 一、为什么要做防雷接地? 计算机和网络越来越深入人们生活和工作中,同时也预示着数字化、信息化时代的来临。这些微电子网络设备的普遍应用,使得防雷的问题显得越来越重要。由于微电子设备具有高密度、高速度、低电压、和低功耗等特性,这就使其对各种诸如雷电过电压、电力系统操作过电压、静电放电、电磁辐射等电磁干扰非常敏感。如果防护措施不力,随时随地可能遭受重大损失。 二、机房防雷的必要性 雷击可以产生不同的破坏形式,国际电工委员会已将雷电灾害称为“电子时代的一大公害”,雷击、感应雷击、电源尖波等瞬间过电压已成为破坏电子设备的罪魁祸首。从大量的通信设备雷击事例中分析,专家们认为:由雷电感应和雷电波侵入造成的雷电电磁脉冲(LEMP)是机房设备损坏的主要原因。为此采取的防范原则是“整体防御、综合治理、多重保护”。力争将其产生的危害降低到最低点。 三、机房防雷接地系统设计 一、防雷设计 防雷接地系统是弱电精密设备及机房保护的重要子系统,主要保障设备的高可靠性,防止雷电的危害。中心机房是一个设备价值非常高的场所,一旦发生雷击事故,将会造成难以估量的经济损失和社会影响,根据GB50057《建筑物防雷设计规范》和IEC61024-1-1标准的有关规定,中心机房的防雷等级应定为二类标准设计。 目前大楼总配电室根据建筑物防雷设计规范,提供了第一级防雷,因此,在本工程网络中心机房市电配电柜前配置第二、三级复合防雷器。 防雷器采用独立模块,并应具有失效告警指示,当某个模块被雷击失效时可单独更换该模块,而不需要更换整个防雷器。 二三级复合防雷器的主要参数指标:单相通流量为:≥40KA(8/20μs),响应时间:≤25ns 二、接地系统设计 国家标准GB50174《计算机机房设计规范》中计算机机房应具有以下四种地:计算机系统的直流地、交流工作地、交流保护地和防雷保护地。 各接地系统电阻如下: Ø计算机系统设备直流地接地电阻不大于1Ω。 Ø交流保护地的接地电阻应不大于4Ω; Ø防雷保护地的接地电阻应不大于10Ω; Ø交流工作地的接地电阻应不大于4Ω; 1、机房室内等电位连接 在机房内设立一环形接地汇流排,机房内的设备及机壳采用S型的等电位连接形式,连接到接地汇流排上,用50*0.5铜铂带敷设在活动地板支架下,纵横组成1200*1200网格状,在机房一周敷设30*3(40*4)的铜带,铜带配有专用接地端子,用编织软铜线机房内所有金属材质的材料都做接地,接入大楼的保护地上。 工程中的所有接地线(包括设备、SPD、线槽等)、金属线槽搭接跨接线均应做到短、平、直,接地电阻要求小于或等于1欧姆。 2、机房屏蔽设计 整个机房屏蔽采用彩钢板进行六面体屏蔽,屏蔽板之前采用无缝焊接,墙身屏蔽体每边跟接地汇流排接地不少于2处。 3、机房接地装置设计 由于机房接地电阻要求较高,在该大楼附近另外增加人工接地装置,在地网槽内打入15根镀锌角钢,并用扁钢焊接起来,并采用降阻剂回填。机房静电接地采用50mm²多股铜芯线穿管引入。 接地装置的接地电阻要求小于或等于1欧姆。 四、机房地网制作方法 一、标准接地网的制作 在距建筑物1.5~3.0m处,以6m*3m矩形框线为中心,开挖宽度为0.8m、深0.6~0.8m的土沟,两长边中间贯通,采用长2.5m的L5(5*50*50)镀锌角钢,在沟底的每个交点处垂直打入一根,共计6-20根,作为垂直接地极; 然后采用4号(4*40)镀锌扁钢将六根角钢焊接连通,作为水平接地极;再用4号镀锌扁钢焊在地网框架的中间部位,引出至机房外墙角,离地高0.3m,作为PE接地端;最后从该接地端引出16-50平方毫米以上护套地线,沿墙边穿墙进入室内,连至机房内等电位接地汇集排。 二、利用大楼钢筋做地网 新建或翻建机房时,可利用入地混凝土立柱子内的钢筋作接地装置。在立柱内选取至少4根主筋(对角或对称的钢筋),用氧焊接通后再焊在两根伸出柱面的M12以上铜螺纹管上,作为接地端,引线至机房,与等电位接地汇流排连通,等电位接地排可设在防静电地板下面。 五、如何做机房防雷接地? 所谓接地,即把电路中的某一金属壳与大地边接在一起,形成电气回路。目的是为了让电流易于流如入大地,对人及设备形成保护。 接地的方法: 直流地悬浮法即直流地不接大地,与地严格绝缘; 直流地接地法,把计算机等设备中数字电路等的电位点地和网络。 无论采用何种形式,均须有接地母线,接地地杖,在此特别强调建议采用接地埋接地网络板,能更好的引导至大地,接地时应注意如下问题: Ø尽量不要在机房内把直流地和交流工作地短路或混接; Ø不允许交流线路与直流地线平行敷设,以防止干扰或短接; Ø直流地线网应装接在地板下,便于边接,即可减小接地电阻,便于泄流。 1、接地铜排 室内机房接地采用30*5(宽*厚,单位mm)规格之铜片,围绕机房墙壁一周离地面10cm高,且与室外接地体母线相连接。在铜片每隔50 cm钻一小孔,以利于分布在机房各区域的设备进行接地。 2、接地铜板 接地铜板采用宽60mm(厚10mm)之L型铜板固定于楼板,此铜墙铁壁板作为所有应与机房接地之设施的总接地。 3、地网 机房有架设高架地板,则应以2.5mm之多芯裸铜线缠绵高架地板柱做地网。 六、机房防雷接地工程实例 一、项目情况 某数据中心机房位于大楼三层,面积约1000m²。 本工程配电采用TN-S系统,独立设置接地线(PE)。采用大楼联合接地系统,并且要求接地小于1欧姆。 机房内设有功能性接地和保护性接地,共用一组接地装置。 1、保护接地,防雷保护接地延引大楼的接地。 2、机房内做M网型结构均压等电位网格。机房室内等电位做法在机房地板下沿机柜一周敷设等电位铜带30×3mm²(均压环),铜带用ZR-BVR6mm2与各机房动力配电柜PE排相连,并设置100*0.3mm²铜箔等电位网格。机房动力设备的地线、动力设备的外壳、不带电的金属管道、金属线槽外壳、计算机设备外壳、防静电地板支架、吊顶龙骨、等均须用ZR-BVR6mm2与等电位铜排网络就近可靠相连。机房内设置等电位端子箱,机房内等电位端子箱采用ZR-BVR50mm²的电缆与大楼综合接地端可靠连接。机房等电位接地示意图如图1-1所示。 二、防雷设计思路 一个完整的防雷方案包括防直接部分和防感应雷击两部分,中心机房所在的建筑物已具备防直接雷击防护措施,因此本方案只对机房电子设备的配电系统采取相应的防感应雷击措施。 工程计算机交流配电系统采用三级防雷: 第一级在大楼低压配电室内加装防雷器,实现第一级防雷(由大楼实现)。 第二级在UPS输入配电柜内加装B级防雷器,实现第二级防雷。 第三级在机房UPS输出列头配电柜内加装C级防雷器,实现第三级防雷。 机房防雷设计示意图如图2-1所示: 三、防雷设计思路 由于网络集成系统防护点多、面广,因此,为了保护建筑物和建筑物内各向电子网络设备不受雷电损害或使雷击损害降低到最低程度,应从整体防雷的角度来进行防雷方案的设计。现在都采取综合防雷,综合防雷设计方案应包括两个方面:直击雷的防护和感应雷的防护,缺少任何一方面都是不完整的,有缺陷的和有潜在危险的。 1、直击雷的防护 如果无直击雷防护,按IEC1312的估算几乎所有雷电流都流经进出建筑物的导体型线路(如电源线、信号线等)侵入设备,这样的损害就非常之严重,因此做好直接雷击防护是做感应雷击防护的前提;直击雷防护按照国标GB50057《建筑物防雷设计规范》设计和施工,主要使用避雷针、网、线、带及良好的接地系统,其目的是保护建筑外部不受雷击的破坏,给建筑物内的人或设备提供一个相对安全的环境。 2、电源系统的防护 统计数据资料表明,微电子网络系统80%以上的雷害事故都是因为与系统相连的电源线路上感应的雷电冲击过电压造成的。因此,做好电源线的防护是整体防雷中不容忽视的一环。 3、信号系统的防护 尽管在电源和通信线路等外接引入线路上安装了防雷保护装置,由于雷击发生在网络线(如双绞线)感应到过电压,仍然会影响网络的正常运行,甚至彻底破坏网络系统。雷击时产生巨大的瞬变磁场,在1公里范围内的金属线路,如网络金属连线等都会感应到极强的感应雷击; 另外,当电源线或通信线路传输过来雷击电压时,或建筑物的地线系统在泻放雷击时,所产生强大的瞬变电流,对于网络传输线路来说,所感应的过电压已经足以一次性破坏网络。即使不是特别高的过电压,不能够一次性破坏设备,但是每一次的过电压冲击都加速了网络设备的老化,影响数据的传输和存储,甚至死机,直至彻底损坏。所以网络信号线的防雷对于网络集成系统的整体防雷来说,是非常重要的环节。 4、等电位连接 集成网络系统主干交换机所在的中心机房应设置均压环,将机房内所有金属物体,包括电缆屏蔽层、金属管道、金属门窗、设备外壳以及所有进出大楼的金属管道等金属构件进行电气连接,并接至均压环上,以均衡电位。 5、接地 机房采用联合接地可有效的解决地电位升高的影响,合格的地网是有效防雷的关键。机房的联合地网通常由机房建筑物基础(含地桩)、环形接地(体)装置、工作(电力变压器)地网等组成。对于敏感的数据通讯设备的防雷,接地系统的良好与否,直接关系到防雷的效果和质量。如果地网不合要求,应改善地网条件,适当扩大地网面积和改善地网结构,使雷电流尽快地泄放,缩短雷电流引起的高过电压的保持时间,以达到防雷要求。 四、电源防雷 电源系统防雷采用三级防雷的方式。对机房配电箱的防雷应采取不少于二级保护(细保护),既在机房的主配电箱的输入一套安装二级防雷器,在机房配电箱输出端每一路安装三级防雷器。即在配电柜中总开关前端安装二级防雷器,这样既节省空间,又起到了美观、易维护的作用,并分别在市电配电柜、UPS配电柜各自的总开关前端安装三级防雷器,以保护机房内的设备。 五、接地系统 本机房有四种接地形式,即:计算机专用直流逻辑地、交流工作地、安全保护地、防雷保护地。 1、计算机机房接地系统 在机房活动地板下方安装铜排网,将机房所有计算机系统非带电壳体接入铜排网并由此引入大地。机房接地系统采用专用接地系统,专用接地系统由大楼提供,接地电阻≤1Ω。 2、机房内等电位接地具体做法: 用3mm×30mm的铜带,在机房活动地板下交叉排成方格,其交叉点与活动地板支撑的位置交错排列,交点处压接在一起,并在铜带下用垫绝缘子固定。在机房离墙400mm的距离沿墙采用3mm×30mm紫铜条造成一个M型或S型的地网,紫铜条间的接驳位用10mm镙母压接后烧铜焊,通过35mm2铜缆引下线驳接建筑物的联合接地体,这样就形成一个法拉第笼式接地系统,并保证接地电阻不大于1Ω。 机房等电位连接:将天花龙骨、墙身龙骨、活动地板支架、非计算机系统的管、金属的门、窗等均做等电位连接,并分别取多点通过16m m2的地线接入机房接地铜排网。 3、交流工作地 在电力系统中运行需要的接地(配电柜中性点接地),应不大于4欧姆。与变压器或发电机直接接地的中性点连接的中性线称零线;将零线上的一点或多点与地再次做电气连接称重复接地。交流工作地是中性点可靠地接地。当中性点不接地时,若一相碰地而人又触及另一相时,人体所受到的接触电压将超过相电压,而当中性点接地时,且中性点的接地电阻很小,则人体受到电压相当于相电压;同时若中性点不接地时,由于中性点对地的杂散抗阻很大,因此接地电流很小;相应的保护设备不能迅速切断电源,对人及设备产生危害;反之则行。 4、安全保护地 安全保护地是指机房内所有机器设备的外壳以及电动机、空调机等辅助设备的机体(外壳)与地之间做良好的接地,应不大于4欧姆。当机房内各类电器设备的绝缘体损坏时,将会对设备和操作及维修人员的安全构成威胁。所以应使设备的外壳可靠接地。 5、防雷保护地 即机房的防雷系统的接地,一般以水平连线和垂直接地桩埋设地下,主要是把雷电电流由受雷装置引到接地装置,应不大于10欧姆。 防雷装置可分为三个基本部分:即接闪器、引下线和接地装置,接闪器即接受雷电电流的金属导体。本方案只将加装防雷器的引下线与动力配电柜内的接地铜排连接。要求接地电阻≤4Ω。 六、防雷设计方案 1、直击雷的防护 机房所在大楼已有避雷针、避雷带等外部防雷设施,不再作外部防雷补充设计。如之前无直击雷防护,需在机房顶层做避雷带或是避雷网,若机房在空旷地带,视情况还需安装避雷针,避雷针、避雷带必须做好引下线,接入地网。 2、电源系统的防雷 (1)、对于网络集成系统的电源线防护,首先,进入系统总配电房的电源进线,应采用金属铠装电缆敷设,电缆铠装层的两端应良好接地;如果电缆没有铠装层,则就将电缆穿钢管埋地,钢管两端接地,埋地的长度应不小于15米。由总配电房至各大楼的配电箱以及机房楼层配电箱的电力线路,均应采用金属铠装电缆进行敷设。这样可以大大减少电源线感应过电压的可能性。 (2)、在电源线路上安装电源防雷器,是必不可少的防护措施。根据IEC防雷规范中有关防雷分区的要求,将电源系统分为三级保护。 ① 可在系统总配电房的配电变压器低压侧安装流通容量80KA~100KA的一级电源防雷箱。 ② 在各大楼的总配电箱安装通流容量为60KA~80KA的二级电源防雷箱; ③ 在机房的重要设备(如交换机、服务器、UPS等)的电源进线处安装通流容量20~40KA的三级电源防雷器; ④ 在机房控制中心硬盘刻录机及电视墙设备电源处用插座式防雷器。 所有防雷器均应良好接地。选用防雷器要注意接口的形式和接地的可靠性,重要场所应设置专用的接地线,切不可将防雷接地线与避雷针接地线并接,且要尽量远离、分开入地。 3、信号系统的防雷 (1)、网络传输线主要使用的是光纤和双绞线。其中光纤不需要特别的防雷措施,但若室外的光纤是架空的,那么需要将光纤的金属部分接地。而双绞线屏蔽效果较差,因此感应雷击的可能性比较大,应将此类信号线敷设在屏蔽线槽中,屏蔽线槽应良好接地;也可穿金属管敷设,金属管应全线保持电气上的连通,并且金属管两端应良好接地。 (2)、在信号线路上安装信号防雷器,对防感应雷是一种行之有效的办法。对于网络集成系统,可在网络信号线进入到广域网路由器之前安装专用信号防雷器;在系统主干交换机、主服务器以及各分交换机、服务器的信号线入口处分别安装RJ45接口的信号防雷器(如RJ45-E100)。信号防雷器的选型应综合考虑工作电压、传输速率、接口形式等。避雷器主要串接在线路的两端设备的接口处。 ① 服务器输入端口处安装单口 RJ45 端口信号避雷器,以保护服务器。 ② 24口网络交换机串联 24 口的RJ45 端口信号避雷器,避免因雷击感应或电磁场干扰沿双绞线窜入而毁坏设备。 ③ 在DDN专线接收设备上安装单口RJ11端口信号避雷器,保护DDN 专线上的设备。 ④ 在卫星接收设备前端安装同轴端口天馈线避雷器,以保护接收设备。 (3)、对于监控系统机房的防雷保护 ① 在硬盘录像机的视频线出线端加装视频信号防雷器或采用机架式视频信号防雷箱,12口全保护,安装方便。 ② 在矩阵与视频分割器的控制线进入端加装控制信号防雷器(DB-RS485/422)。 ③ 机房电话线采用音频信号防雷器,串接在电话机前端电话线处,安装方便,易维护。 ④ 在报警器前端信号线接入处装控制信号防雷器,对报警器信号线做有效的防雷保护。 注意:所有防雷器均应良好接地,选用防雷器要注意接口的形式和接地的可靠性,重要场所应设置专用的接地线,切不可将防雷接地线与避雷针接地线并接,且要尽量远离、分开入地。 4、机房等电位连接 在机房防静电地板下,沿着地面上布置40*3紫铜排,形成闭合环接地汇流母排。将配电箱金属外壳、电源地、避雷器地、机柜外壳、金属屏蔽线槽、门窗等穿过各防雷区交界的金属部件和系统设备的外壳,以及对防静电地板下的隔离架进行多点等电位接地就进至汇流排。并采用等电位连接线4-10mm2铜芯线螺栓紧固的线夹作为连接材料。同时在机房找出建筑物主钢筋,经测试确与避雷带连接良好,用14mm镀锌圆钢通过铜铁转换接头将接地汇流母排与之连接起来。形成等电位。采用联合接地网,目的是消除各地网之间的电位差,保证设备不因雷电的反击而损坏。 5、接地网制作设计 接地是避雷技术非常重要的环节之一,无论是直击雷或感应雷,最终都是把雷电流引入大地。因此,对于敏感的数据(信号)通信设备而言,没有合理而良好的接地系统是不能可靠避雷的。因此,对接地电阻>1Ω 的大楼地网,需按照规范要求整改,以提高机房接地系统的可靠性。根据具体情况,通过沿机房大楼建立不同形式的接地网(包括水平接地体、垂直接地体)来扩大接地网的有效面积和改善地网的结构。 采用共用接地装置时,共用接地电阻值不应大于1Ω; 采用专用接地装置时,其接地电阻值不应大于4Ω。 基本要求如下: 1 )在大楼周围做接地网,用较少的材料和较低的安装成本,完成最有效的接地装置; 2)接地电阻值要求 R ≤1Ω ; 3)接地体应离机房所在主建筑物 3~5m 左右设置; 4)水平和垂直接地体应埋入地下0.8m 左右,垂直接地体长 2.5m ,每隔 3~5m 设置一个垂直接接地体,垂直接地体采用 50×50×5mm 的热镀锌角钢,水平接地体则选 50×5mm 的热镀锌扁钢; 5)在地网焊接时,焊接面积应≥6 倍接触点,且焊点做防腐蚀防锈处理; 6)各地网应在地面下0.6~0.8m 处与多根建筑立柱钢筋焊接,并作防腐蚀、防锈处理; 7)土壤导电性能差时采用敷设降阻剂法,使接地电阻≤1Ω ; 8)回填土必须是导电状态较好的新粘土; 9)与大楼基础地网多点焊接,并预留接地测试点。 以上是一种传统的廉价实用的接地方式,根据实际情况,接地网材料也可以选用新型技术接地装置,如免维护电解离子接地系统、低电阻接地模块、长效铜包钢接地棒等等。 五、机房防雷接地注意事项 1、考虑到雷电或其他电信设备的干扰,计算机房不宜设置在大楼的顶层或靠外墙侧,特殊情况限制的,应设置屏蔽层防止雷电干扰。对于特别重要的计算机系统,应考虑设置独立的屏蔽机房。建筑物(包括计算机机房)内设备及管线接地安装应按照相关规范执行,做好等电位联结; 2、防止雷电危害还应防雷击引起的电磁脉冲,计算机房的配电箱应设置SPD(防电磁浪涌)保护装置,防止机房供电电源由于雷击电磁脉冲而造成断电。另外,对于重要的系统主机,其通讯电缆也应设置SPD保护装置,由于通讯电缆数量一般比较多,因此通讯线的保护设置应根据具体实际情况合理设置; 3、电气接地系统宜采用TN-S接地系统,PE线与相线分开,机房电源接入处应做重复接地; 4、机房接地一般分为交流工作接地、直流工作接地、安全工作接地、防雷保护接地。根据《建筑物防雷设计规范》的要求,防雷设计采用共用接地系统时,各接地系统宜共用一组接地装置。信息系统的所有外露导电物(各种箱体、壳体、机架等金属组件)应建立一等电位联结网络。 因此,电气防雷设计应在计算机房设置专用的等电位联结排,通过引下线与大楼总等电位联结排连接。根据共用接地系统的层层等电位原则,采用结构主钢筋作为引下线,更适用于共用接地系统。另外强调,大楼接地系统的接地电阻不应大于1Ω。
在数据中心和通信行业,会用到很多蓄电池,这些蓄电池可作为交流不间断电源系统、直流电源系统备用电源,又可作为油机等起动动力电源,还可作为高压配电系统中的直流操作及控制电源。
核心网;简单点说,可以把移动网络划分为三个部分,基站子系统,网络子系统,和系统支撑部分比如说安全管理等这些。核心网部分就是位于网络子系统内,核心网的主要作用是把A口上来的呼叫请求或数据请求,接续到不同的...
服务器是信息时代的重要设备之一,在缺少服务器的情况下,我们将无法高效地同其它通信设备进行通信。依据服务器类型的不同,服务器可以分为高防服务器、游戏服务器等等。在本文中,小编将对云服务器予以介绍,主要...
存储是各电子设备均存在的组件或者能力之一,通过存储,能够帮我们存储运行过程中产生的数据。依据存储的不同,可分为对象存储、文件存储等。目前,最火热的存储方式之一,便是云存储。为增进大家对云存储的认识,...
处理器可以说是机器的大脑,通过处理器,能够对0、1数据进行处理。为增进大家对处理器的认识,本文将对处理器,以及网络处理器的应用场景予以介绍。如果你对处理器、网络处理器具有兴趣,不妨和小编一同继续往下阅...
无论对于芯片设计商还是器件制造商来说,DDR内存可谓是无处不在——除了在服务器、工作站和台式机中之外,还会内置在消费类电子产品、汽车和其他系统设计中。每一代新的 DDR(双倍数据速率)SDRAM(同步动态随机内存)标准都会在许多方面带来显著改进,包括速度、尺寸和功率效率。 一、DDR是什么? DDR概述 DDR SDRAM(Double Data Rate Synchronous Dynamic Random Access Memory,双数据率同步动态随机存储器),简称为DDR, 简单的说就是双倍传输速率的SDRAM。 普通SDRAM内存的工作方式是在一个时钟周期的上升沿触发进行工作。也就是说在一个时钟周期内,内存将工作一次。 而DDR的技术使得内存可以在每一个时钟周期的上升沿和下降沿分别触发一次,这样就使得在一个时钟周期内内存可以工作两次,这样就使得DDR内存在相同的时间内能够完成普通内存一倍的工作量。 DDR定义里的“同步”是什么意思? “同步”是指内存工作需要同步时钟。DDR内部命令的发送与数据传输都以它为基准。 DDR的全拼是Double Data Rate SDRAM双倍数据速率同步动态随机存取内存, 主要用在电脑的内存。DDR的特点就是走线数量多,速度快,操作复杂,给测试和分析带来了很大的挑战。 目前DDR技术已经发展到了DDR5,性能更高,功耗更低,存储密度更高,芯片容量大幅提升,他的数据速率在3200-6400MT/s。 DDR本质上不需要提高时钟频率就能加倍提高SDRAM的速度,它允许在时钟的上升沿和下降沿读出数据,因而其速度是标准SDRAM的两倍,至于地址与控制信号则与传统SDRAM相同,仍在时钟上升沿进行数据判断。 DDR核心技术点就在于双沿传输和预取Prefetch. DDR的频率包括核心频率,时钟频率和数据传输频率。核心频率就是内存的工作频率;DDR1内存的核心频率是和时钟频率相同的,到了DDR2和DDR3时才有了时钟频率的概念,就是将核心频率通过倍频技术得到的一个频率。数据传输频率就是传输数据的频率。 DDR存储器的身影现在到处可见 — 不仅在服务器、工作站和台式电脑中使用,还广泛嵌入在消费电子、汽车和其他系统设计中。 每一代 DDR SDRAM(双倍数据速率同步动态随机存取存储器)的推出,都伴随着速度提升、封装尺寸减小,以及功耗降低(参见表 1)。 这些功能特性方面的改进,也使得设计人员在降低设计裕量、提高信号完整性和互操作性方面面临更多的挑战。 表 1 JEDEC 定义了 DDR 规范 DDR内存原理 基本DDR subsystem架构图:DDRC +DDRphy +SDRAM颗粒,DDR IP一般包括DDR Controller和DDR PHY,内部涉及的内容包括但不限于以下几个方面:数据保序、仲裁、最优调度、协议状态机设计、防饿死机制、bypass通路、快速切频、DDR training DDR工作原理 当时钟脉冲达到一定频率时,DDR存储器才开始工作,此后发生的就是“读-存-读”的过程。在此过程中,器件芯片会从主在取数据,然后与入数据在储区。当写入操作完成后,再从存储区中取出数据,並将其传输到处理器中,然后根据需要将数据处理,再把最终结果返回到主存。 DDR 的双倍数据传输率其实就是每个时钟周期内读写一次数据,即DDR芯片可以在每个时钟周期内分别完成“读-存”和“存-读”操作,从而提高存储器的传输效率。 DDR内存通过双倍数据速率的传输方式,结合多通道传输和数据校验等技术,提高了数据传输效率和可靠性。这使得 DDR 成为了计算机内存的主流技术。 内存芯片 - DDR内存模块中包含多个内存芯片,每个芯片有自己的存储单元。每个存储单元都有一个地址,用于在读取或写入数据时进行寻址。 数据总线 - DDR内存模块连接到计算机的内存控制器,通过数据总线进行数据传输。数据总线可以同时传输多个数据位,例如 64 位或 128位。 时钟信号 - DDR内存模块通过时钟信号进行同步操作。时钟信号用来控制数据的传输速率,每个时钟周期内有一个上升沿和一个下降沿。上升沿时,数据从内存芯片传输到数据总线;下降沿时,数据从数据总线传输到内存芯片。 预充电 - 在开始传输数据之前,DDR内存模块会先进行预充电操作。预充电是将存储单元中的电荷恢复到初始状态,以确保接下来的数据传输是准确的。 数据传输 - DDR 采用了多通道的数据传输方式,即同时传输多个数据位。这样可以在每个时钟周期内传输更多的数据。 DDR接口 电子器件工程联合会(JEDEC)现已针对小功率DDR(LPDDR)或移动设备(移动DDR)推出了全新的 DDR标准。 这个标准使用了更低的信号幅度,进一步改善了功耗情况。目前,该标准已经达到了 DDR1 的技术指标。 工程师们将无需重新设计器件的链路层或协议层,便可享受功耗降低带来的种种优势,因为只需很少的投资便能调整系统的电压电平。 DDR接口可传输控制、地址、时钟、选通和数据信号。如图 1 所示,时钟、地址和控制信号从存储器控制器单向传输到 DDR芯片;选通和数据信号为双向传输。 在读取操作中,选通和数据信号从DDR芯片传输到存储器控制器。 在写入操作中,信号沿相反方向传输。随着数据传输速率的增加和信号幅度的降低,为了提高信号性能,时钟和选通信号采用差分信号,这样可以消除共模噪声。 其他信号仍然在单端模式下操作,更容易受到噪声、串扰和干扰的影响。 存储器分类 存储器分为内部存储器(内存),外部存储器(外存),缓冲存储器(缓存)以及闪存这几个大类。 内存也称为主存储器,位于系统主机板上,可以同CPU直接进行信息交换。其主要特点是:运行速度快,容量小。 外存也称为辅助存储器,不能与CPU之间直接进行信息交换。其主要特点是:存取速度相对内存要慢得多,存储容量大。 内存与外存本质区别是,一个是内部运行提供缓存和处理的功能,也可以理解为协同处理的通道;而外存主要是针对储存文件、图片、视频、文字等信息的载体,也可以理解为储存空间。 缓存就是数据交换的缓冲区 (称作Cache),当某一硬件要读取数据时,会首先从缓存中查找需要的数据,如果找到了则直接执行,找不到的话则从内存中找。由于缓存的运行速度比内存快得多,故缓存的作用就是帮助硬件更快地运行。 闪存 (Flash Memory)是一种长寿命的非易失性的存储器,数据删除不是以单个的字节为单位而是以固定的区块为单位。 闪存是电子可擦除只读存储器(EEPROM) 的变种,闪存与EEPROM不同的是,EEPROM能在字节水平上进行删除和重写而不是整个芯片擦写,而闪存的大部分芯片需要块擦除。 由于其断电时仍能保存数据,闪存通常被用来保存设置信息,如在电脑的B1OS(基本程序)、PDA(个人数字助理)、数码相机中保存资料等。 存储器主要分为只读存储器 ROM 和随机存取存储器 RAM (random access memory) 两大类 ROM:只读存储器 - ROM 所存数据,一般是装入整机前事先写好的,整机工作过程中只能读出,ROM所存数据稳定,断电后所存数据也不会改变。RAM:随机存取存储器 (random access memory) - RAM 是与 CPU 直接交换数据的内部存储器,它可以随时读写,速度快,通常作为操作系统或其他正在运行中的程序的临时数据存储媒介,当电源关闭时 RAM 不能保留数据。DDR SDRAM 在系统时钟的上升沿和下降沿都可以进行数据传输 - DDR SDRAM在 SDRAM 的基础上发展而来,这种改进型的 DRAM和 SDRAM 是基本一样的,不同之处在于它可以在一个时钟读写两次数据,这样就使得数据传输速度加倍了,也是目前电脑中用得最多的内存,而且具有成本优势。DDR 已经发展至今已经进化到 DDR5,与 DDR4相比,DDR5 在强大的封装中带来了全新的架构。 如何计算DDR带宽? 内存带宽计算公式1: 带宽=内存核心频率×倍增系数×(内存总线位数/8) 内存带宽计算公式2: 带宽=标称频率×线宽 ÷ 8 SDRAM和DDR区别是什么? DDR=双倍速率同步动态随机存储器,是内存的其中一种。DDR取消了主板与内存两个存储周期之间的时间间隔,每隔2个时钟脉冲周期传输一次数据,大大地缩短了存取时间,使存取速度提高百分之三十。 SDRAM是 "Synchronous Dynamic random access memory”的缩写,意思是“同步动态随机存储器”,就是我们平时所说的“同步内存”。从理论上说,SDRAM与CPU频率同步,共享一个时钟周期。 SDRAM内含两个交错的存储阵列,当CPU从一个存储阵列访问数据的同时,另一个已准备好读写数据,通过两个存储阵列的紧密切换,读取效率得到成倍提高。 通常DRAM是有一个异步接口的,这样它可以随时响应控制输入的变化。而SDRAM有一个同步接口,在响应控制输入前会等待一个时钟信号,这样就能和计算机的系统总线同步。 时钟被用来驱动一个有限状态机,对进入的指令进行管线操作。这使得SDRAM与没有同步接口的异步DRAM(asynchronous DRAM)相比,可以有一个更复杂的操作模式。 DRAM单元(cell) DDR SDRAM,是一种双数据速率(DDR)同步动态随机存取存储器(SDRAM)。DDR是SDRAM的更新换代产品,采用5伏工作电压,允许在时钟脉冲的上升沿和下降沿传输数据,这样不需要提高时钟的频率就能加倍提高SDRAM的速度,并具有比SDRAM多一倍的传输速率和内存带宽。 作为现代数字系统里最重要的核心部件之一,应用十分广泛。从消费类电子到商业工业类设备,从终端产品到数据中心,用于CPU进行数据处理运算的缓存。近20多年来,经历了从SDRAM发展到DDR RAM,又从DDR发展到目前的DDR5,每一代 DDR 技术在带宽、性能和功耗等各个方面都实现了显著的进步,极大地推动了计算性能的提升。 二 DDR标准发展和DDR5简介 图1展示的是RAM(Random Access Memory)20多年来的发展历程和信号特点。在SRAM时代,由于较低的信号速率,我们更多关心的是信号的扇出以及走线所带来的容性负载。 在DDR1/2/3时代,信号速率的不断提升,传统的使用集总参数方式来进行电路分析已越发显得不足,我们更关心的是信号的建立保持时间,以及信号线之间的延迟skew。 来到DDR4时代,有限带宽的PCB、连接器等传输通道,把原始信号里的高频分量削弱或者完全去掉,使得信号在时域波形上的表现为边沿变缓、出现振铃或者过冲。 我们要像分析传统串行数据那样去更加关心数据的眼图,接收端模板和误码率。随着AI、机器学习以及5G的发展,以往的DDR4技术,开始显得力不从心。如今DDR5的第5代高速I/O数据传输开始大规模走向市场化。 2.1 DDR5和DDR4性能差别 - DDR5的新特性 如下表所示,DDR5相比DDR4而言,带来了一系列关键的性能提升,同时也带来了新的设计挑战。 DDR4和DDR5比较(源自Rambus) 2.1.1 速率的提升 近年来,内存与CPU性能发展之间的剪刀差越来越大,对内存带宽的需求日益迫切。DDR4在1.6GHz的时钟频率下最高可达 3.2 GT/s的传输速率,最初的 DDR5则将带宽提高了 50%,达到 4.8 GT/s传输速率。DDR5 内存的数据传输速率最终将会达到 8.4 GT/s。 2.1.2 电压的降低 降低工作电压(VDD),有助于抵消高速运行带来的功耗增加。在 DDR5 DRAM 中,寄存时钟驱动器 (RCD) 电压从 1.2 V 降至 1.1 V。命令/地址 (CA) 信号从 SSTL 变为 PODL,其优点是当引脚处于高电平状态时不会消耗静态功率。 2.1.3 DIMM 新电源架构 DIMM是什么? DIMM全称Dual-Inline-Memory-Modules,中文名叫双列直插式存储模块,是指奔腾CPU推出后出现的新型内存条,它提供了64位的数据通道。 DDR5改善了DIMM的工作电压,将供电电压从DDR4的1.2V降至1.1V,从而进一步提升了内存的能效。 使用 DDR5 DIMM 时,电源管理将从主板转移到 DIMM 本身。DDR5 DIMM 将在 DIMM 上安装一个 12 V 电源管理集成电路(PMIC),使系统电源负载的颗粒度更细。PMIC 分配1.1 V VDD 电源,通过更好地在 DIMM 上控制电源,有助于改善信号完整性和噪音。 2.1.4 DIMM通道架构 DDR4 DIMM 具有 72 位总线,由 64 个数据位和 8 个 ECC 位组成。在 DDR5 中,每个 DIMM 都有两个通道。每个通道宽 40 位,32 个数据位和 8 个 ECC 位。虽然数据宽度相同(共 64 位),但两个较小的独立通道提高了内存访问效率。因此,使用 DDR5 不仅能提高速度,还能通过更高的效率放大更高的传输速率。 2.1.5 更长的突发长度 DDR4 的突发长度为4或者8。对于 DDR5,突发长度将扩展到8和16,以增加突发有效载荷。突发长度为16(BL16),允许单个突发访问 64 字节的数据,这是典型的 CPU 高速缓存行大小。它只需使用两个独立通道中的一个通道即可实现这一功能。这极大地提高了并发性,并且通过两个通道提高了内存效率。 2.1.6 更大容量的 DRAM DDR4 在单芯片封装(SDP)中的最大容量为16 Gb DRAM。而DDR5的单芯片封装最大容量可达64 Gb,组建的DIMM 容量则翻了两番,达到惊人的 256 GB。 2.2 DDR5 设计面临的挑战 2.2.1 采用分离式全速率时钟,对应6400M T/s频率的时钟速率高达3.2GHz(未来会支持到8400M T/s)。 DDR5 DQS控制DQ读写时序 时钟控制命令信号,选通信号控制数据。对时钟信号抖动的要求更加严格,对各种命令信号与数据和地址信号的时序要求也更高。 2.2.2 双向复用的数据总线,读写数据分时复用链路。 由于有限的链路通道和布板空间等资源读写操作继续采用共享总线,因此需要分时操作。从验证测试角度来看也需要分别对读和写信号进行分离以检查其是否满足规范。 DDR5读写共享总线 2.2.3 突发DQS和DQ信号在更高速率的背景下在有限带宽的链路传输时带来更多ISI效应问题。 在DQS读写前导位,突发的第一个bit等等均有不同的效应和表现。此外考虑到存储电路在设计上不同于串行电路存在较多的阻抗不匹配,因此反射问题或干扰带来的ISI也会更严重。 DDR5在接收端采用更多的类似高速串行总线的信号处理 因此在接收侧速率大于3600MT/s时采用类似高速串行电路和标准总线中已经成熟的DFE均衡技术,可变增益放大(VGA)则通过MR寄存器配置,以补偿在更高速率传输时链路上的损耗。 DDR4标准采用的CTLE作为常用的线性均衡放大,虽然简单易实现但是其放大噪声的副产品也更为常见,考虑到DDR5总线里的反射噪声比没有采用。另外考虑到并行总线的串扰和反射等各信号抖动的定义和分析也会随之变化。 从测试角度来看,示波器是无法得到TP2点即均衡后的信号的,而仅能得到TP1点的信号,然后通过集成在示波器上的分析软件里的均衡算法对信号进行均衡处理以得到张开的眼图。 眼图分析的参考时钟则来自基于时钟信号的DQS信号。另外眼图测试也从以往仅对DQ进行扩展到包括CMD/ADDR总线。