tag 标签: 自动驾驶

相关帖子
相关博文
  • 2025-3-28 10:17
    53 次阅读|
    0 个评论
    多模态自动驾驶混合渲染HRMAD:将NeRF和3DGS进行感知验证和端到端AD测试
    基于 3DGS 和 NeRF 的 三维重建技术 在过去的一年中取得了快速的进步,动态模型也变得越来越普遍,然而这些模型仅限于处理 原始轨迹域内的对象。 HRMAD 作为一种混合方案,将传统的基于网格的动态三维神经重建和物理渲染优势结合,支持在任意位置部署网格动态代理,自由调整环境条件,在多个相机视角下进行自由切换,与传统仿真方法相比有效 减少了领域差距, 同时 保留了可控性。 一、方法描述 HRMAD提出的 NeRF2GS双模型训练范式 显著提升了 合成质量 ,尤其是道路和车道标志,同时满足交互式帧率。通过此块级并行训练架构,可以处理 超过10万平方米场景重建 ,并同步传输出分割掩膜/法线图/深度图。通过物理光栅化/光线追踪渲染后端,HRMAD支持多个相机模型、LiDAR和Radar的 实时多模态输出 。如图1所示的模型架构。 图1 具体而言,HRMAD基于RGB相机、GNSS和LiDAR的同步数据进行模型训练。该方案结合了 NeRF优秀的泛化能力 和 3DGS实时的渲染速度 ,通过T-S结构,将NeRF生成的深度、法线和外观监督信息传递给3DGS模型,并通过正则化将LiDAR深度数据引入NeRF,从而实现更准确的 几何结构建模 。 传统基于透视投影的渲染方法通常依赖于特定的投影模型,为了在3DGS场景中 适配任意传感器 ,HRMAD提出了一种 新的渲染算法架构 ,如下图2所示。 图2 该架构基于 共享代码库 实现了光栅化和光线追踪渲染,用于计算高斯沿射线的贡献。这样不仅能够在三维重建场景中支持 任意相机畸变模型 ,还能够减轻LiDAR仿真中伪影的产生。图3展示了在aiSim中采用HRMAD渲染场景并配置LiDAR后, 点云的可视化效果 。 图3 图4表明HRMAD在 极端视角 下RGB、深度、法线和分割(基于Mask2Former)模态下的几何细节和表面特性,重建面积约为165000平方米(ZalaZone测试场,此重建场景将于 aiSim5.7 版本进行发布)。 图4 二、下游任务验证 1、重建质量验证 由于HRMAD采用的是 基于双边网格的色彩校正方法 ,传统的PSNR指标不再适用,而SSIM和LPIPS指标对 结果相似性 更为敏感,但从结果上看,这两个指标仍然受到 ISP解耦 导致的RAW与重建图像之间 色彩失配 的影响。这一影响体现在了评估结果中,如表1,表中对比了原始3DGS和TCLC-GS在 6个Waymo场景 上的指标表现。 表1 2、语义分割验证 在语义分割上分别从 三个角度 评估模型性能, 首先 通过统计所有像素中 语义分类一致 的比例,反映 全局重建一致性 。 通过 Mask2Former 获取真实图像上计算的分割Mask,并与HRMAD-NeRF(Teacher)和HRMAD-NeRF(Student)渲染得到的分割Mask进行比较,验证 重建的准确性 。同时为了降低道路、天空等易分割区域对整体结果的偏差影响,针对" Car "进行 单独IoU计算 。 为确保验证过程的公平性,真实图像被 重投影 至与渲染过程一致的无畸变针孔相机参数空间,当重建结果正确标注了远距离或被遮挡物体,而Mask2Former因输入信息有限导致 误判 时,此类误差会被 计入评估指标 。同时在夜间拍摄场景和相机直对太阳的场景中(如场景11037651和14663356), 掩膜一致性 显著下降。结果如表2所示。 表2 其次 在 非常规视角 下进行模型渲染,并基于Mask2former生成的Mask与模型预测Mask进行比较。此渲染视角沿自车轨迹生成,并在 米范围内平移前视相机仿真模型。 表3 展示了针对道路表面信息和车辆的 重建性能 。其中 Car类型 的重建性能相对较低,这是由于 Mask2Frame 无法检测远处或被遮挡的物体,从而扩大了差异。 图5 显了示相关结果,绿色为匹配区域,蓝色和橙色分别表示模型预测Mask和Mask2Former的Mask输出。 表3 图5 最后在 极端渲染视角 下(高5m,横向偏移2m,向下偏转25°),针对车道线和路沿语义分割结果进行了 定性评估 ,如图6所示。 图6 3、3D目标检测验证 为了验证HRMAD在 3D目标检测 上的 一致性 ,采用在Waymo Open数据集训练中公开的 DEVIANT 3D目标检测模型 ,进行定量和定性实验。 定量实验 中,在Waymo-13469905891836363794片段中从 横向偏移视角下进行验证,并通过平移变换后的3DBBox定量计算。 定性实验 选取三个驾驶片段进行 静态环境渲染 ,并基于网格渲染添加动态车辆,主要用于评估仿真生成的车辆是否引入了 领域差距 。 表4基于 Waymo指标 进行验证,Original为原始图像。特别在近距离下,HRMAD的表现性能要优于原始图像,这是由于原始图像中 假阳FP 数量更高。在非常规视角渲染下,观察到的差异主要是横向偏移视角下 目标截断 的数量增加,但 整体检测结果 在很大程度上 保持一致。 表4 图7为 DEVIANT模型 在HRMAD渲染Waymo场景中的表现。 图7 三、结语 虽然 HRMAD渲染方法 旨在最大程度减少 区块边界的不连续性 ,但仍不可避免地会产生可见的 伪影 ,特别是在天空和远距离目标区域中。比如天空的RGB重建效果良好,但在自动驾驶仿真测试场景中,在非常规视角下仍然会导致 伪影和结构痕迹 。 在下游任务中,HRMAD针对自动驾驶场景的评估结果已 非常接近真实数据, 但由于 样本有限 ,仍需要更大规模的数据集进行进一步验证。未来的研究也会致力于进一步缩小重建场景和真实数据之间的领域差距,具体来说,可以通过探索 层次化高斯泼溅 来减少区块伪影,并利用生成的法线信息改进LiDAR强度模拟,来更好地反应 点云数据 的方向敏感强度。
  • 2025-3-26 16:12
    0 个评论
    多模态自动驾驶混合渲染HRMAD:将NeRF和3DGS进行感知验证和端到端AD测试
    基于 3DGS 和 NeRF 的 三维重建技术 在过去的一年中取得了快速的进步,动态模型也变得越来越普遍,然而这些模型仅限于处理 原始轨迹域内的对象。 HRMAD 作为一种混合方案,将传统的基于网格的动态三维神经重建和物理渲染优势结合,支持在任意位置部署网格动态代理,自由调整环境条件,在多个相机视角下进行自由切换,与传统仿真方法相比有效 减少了领域差距, 同时 保留了可控性。 一、方法描述 HRMAD提出的 NeRF2GS双模型训练范式 显著提升了 合成质量 ,尤其是道路和车道标志,同时满足交互式帧率。通过此块级并行训练架构,可以处理 超过10万平方米场景重建 ,并同步传输出分割掩膜/法线图/深度图。通过物理光栅化/光线追踪渲染后端,HRMAD支持多个相机模型、LiDAR和Radar的 实时多模态输出 。如图1所示的模型架构。 图1 具体而言,HRMAD基于RGB相机、GNSS和LiDAR的同步数据进行模型训练。该方案结合了 NeRF优秀的泛化能力 和 3DGS实时的渲染速度 ,通过T-S结构,将NeRF生成的深度、法线和外观监督信息传递给3DGS模型,并通过正则化将LiDAR深度数据引入NeRF,从而实现更准确的 几何结构建模 。 传统基于透视投影的渲染方法通常依赖于特定的投影模型,为了在3DGS场景中 适配任意传感器 ,HRMAD提出了一种 新的渲染算法架构 ,如下图2所示。 图2 该架构基于 共享代码库 实现了光栅化和光线追踪渲染,用于计算高斯沿射线的贡献。这样不仅能够在三维重建场景中支持 任意相机畸变模型 ,还能够减轻LiDAR仿真中伪影的产生。图3展示了在aiSim中采用HRMAD渲染场景并配置LiDAR后, 点云的可视化效果 。 图3 图4表明HRMAD在 极端视角 下RGB、深度、法线和分割(基于Mask2Former)模态下的几何细节和表面特性,重建面积约为165000平方米(ZalaZone测试场,此重建场景将于 aiSim5.7 版本进行发布)。 图4 二、下游任务验证 1、重建质量验证 由于HRMAD采用的是 基于双边网格的色彩校正方法 ,传统的PSNR指标不再适用,而SSIM和LPIPS指标对 结果相似性 更为敏感,但从结果上看,这两个指标仍然受到 ISP解耦 导致的RAW与重建图像之间 色彩失配 的影响。这一影响体现在了评估结果中,如表1,表中对比了原始3DGS和TCLC-GS在 6个Waymo场景 上的指标表现。 表1 2、语义分割验证 在语义分割上分别从 三个角度 评估模型性能, 首先 通过统计所有像素中 语义分类一致 的比例,反映 全局重建一致性 。 通过 Mask2Former 获取真实图像上计算的分割Mask,并与HRMAD-NeRF(Teacher)和HRMAD-NeRF(Student)渲染得到的分割Mask进行比较,验证 重建的准确性 。同时为了降低道路、天空等易分割区域对整体结果的偏差影响,针对" Car "进行 单独IoU计算 。 为确保验证过程的公平性,真实图像被 重投影 至与渲染过程一致的无畸变针孔相机参数空间,当重建结果正确标注了远距离或被遮挡物体,而Mask2Former因输入信息有限导致 误判 时,此类误差会被 计入评估指标 。同时在夜间拍摄场景和相机直对太阳的场景中(如场景11037651和14663356), 掩膜一致性 显著下降。结果如表2所示。 表2 其次 在 非常规视角 下进行模型渲染,并基于Mask2former生成的Mask与模型预测Mask进行比较。此渲染视角沿自车轨迹生成,并在 米范围内平移前视相机仿真模型。 表3 展示了针对道路表面信息和车辆的 重建性能 。其中 Car类型 的重建性能相对较低,这是由于 Mask2Frame 无法检测远处或被遮挡的物体,从而扩大了差异。 图5 显了示相关结果,绿色为匹配区域,蓝色和橙色分别表示模型预测Mask和Mask2Former的Mask输出。 表3 图5 最后在 极端渲染视角 下(高5m,横向偏移2m,向下偏转25°),针对车道线和路沿语义分割结果进行了 定性评估 ,如图6所示。 图6 3、3D目标检测验证 为了验证HRMAD在 3D目标检测 上的 一致性 ,采用在Waymo Open数据集训练中公开的 DEVIANT 3D目标检测模型 ,进行定量和定性实验。 定量实验 中,在Waymo-13469905891836363794片段中从 横向偏移视角下进行验证,并通过平移变换后的3DBBox定量计算。 定性实验 选取三个驾驶片段进行 静态环境渲染 ,并基于网格渲染添加动态车辆,主要用于评估仿真生成的车辆是否引入了 领域差距 。 表4基于 Waymo指标 进行验证,Original为原始图像。特别在近距离下,HRMAD的表现性能要优于原始图像,这是由于原始图像中 假阳FP 数量更高。在非常规视角渲染下,观察到的差异主要是横向偏移视角下 目标截断 的数量增加,但 整体检测结果 在很大程度上 保持一致。 表4 图7为 DEVIANT模型 在HRMAD渲染Waymo场景中的表现。 图7 三、结语 虽然 HRMAD渲染方法 旨在最大程度减少 区块边界的不连续性 ,但仍不可避免地会产生可见的 伪影 ,特别是在天空和远距离目标区域中。比如天空的RGB重建效果良好,但在自动驾驶仿真测试场景中,在非常规视角下仍然会导致 伪影和结构痕迹 。 在下游任务中,HRMAD针对自动驾驶场景的评估结果已 非常接近真实数据, 但由于 样本有限 ,仍需要更大规模的数据集进行进一步验证。未来的研究也会致力于进一步缩小重建场景和真实数据之间的领域差距,具体来说,可以通过探索 层次化高斯泼溅 来减少区块伪影,并利用生成的法线信息改进LiDAR强度模拟,来更好地反应 点云数据 的方向敏感强度。 目前, HRMAD生成场景 已集成在 aiSim 中,可在不同传感器模型配置方案下,实现 端到端仿真测试 交互式验证和测试。
  • 2025-3-20 09:57
    51 次阅读|
    0 个评论
    方案分享 | AVM合成数据仿真验证方案
    随着自动驾驶技术的快速发展,仿真软件在开发过程中扮演着越来越重要的角色。 仿真传感器与环境 不仅能够加速算法验证,还能在安全可控的条件下进行复杂场景的重复测试。 本文将分享如何利用 自动驾驶仿真软件配置仿真传感器与搭建仿真环境 ,并对脚本进行修改,优化和验证4个鱼眼相机生成AVM(Around View Monitor) 合成数据 的流程。通过这一过程,一同深入体验仿真软件的应用潜力! 一、流程概述 AVM 是一种通过多相机实现车辆周围环境的 实时监控和显示 的系统,广泛应用于自动驾驶和高级驾驶辅助系统(ADAS)的环境感知中。本文基于仿真软件与脚本生成AVM图像的流程如下所示: 图1:基于aiSim构建AVM图像流程 首先,在 Unreal Engine 中配置标定投影参数所需的地图,并在仿真器中为车辆部署4个方向的鱼眼相机; 其次,基于相机内参进行 去畸变 ,并记录求解投影矩阵所需的 关键参考值 ,例如AVM画幅尺寸、参考点的相对坐标、参考区域的大小与位置、车辆与参考区域的距离等; 随后,在完成了角点提取预处理的标定图像中快速 选取参考点 ,生成单方向的BEV视图,重复4次完成 标定去畸变 ; 后文将对每个流程进行具体描述。 二、仿真传感器与环境配置 对于AVM功能而言,通常需要配备4个及以上的 大FOV相机 以拍摄车辆周围的图像,在此基础上还可 配备雷达 以更好地获取车辆周围的障碍物信息。 图2:aiSim相机传感器障碍物真值输出 由于本文所使用仿真软件的相机传感器可以直接输出识别对象(车辆、行人等)的2D、3D边界框真值,所以只需配置 4个方向的鱼眼相机 即可满足整体需求: (1)前置鱼眼相机: 安装在前方车标附近,约15°俯视角; (2)后置鱼眼相机: 安装在后备箱附近,约25°俯视角; (3)左、右侧鱼眼相机: 分别安装在左右后视镜下方,约40°俯视角与相对车纵轴约100°的偏航角。 图3:环视OpenCV鱼眼相机传感器配置 除了传感器的配置,考虑到脚本是通过选取地面点,求解相机到地面的投影矩阵,并转换生成BEV视图进行组合,所以还需要构建一张 特征明显、易于辨认标定效果的地图。 本文所使用的仿真软件支持在 Unreal Engine 中进行 地图编辑与导出 ,并带有一定数量的 3D资产库, 因此可以基于一张基础室内地图,布置一定数量的正方形黑白标定板,根据需要搭建一个标定地图: 图4:基于aiSim插件的Unreal Engine地图编辑 首先,在 Unreal Engine 中打开项目,并进入 室内合成地图; 然后,从 3D资产库 中选择100cm×100cm×5cm的标定板静态网格体,拖放到地图中; 随后,通过直接拖动模型上的变换工具或者修改侧边栏中的变换属性框 调整标定板的位置与姿态; 进而,配置标定板的材质,以黑色、白色的交替顺序铺展标定板; 最终形成一个 长方形的标定区域。 图5:编辑完成后的地图效果参考 批量铺展的过程可以拆分为对2×2的标定板组合实施 横向与纵向阵列 ,完成后的地图如图所示,整体是一个6m×11m的矩形区域, 车辆 放置在中间2m×5m的矩形区域中。 三、图像处理与AVM合成验证集 如前文所述,本文使用的 AVM脚本 是基于车辆四周,位于相邻两个相机重叠视野的标定物,通过 选取参考投影区域 实现鱼眼相机到 BEV 的转化,以前视鱼眼相机为例: 图6:投影区域及BEV转化示意图 首先,由于是仿真传感器的标准OpenCV鱼眼相机模型,焦距、中心像素位置、畸变参数等内参均已知,可直接使用 OpenCV的去畸变函数 实现去畸变,如图6的(c)到(d)所示; 其次,设定 图6(a)与(b)所示关键参数 ,确定图像上的点对应的真实世界位置,进而计算尺度: (1)AVM视野总宽 total_width = 2 × shift_width + 6 × board_size; (2)AVM视野总长 total_height = 2 × shift_height + 11 × board_size; (3)board_size为 标定板边长 ,此处为100,单位cm; (4)shift_width与shift_height为 视野延伸距离 ,单位cm; (5)左上角投影点 projection_point_0:(shift_width + 100, shift_height),以此类推 右上角、左下角、右下角 投影点坐标,形成 投影区域; (6)inner_height与inner_width为投影区域相对车辆的 横向、纵向距离 ,单位cm,由此可以推算出自车所处区域; 而后,对去畸变相机图像追加 Shi-Tomasi角点提取处理 ,并增加 半自动采点 的模式切换,自动选取鼠标点击像素位置周围欧式距离最小的角点,保障准确度的同时提升效率; 最后,如图6(d)选取4个角点,形成与(b)对应的参考投影区域,输出的 BEV视图 如图6(e)所示。 图7:环视BEV合成AVM示例 以此类推可以得到4个方向的BEV视图及对应的投影参数,结合车辆图层作为覆盖,即可生成对应传感器布置下的 二维AVM合成图像 ,如图7所示,其中每个像素分辨率为1cm²。 图8:传感器外参优化示例 通过仿真软件,一方面可以在 控制算法不变 的情况下寻找出更优的 传感器外参布局 ,另一方面也可以在 控制传感器不变 的情况下在多种不同场景验证,进而迭代 优化AVM算法 的表现。结合相机传感器自带的标注信息,后续也可以进行包括 障碍物识别 在内的更多功能验证。 图9:不同场景下的AVM合成数据 四、总结与展望 本文介绍了基于aiSim仿真软件生成 AVM合成数据 的完整流程,包括传感器与地图的配置、图像处理与BEV视图生成以及最终的AVM合成验证。 不难看出,仿真软件的 高效性与灵活性 保障了在安全可控的环境中 快速验证算法性能 的可行性,并可以通过多场景测试与参数优化改进算法,最终提升其综合表现。
  • 2025-3-6 17:24
    4 次阅读|
    0 个评论
    贞光科技代理品牌三星电机 ,其尖端车规电容技术正在革新L3+自动驾驶系统的可靠性与安全性。随着新能源汽车和自动驾驶技术的飞速发展,汽车电子系统面临前所未有的复杂性挑战。三星电机专注于研发耐高温、高稳定的车规级MLCC,确保自动驾驶汽车在极端环境下稳定运行。这些微小的电容元件,在新能源汽车的“心脏”与“大脑”中,扮演着至关重要的角色,为自动驾驶新时代提供坚实保障。 引言 想象一下,你的车不仅能自己开,还能在拥堵的城市交通中替你做决策,同时保证你和家人的安全。听起来像科幻小说?不,这正是L3+自动驾驶技术正在实现的未来。而在这场汽车革命的幕后,有一个看似微不足道的组件正发挥着举足轻重的作用——车规级电容。 随着新能源汽车和自动驾驶技术的飞速发展,汽车电子系统的复杂性和重要性与日俱增。在这个背景下,三星电机凭借其尖端的车规电容技术,正悄然改变着高级自动驾驶系统的可靠性和安全性标准。这些微小的电子元件虽然常被忽视,却是确保L3+自动驾驶汽车在各种极端条件下安全、可靠运行的关键。 面向L3+自动驾驶,三星电机车规电容不仅需要应对传统汽车电子的挑战,还需要满足更高水平的稳定性和耐久性要求。毕竟,当汽车接管驾驶任务时,任何电子系统的微小故障都可能导致严重后果。 那么,这些小小的电容究竟如何在新能源汽车的"心脏"和"大脑"中扮演如此重要的角色?让我们一起深入探索三星电机车规电容的技术魅力和它们为自动驾驶新时代带来的革命性变化。 L3+自动驾驶的电子系统挑战 从L2到L3:技术跨越与电子需求的质变 自动驾驶技术的进步并非简单的线性发展。当我们从L2级别(部分自动驾驶)跨越到L3级别(有条件自动驾驶)时,这不仅仅是功能的增加,而是整个系统责任的根本转变。在L3级别,车辆不再仅仅是辅助驾驶员,而是在特定条件下完全接管驾驶任务。这种转变对车载电子系统提出了前所未有的挑战。 电子系统必须达到"航空级"的可靠性。想象一下,当你的车以100公里/小时的速度在高速公路上行驶,而你正在看书或处理工作邮件时,你把生命完全交托给了车内的电子系统。在这种情况下,容不得任何电子元件出现微小失效。 极端工作环境下的电子稳定性 自动驾驶汽车的电子系统面临着极其苛刻的工作环境: 温度波动 :从零下40℃到50℃以上 持续震动 :特别是在恶劣路况下的长时间高频振动 电磁干扰 :来自车内其他系统和外部环境的干扰信号 湿度和腐蚀性物质 :道路盐分、空气污染物等 在这些极端条件下,普通电子元件可能很快失效,而这正是三星电机车规电容的专长所在。它们被设计为在这些极端条件下保持稳定性能,确保自动驾驶系统的持续可靠运行。 数据处理与传感器融合对电子元件的高要求 L3+自动驾驶系统需要处理海量数据。一辆典型的L3自动驾驶汽车每小时可产生超过4TB的数据。这些数据来自雷达、激光雷达、摄像头和各种传感器,需要实时处理以做出驾驶决策。 这种计算密集型应用对电源管理和信号完整性提出了严格要求。电容作为关键的滤波和能量存储元件,必须提供极高的性能稳定性和响应速度,以确保数据处理单元和传感器系统的正常工作。三星电机车规电容正是为满足这些苛刻需求而生。 三星电机车规电容的技术优势 高耐温性与热管理创新 在自动驾驶的世界里,温度就是一切。三星电机的车规电容不仅能在极端温度下工作,更通过独特的材料科学和结构设计实现了卓越的热管理能力。 这些电容采用特殊陶瓷材料和金属电极配方,确保在-55℃到150℃的温度范围内保持稳定的电气特性。这意味着无论是在北欧的寒冬还是在沙漠的酷暑中,自动驾驶系统都能依靠这些电容维持正常运行。 更值得一提的是,三星电机的MLCC(多层陶瓷电容器)采用了创新的"热缓冲层"设计,能有效减少热循环对电容性能的影响,大大延长了元件在恶劣环境下的使用寿命。 抗震与可靠性设计的突破 我们的道路并不总是平坦的,对吧?三星电机深知这一点,他们的车规电容采用了独特的"弹性端子"和"多点焊接"技术,使电容能够承受持续的震动和机械冲击。 在实验室测试中,这些电容能够承受10-2000Hz范围内的随机振动,持续96小时而不失效。这种抗震性能对于确保自动驾驶汽车在各种路况下的稳定运行至关重要。 超长寿命与老化性能的优化 面向L3+自动驾驶的电子元件不仅要好用,还要经久耐用。三星电机的车规电容寿命通常超过15年,远高于普通消费电子产品中使用的电容。 这种长寿命设计依靠的是精密的材料选择和制造工艺,包括: 纳米级陶瓷颗粒的精确控制 高纯度电极材料的应用 专利"缓慢老化"技术,减缓电容参数随时间的衰减 这些技术确保了电容在汽车整个生命周期内保持稳定性能,减少了因电子元件老化导致的系统故障风险。 面向新能源汽车的电容应用场景 高压系统中的安全保障 新能源汽车的高压系统是安全的关键区域。三星电机的车规电容在这些系统中扮演着至关重要的角色。 在800V高压平台中,特殊设计的X2Y滤波电容能有效抑制电磁干扰,确保控制信号的完整性。同时,具有自熔断功能的安全电容能在系统异常时主动断开,防止灾难性故障的发生。 "想象一下,这就像一个微型的智能保险丝,"一位三星电机工程师解释道,"当检测到潜在危险时,它会牺牲自己保护整个系统。" 电机控制与能量回收系统的效率提升 在电机控制单元中,三星电机的薄膜电容和陶瓷电容协同工作,提供了出色的滤波性能和能量缓冲能力。这不仅减少了电机的电磁噪声,还提高了整体能效。 特别值得一提的是,在能量回收系统中,高容量、低ESR(等效串联电阻)的电容能够快速吸收制动能量,并高效释放,使新能源汽车的续航里程提升3-5%。这可能听起来不多,但对于焦虑电池续航的消费者来说,每一公里都至关重要。 传感器与控制单元中的信号质量保障 在自动驾驶的"眼睛"和"大脑"——各类传感器和控制单元中,信号质量直接关系到系统的决策准确性。三星电机的车规电容通过优化的阻抗特性和极低的声噪比,确保传感器信号的完整传输。 特别是在毫米波雷达和激光雷达系统中,三星的RF级MLCC电容能够在高频环境下保持稳定的电气特性,为精确的目标检测和距离测量提供保障。 三星电机如何提升自动驾驶汽车的整体可靠性 从元件到系统的可靠性链条 面向L3+自动驾驶,三星电机车规电容的可靠性不仅体现在元件层面,更反映在整个系统链条上。 通过采用"设计余量"理念,三星的车规电容在额定值之外预留了充分的性能空间。例如,一个额定温度85℃的电容实际上可能被设计为在125℃下仍能可靠工作。这种冗余设计确保了即使在意外情况下,系统依然能够维持基本功能。 车规级认证与严苛测试背后的安全保障 三星电机的车规电容不仅符合AEC-Q200等标准认证,还通过了比标准更严格的企业内部测试。这些测试包括: 3000小时的高温高湿负载测试 -55℃到150℃的1000次温度循环冲击 高频振动与机械冲击组合测试 EMI/EMC电磁兼容性测试 每一项测试都模拟了现实世界中最极端的使用场景,确保电容在任何情况下都能保持可靠性。 总结与展望 面向L3+自动驾驶,三星电机车规电容正以其卓越的技术优势和不断创新的研发能力,为新能源汽车的可靠性和安全性提供坚实保障。从极端环境适应性到长寿命设计,从高压安全到信号完整性保护,这些小小的电子元件正在发挥着举足轻重的作用。 未来,随着智能电容、新材料技术和可持续制造的发展,我们有理由相信,三星电机车规电容将继续引领行业创新,推动自动驾驶技术迈向更加安全、可靠的未来。 常见问题解答 Q1: 车规电容与普通电容有什么区别? A1: 车规电容与普通电容的主要区别在于工作温度范围(-55℃至150℃,而非-25℃至85℃)、可靠性标准(符合AEC-Q200等认证)、震动耐受性(可承受更高级别的机械震动)和使用寿命(通常15年以上)。三星电机车规电容专为严苛的汽车环境设计,提供更高的安全性和可靠性。 Q2: 三星电机车规电容如何应对新能源汽车高压系统的挑战? A2: 三星电机开发了专门的高压电容系列,采用增强型绝缘设计和自熔断保护功能。这些电容能在400V至800V的高压环境下安全工作,并具备优异的抗浪涌能力,有效保护新能源汽车的高压系统安全。 Q3: L3自动驾驶对电容的要求比L2高在哪些方面? A3: L3自动驾驶需要电容提供更高的可靠性(因为系统承担主要驾驶责任)、更强的温度稳定性(支持更高密度计算带来的热量)、更好的EMI/EMC性能(确保复杂传感器系统的信号质量)以及更长的使用寿命(符合整车长期可靠性要求)。 Q4: 三星电机如何确保车规电容的高可靠性? A4: 三星电机通过严格的设计余量(设计规格远超实际使用要求)、严苛的测试流程(包括高温高湿、温度循环、震动冲击等)、完善的质量控制系统(100%出厂测试)以及先进的失效分析技术来确保产品的高可靠性。 Q5: 未来车规电容的发展趋势是什么? A5: 未来车规电容将朝着更高能量密度、更小型化、智能化(自我监测功能)、更环保(减少稀土使用)和更高温度稳定性(支持SiC/GaN功率器件)的方向发展。三星电机正在这些领域积极投入研发资源。 http://www.zgkeji.com/news_xq/1182.html​
  • 热度 1
    2025-3-6 13:17
    789 次阅读|
    0 个评论
    3DGS:革新自动驾驶仿真场景重建的关键技术
    随着自动驾驶技术的迅猛发展,构建 高保真、动态的仿真场景 成为了行业的迫切需求。传统的三维重建方法在处理复杂场景时常常面临效率和精度的挑战。在此背景下, 3D高斯点阵渲染(3DGS) 技术应运而生,成为自动驾驶仿真场景重建的关键突破。 一、3DGS技术概述与原理 1、3DGS的技术概述 3DGS是一种基于3D高斯分布的 三维场景表示方法 。通过将场景中的对象转化为多个 3D高斯点 ,每个点包含位置、协方差矩阵和不透明度等信息,3DGS能够精确地表达复杂场景的 几何形状 和 光照特性 。 与 传统的神经辐射场(NeRF) 方法相比,3DGS在渲染速度和图像质量方面表现出色,弥补了NeRF在动态场景处理和细节保留上的不足。 图1:3DGS重建流程 2、3DGS的技术原理 在3DGS中,首先通过 SfM(Structure from Motion) 技术进行数据预处理,校准相机位置并恢复其内部和外部参数,生成稀疏点云。然后,基于这些点云 初始化一组3D高斯点 ,每个高斯点的初始位置、协方差矩阵和不透明度都会进行设置。 训练过程中,3DGS通过 反向传播 不断优化这些高斯点的位置、形状和不透明度。值得注意的是,3DGS采用了 自适应密度控制 ,能够在每次反向传播后去除那些不重要的高斯点,并根据需要对高斯点进行 分裂或克隆 ,以保证场景重建的精度和细节。 图2:训练过程中高斯点的优化 二、3DGS在自动驾驶仿真中的应用 在自动驾驶领域,3DGS技术被广泛应用于 高保真仿真场景 的重建。通过将 多视角图像转化为3D高斯点云 ,3DGS能够快速、精确地重建复杂的街道场景,为自动驾驶系统的训练和验证提供真实的虚拟环境。例如,Huang等人提出的 S³Gaussian 方法,通过自监督学习,从4D一致性中分解动态和静态元素,实现了高质量的街道场景重建。 此外,Zhou等人提出的 DrivingGaussian 方法,针对环视动态自动驾驶场景,发展了基于3D高斯的重建仿真技术。该方法能够有效建模复杂的多尺度背景和前景,提升了自动驾驶系统在复杂环境下的感知能力。 图3:S³Gaussian方法 图4:DrivingGaussian方法 1、3DGS的优势与挑战 (1)优势 高效性: 通过显式建模方法,3DGS避免了传统神经网络训练中的计算开销,训练速度更快,渲染效率更高。 精度: 3D高斯点可以细致地捕捉场景中的每个细节,从而实现高精度的三维重建。 实时性: 3DGS支持实时渲染,适合需要快速响应的应用场景,如自动驾驶仿真。 (2)挑战 场景复杂度: 对于极为复杂的三维场景,3DGS可能需要大量的高斯点,这会增加计算负担和内存消耗。 动态场景的支持: 目前,3DGS主要集中在静态场景的重建,如何高效地处理 动态场景 中的物体变化,仍然是一个技术挑战。 三、aiSim的3DGS重建功能 aiSim仿真平台结合3DGS 技术,可以提供强大的三维重建功能,极大地提升了自动驾驶仿真测试的效率和精度。 在aiSim中,3DGS被用于从 多视角图像 中重建复杂的三维场景。aiSim能够精确地捕捉环境的 几何形状 和 光照特性 ,为自动驾驶系统提供 高保真的虚拟环境 。这种高精度的三维重建使得自动驾驶算法能够在仿真中进行更为真实的测试,减少了对实际道路测试的依赖。 图5:大FoV相机渲染出现非一致性(左)重建3DGS渲染方案后(右) aiSim新构建的 GGSR通用高斯泼溅渲染器 优化了重建场景下光线追踪传感器的渲染效果,增强了广角镜头渲染下的 一致性 ,并能减少伪影的产生,实现高保真度的3DGS重建场景兼容。 在重建的静态场景之上,aiSim支持 自定义动态的场景交通流 。通过添加动态实体,aiSim可以模拟交通流、行人行为等动态元素,为自动驾驶系统提供更为全面的测试场景。这种动态重建能力使得aiSim在验证自动驾驶系统的泛化能力和 应对复杂场景 的能力方面,展现出了巨大的优势。 图6:十字路口车辆起步场景 四、结语 3DGS作为一种新兴的三维场景重建技术,凭借其高效、精确和实时的特点,在自动驾驶仿真领域展现出了巨大的潜力。我们有理由相信,未来3DGS将为更多行业带来创新性的解决方案。 ▍参考文献 1.3D Gaussian Splatting for Real-Time Radiance Field Rendering 2. S3Gaussian: Self-Supervised Street Gaussians for Autonomous Driving 3.DrivingGaussian: Composite Gaussian Splatting for Surrounding Dynamic Autonomous Driving Scenes
相关资源
  • 所需E币: 1
    时间: 2023-4-6 13:58
    大小: 116.54KB
    上传者: 张红川
    msp430单片机在飞行器自动驾驶仪中的应用.pdf
  • 所需E币: 1
    时间: 2023-4-6 13:58
    大小: 524.56KB
    上传者: 张红川
    msp430单片机在飞行器自动驾驶仪中的应用.pdf
  • 所需E币: 1
    时间: 2023-3-29 17:28
    大小: 354.9KB
    上传者: 张红川
    基于pic单片机的自动驾驶转向控制系统设计.pdf
  • 所需E币: 4
    时间: 2023-2-12 14:28
    大小: 1.98MB
    上传者: ZHUANG
    专利网络视角下的潜在颠覆性技术识别--以自动驾驶领域为例.
  • 所需E币: 0
    时间: 2022-7-18 11:49
    大小: 2.14MB
    上传者: czd886
    基于鲁棒H_(∞)控制的无人机纵向自动驾驶仪设计.
  • 所需E币: 0
    时间: 2022-7-13 10:56
    大小: 2.04MB
    上传者: czd886
    多旋翼无人机双光自动驾驶巡检的应用
  • 所需E币: 0
    时间: 2022-6-16 10:48
    大小: 2.05MB
    上传者: czd886
    汽车自动驾驶领域的传感器融合技术
  • 所需E币: 1
    时间: 2022-6-16 10:20
    大小: 2.69MB
    上传者: czd886
    基于自动驾驶汽车传感器技术产业分析.
  • 所需E币: 2
    时间: 2022-5-12 15:20
    大小: 1.4MB
    上传者: czd886
    面向自动驾驶的车辆精确实时定位算
  • 所需E币: 5
    时间: 2022-5-5 11:21
    大小: 1.31MB
    上传者: czd886
    基于5G通信的车联网自动驾驶关键技术
  • 所需E币: 1
    时间: 2022-5-4 15:09
    大小: 1.69MB
    上传者: czd886
    5G通信技术在货运站场自动驾驶中的应用
  • 所需E币: 1
    时间: 2022-3-5 10:14
    大小: 1.09MB
    上传者: czd886
    自动驾驶汽车环境感知系统传感器技术现状及发展趋势
  • 所需E币: 1
    时间: 2022-1-7 10:47
    大小: 1.65MB
    上传者: 西风瘦马
    四旋翼飞行器自动驾驶仪设计
  • 所需E币: 5
    时间: 2021-7-15 11:10
    大小: 1.67MB
    上传者: czd886
    基于MSP430单片机四轴飞行器自动驾驶研究
  • 所需E币: 5
    时间: 2021-6-3 14:12
    大小: 80.93MB
    上传者: eeNick
    自动驾驶汽车是指能够通过车载传感系统感知道路环境、自动规划行车路线并控制车辆到达预定目标的一种智能汽车,本书可以作为高等院校车辆工程、交通工程专业在校学生的教材,也可供从事自动驾驶汽车相关行业的工程技术人员使用和参考。编辑推荐该丛书由北京航空航天大学和百度自动驾驶事业群组联合编写,系统介绍自动驾驶技术基础理论,构建完整的知识体系,并依托百度Apollo自动驾驶平台具体实现,体现我国自动驾驶技术领域的*科研成果和前沿技术应用。目  录第1章 自动驾驶汽车概述1.1 自动驾驶汽车概念与分级1.1.1 SAE与NHTSA自动驾驶分级1.1.2 SAE分级的更新1.1.3 中国自动驾驶分级1.2 自动驾驶汽车关键技术1.3 自动驾驶汽车发展现状1.4 本章小结参考文献第2章 自动驾驶汽车硬件平台2.1 硬件平台概述2.2 自动驾驶汽车电子电气架构2.2.1 概念及发展趋势2.2.2 典型电子电气架构2.2.3 电子电气架构发展趋势2.3 自动驾驶汽车感知系统2.3.1 激光雷达2.3.2 摄像头2.3.3 毫米波雷达2.3.4 导航定位系统2.4 自动驾驶汽车计算平台2.4.1 计算平台概述2.4.2 计算平台方案2.5 车辆线控系统2.5.1 概述2.5.2 线控节气门2.5.3 线控换挡2.5.4 线控转向2.5.5 线控制动2.6 车辆控制平台2.6.1 电子控制单元2.6.2 域控制器2.7 通信总线2.7.1 本地互联网络2.7.2 控制器局域网络2.7.3 高速容错网络协议2.7.4 车载以太网2.8 自动驾驶汽车机械设计2.8.1 车辆动力与驱动系统2.8.2 车辆转向系统2.9 本章小结参考文献第3章 自动驾驶汽车软件平台3.1 软件平台概述3.2 自动驾驶汽车软件架构3.2.1 AUTOSAR软件构架3.2.2 Apollo软件架构3.3 自动驾驶汽车操作系统3.3.1 车载实时操作系统3.3.2 车载准实时操作系统3.4 本章小结参考文献第4章 自动驾驶汽车开发平台4.1 Apollo开发平台4.1.1 Apollo发展历程4.1.2 Apollo技术架构4.1.3 软件开放平台4.1.4 云服务平台4.1.5 Apollo参考硬件平台4.1.6 Apollo参考车辆平台4.1.7 Apollo平台安装简介4.2 Autoware开发平台4.3 其他自动驾驶开发平台4.4 本章小结参考文献第5章 自动驾驶汽车软件计算框架5.1 概述5.2 机器人操作系统5.2.1 ROS概述5.2.2 ROS特点5.2.3 ROS总体框架5.3 Apollo平台计算框架——CyberRT5.3.1 CyberRT计算框架概述5.3.2 CyberRT计算框架拓扑试验5.3.3 CyberRT计算框架通信组件5.3.4 CyberRT计算框架调度组件5.4 本章小结参考文献第6章 自动驾驶汽车辅助开发平台6.1 自动驾驶汽车仿真平台6.1.1 概述6.1.2 仿真平台的构成6.1.3 仿真平台行业现状概览6.1.4 典型仿真平台介绍——Apollo仿真平台6.2 自动驾驶汽车数据平台6.2.1 概述6.2.2 自动驾驶数据集6.2.3 典型数据服务平台——Apollo数据开放平台6.3 本章小结参考文献
  • 所需E币: 5
    时间: 2021-6-3 14:11
    大小: 77.04MB
    上传者: eeNick
    自动驾驶系统设计及应用,由北京航空航天大学和百度自动驾驶事业群组联合编写,系统介绍自动驾驶技术基础理论,并依托百度Apollo自动驾驶平台动手实践,体现了我国自动驾驶技术领域的*科研成果和前沿技术应用丛书主编寄语近年来,自动驾驶技术成为全球科技创新高地和国内外枝术研究新热点,涌现出一大批从事自动驾驶专业学习的在校学生、相关科技人员和爱好者,自动驾驶作为多学科交叉的系统性技术,国内尚无专业性强、系统全面的系列丛书。这套自动驾驶系列丛书,由北京航空航天大学、百度等具有丰富自动驾驶研发经验的专家学者和科研人员撰写,面向车辆工程、软硬件开发、网络通信、自动化控制、人工智能等多学科交叉,从自动驾驶系统的技术概论、定位技术和决策与控制等六个方面编写。这套自动驾驶系列丛书已列为“十三五”国家重点图书出版规划项目,可作为本科生和研究生教材,亦可作为自动驾驶相关研究和工程人员的参考书。目录第1章自动驾驶系统概述1.1自动驾驶系统架构1.1.1自动驾驶系统的三个层级1.1.2自动驾驶系统的基本技术架构1.2自动驾驶技术国内外发展1.3传感器技术1.3.1摄像头1.3.2毫米波雷达1.3.3激光雷达1.4导航与定位技术1.4.1卫星定位和捷联惯导组合定位技术1.4.2激光雷达点云和高精地图匹配定位技术1.4.3视觉里程算法的定位技术1.5高精地图技术1.5.1高精地图的定义1.5.2高精地图的特点1.5.3高精地图的制作1.6决策与控制技术概述1.6.1设计目标1.6.2系统分类1.7自动驾驶平台技术概述1.7.1英伟达(NVIDIA)1.7.2英特尔(Intel)1.7.3谷歌(Waymo)1.7.4特斯拉(Tesla)参考文献第2章自动驾驶安全设计2.1系统功能与信息安全概述2.1.1汽车安全概述2.1.2汽车安全设计2.2智能驾驶的功能安全设计2.2.1功能安全与ISO26262标准2.2.2功能安全设计2.3ASIL分解与冗余功能安全2.4其他相关安全标准与技术2.4.1预期功能安全与SOTIF标准2.4.2智能安全与责任敏感安全模型2.4.3信息安全与J3061标准2.4.4其他标准2.5智能驾驶安全设计案例2.5.1丰田(Toyota)2.5.2通用汽车(GeneralMotors)2.5.3Waymo(谷歌)2.5.4百度参考文献第3章车辆总线及通信技术3.1车辆电子电气架构技术3.1.1汽车电子电气技术3.1.2汽车电子电气架构3.1.3车载以太网3.1.4未来架构的一些特点3.2自动驾驶域接口3.2.1自动驾驶系统的硬件架构3.2.2自动驾驶域车内接口3.2.3接口存在的问题3.3整车总线及线控技术3.3.1汽车总线技术3.3.2汽车线控技术3.4V2X技术3.4.1V2X概述3.4.2通信机制3.4.3我国V2X发展基础与现状参考文献第4章自动驾驶测试与评价4.1国内网联车上路的测试政策4.1.1测试主体要求4.1.2测试驾驶员要求4.1.3测试车辆要求4.1.4交通事故处理程序4.2自动驾驶智能化指标评测体系4.2.1测试场景4.2.2仿真环境评价指标4.2.3道路测试指标4.2.4体感评价指标4.2.5国内外道路测试场4.3自动驾驶测试体系4.3.1实验室测试阶段4.3.2车辆在环测试4.3.3道路在环测试参考文献第5章自动驾驶应用——自动驾驶小车5.1自动驾驶小车概述5.1.1小车结构介绍5.2自动驾驶小车软硬件5.2.1自动驾驶小车系统架构5.2.2自动驾驶小车硬件结构5.2.3自动驾驶小车核心控制模块5.2.4时钟电路模块5.2.5电源管理模块5.2.6速度采集模块5.2.7电机驱动模块5.2.8自动驾驶小车通信模块5.3自动驾驶小车感知配置5.3.1超声波5.3.2视觉传感器5.3.3电磁感应5.4自动驾驶小车控制算法5.4.1PID控制算法简介5.4.2自动驾驶小车速度控制5.4.3自动驾驶小车方向控制5.5自动驾驶小车实验与测试5.5.1软件系统设计5.5.2电磁智能小车测试5.5.3摄像头智能小车测试参考文献第6章复杂园区的低速无人驾驶技术及应用6.1复杂园区低速无人驾驶车的特点6.1.1运行环境不同带来的差异6.1.2成本要求不同带来的差异6.1.3感知及决策逻辑特点不同带来的差异6.2复杂园区低速无人驾驶车辆示例6.2.1“小旋风”低速系列无人车平台介绍6.2.2“小旋风”第四代低速无人巡逻车介绍6.2.3“小旋风”第四代低速无人巡逻车软件体系分析6.3基于激光雷达SLAM的复杂园区定位方式6.3.1激光雷达SLAM的基本原理6.3.2基于激光雷达的SLAM技术在北京联合大学校区无人车的应用6.4复杂园区无人驾驶车辆应用实例分析6.4.1北京动物园夜间巡逻案例6.4.2北京联合大学“旋风巴士”接驳车参考文献
  • 所需E币: 0
    时间: 2021-4-25 14:59
    大小: 909.53KB
    附件包括自动驾驶软件和硬件相关的技术栈图片,对自动驾驶技术做了硬件和软件2个大类的划分,可以详细了解到,要吃透自动驾驶技术,需要了解哪些方面的技术知识。软件包括:基础软件、操作系统、中间件、自动驾驶软件、云服务等;硬件包括:车辆电子控制系统、线控单元、传感器、计算处理单元、网络设备、其他硬件等。另外附上一篇详细文档,从硬件和软件两方面谈一谈自动驾驶汽车所涉及的技术,可以说是目前最详细的自动驾驶汽车技术的硬件+软件介绍文档了。
  • 所需E币: 3
    时间: 2021-4-18 00:18
    大小: 3.13MB
    上传者: LGWU1995
    AI技术深度学习公开课:自动驾驶的最新技术.pdf
  • 所需E币: 4
    时间: 2021-4-18 00:18
    大小: 5.77MB
    上传者: LGWU1995
    AI技术深度学习公开课:自动驾驶的深度学习.pdf
  • 所需E币: 0
    时间: 2021-4-13 17:46
    大小: 675.92KB
    上传者: zyn518