tag 标签: 仿真测试

相关帖子
相关博文
  • 2024-12-25 10:22
    0 个评论
    2024 年,是芯驿电子技术创新与行业合作齐头并进的一年。作为一家拥有 AUMO(专注车载智能) 和 ALINX(聚焦 FPGA 行业解决方案) 品牌的企业,我们始终以客户为中心,致力于帮助客户降低产品开发验证成本、加速产品上市周期。 AUMO 智能车载领域的创新与成长 2024 年 3 月 18 日,AUMO 成功通过了 ISO 26262:2018 功能安全 ASIL D 流程认证 ,标志着芯驿电子的开发流程已经按照 ISO 26262:2018 版标准要求,建立起符合功能安全最高等级“ASIL D”级别的产品开发和管理流程体系,为客户提供了更可靠的产品保障。 3 月起,AUMO走进多家汽车主机厂 ,包括 比亚迪、北汽研究总院、零跑汽车、深蓝汽车、哪吒汽车、现代汽车、江淮汽车、沃尔沃, 开展自动驾驶硬件在环仿真测试及电子后视镜 CMS 领域产品展示与技术交流活动。展示产品从 自动驾驶摄像头视频数据采集注入等高性能硬件板卡 ,到 集成化系统平台 ,产品以卓越的性能、稳定的表现赢得行业客户的关注与认可。 8 月 28 日至 8 月 30 日,AUMO 携多款前沿车载智能产品亮相 2024 汽车测试及质量监控博览会(Testing Expo China 2024) ,包括 AUMO 自动驾驶硬件在环仿真测试全产品家族,并首次展示公布自研车载仿真测试系统品牌—— AUSIM 。 10 月 24 日,经由超数百万汽车人参与票选,芯驿电子 AUMO 傲目凭借自主研发的 自动驾驶硬件在环仿真 HIL 解决方案 获评 “第六届金辑 · 最具成长价值奖” ,进一步提升了在智能车载行业的品牌影响力。 ALINX FPGA 领域的行业领先者 2024 年,ALINX 正式推出了全新 IP 核产品线,形成了由 “核心板、功能板、FMC 子卡和 IPCore 矩阵” 四部分灵活组合的模块化产品体系,为客户提供更加高效、便捷、丰富的产品服务。 5 月至 9 月,ALINX 作为紫光同创官方合作伙伴,全程深度参与了 紫光同创 FPGA 技术研讨会 。重点推出了联合紫光同创开发的 首款国产 Kosmo-2 可编程系统平台开发套件 AXK400 。 6 月,ALINX 作为 AMD 在中国的唯一一家Premier Partner,受邀参加了 AMD在其美国总部举办的合作伙伴峰会( AMD Partner Summit ) 。7 月,ALINX 受邀参加在深圳举行的 AMD 自适应计算峰会(AMD Adaptive Computing Summit, 即 AMD ACS) 。ALINX 与业界同仁共同探讨 FPGA 技术的未来发展趋势,分享了 ALINX 在 FPGA 领域的最新研发成果。 7月,ALINX 亮相 CCME 2024 第八届内镜大会暨年度盛典 ,基于 FPGA+GPU 异架构平台 Z19-M 的内窥镜和手术机器人解决方案 获得行业关注,并荣获 2024 中国医疗内窥镜行业 “优秀供应商”奖 。 2024 年,芯驿电子携 ALINX 和 AUMO 两大品牌活跃于各大电子科技展会舞台。6 月,首秀 上海国际嵌入式展 ;7 月, 慕尼黑上海电子展 上,双品牌共展风采,展现多元产品线;11 月,ALINX 参加 国际集成电路展览会 ,销售总监丁百成主题分享了 ALINX 系列产品及方案;11月, 第二十六届高交会 ,ALINX 国产化 FPGA开发板与车载方案引关注。这一系列亮相,充分展现了 ALINX 与 AUMO 在通信、工业、医疗、智能车载等领域的深厚底蕴与创新活力。 2024 年,芯驿电子在智能车载与 FPGA 开发领域取得了显著的发展成果。旗下 AUMO 和 ALINX 两大品牌,各自发挥独特优势,积极推动行业发展。 ALINX 已推出 100 多款 FPGA SoM 模组和配套板卡,服务了 2000 多家企业批量用户,吸引了上万个独立开发者。凭借这些优势,ALINX 在国内 SoM 产品领域的市场占有率稳居行业第一,成为FPGA 板卡及方案领域的领导者。 AUMO 作为新兴车载智能产品,正朝着”创新、安全、高效“的方向稳健迈进,通过“产品+定制化服务”的经营模式,满足车企和汽车产业链的车载自动驾驶产品开发需求,助力车企塑造智能出行新时代。
  • 热度 1
    2024-12-17 15:54
    129 次阅读|
    0 个评论
    设计仿真 | 基于VTD的智能大灯仿真测试方案
    随着汽车行业智能化的发展,车灯系统从基础的功能化照明发展为智能化的视觉交互系统。从2020年开始,车灯开始向智能化、像素化、激光化、感知、决策、规划、控制、交互体验等方向发展。例如,智能车灯在基础照明的基础上,会根据车辆的环境状态对投射灯光进行自动调整,避免影响周围行人/车辆的正常交通行为;狭窄道路通行状态下,智能大灯支持地面投射示宽灯,从而向驾驶员提供高可靠性保障;恶劣天气形势,智能车灯可以投射天气标识,增强行车安全性。智能车灯的开发和测试,亟需高效安全的测试方法。以虚拟场景为基础的仿真测试为智能大灯的开发和测试提供了有效解决方案。 以场景仿真工具VTD为基础,构建面向智能灯光的SIL/HIL解决方案。方案的整体流程如下: 通过VTD构建多种测试场景,并通过LSC工具完成车辆大灯的分布和控制设置,以及光强传感器模型; 被测对象通过软件或硬件的方式集成到测试系统中; VTD的摄像头传感器模型采集虚拟场景的图像信息,转发至智能大灯接口以接收画面,软件根据画面做出决策输出灯光效果,向VTD端发送; VTD接收到控制器的输出灯管,投射到VTD的实时场景渲染图像中;其中,被控车辆由驾驶员模型和车辆动力学软件联合仿真输出; VTD生成的新的图像再次发送至控制中枢的算法接口,完成中枢控制系统的闭环测试; 整个测试环境的各个节点通过自动化测试软件管理,从而完成自动化测试,自动生成测试报告。 基于VTD的智能大灯仿真测试具有多项优势: 01 高效快速测试验证,且测试受限因素少; 02 测试场景多样化,提高了测试广度、深度和覆盖度; 03 多LED灯组独立控制位置、亮度与色温,支持工业对标; 04 多Beamer融合投影,支持时变素材; 05 支持导入ies文件对LED光分布进行设置; 06 自定义光源设置与多物理光源仿真; 07 配置参数多元化,支持二次开发。 *本文源自海克斯康
  • 热度 1
    2024-10-15 10:34
    216 次阅读|
    0 个评论
    随着人们对ADAS产品的广泛关注,各大主机厂和供应商纷纷建立自己的ADAS开发团队和推出ADAS产品。根据汽车电子开发的V流程,产品在推向市场之前,要进行SIL、MIL、HIL和VIL等仿真验证,在保证产品的功能的可靠性和性能的稳定性的同时,减少产品的研发费用和缩短产品的研发周期。 在SIL/MIL仿真测试中,需要仿真工具能够集成客户多样化的算法平台,如C++,simulink等;在HIL仿真测试中,需要仿真工具的仿真速度能够满足实时性要求;在VIL仿真测试中,需要仿真工具能够模拟虚拟的测试场地等。 在传感器仿真测试方面,需要仿真工具能够仿真Camera,Lidar,Radar和超声波等不同的传感器类型,同是能够模拟不同等级的传感器信号,以满足不同用户测试不同算法的需求。 在整个测试闭环中,还需要仿真工具能够集成不同的车辆动力学软件的同时,能够和自动化测试软件无缝集成,从而满足用户的自动化测试需求。 汽车高级驾驶员辅助系统的开发和测试领域: 基于VTD的智能驾驶仿真测试系统,采用VTD软件作为场景搭建和仿真的工具,将VTD软件布置在高性能图形工作站中。基于VTD的ROD工具来搭建测试的道路系统,基于ScenarioEditor工具来创建动态的交通,同时根据用户的被测系统在VTD软件中来配置不同的传感器类型及仿真等级。该系统可以满足用户的如下需求: ▶进行控制算法的SIL/MIL/HIL测试; ▶进行感知+控制算法的SIL/MIL/HIL测试; ▶进行基于视频暗箱/视频注入的图像识别算法测试; ▶进行基于回波模拟/点云的Radar识别算法的测试; ▶进行基于Objectlist和激光雷达点云识别算法的测试; ▶进行多传感器在环同时测试; ▶进行基于worldsim的自动化测试。 VTD方案优势: ▶道路搭建支持Opendrive、OpenCRG数据导入; ▶支持OpenSCENARIO标准的数据导入; ▶具有开放的Camera配置文件; ▶满足不同等级的传感器在环测试; ▶不同的传感器类型,可采用不同的仿真步长。 *本文源自海克斯康
  • 热度 6
    2024-5-23 10:20
    389 次阅读|
    0 个评论
    康谋分享 | aiSim5基于生成式AI扩大仿真测试范围(终)
    在前面的几章节中探讨了aiSim仿真合成数据的置信度,此外在场景重建和测试流程闭环的过程中,难免会面临3D场景制作重建耗时长、成本高、扩展性低以及交通状况复杂程度难以满意等问题,当前的主要挑战在于如何自动化生成3D静态场景并添加动态实例编辑,从而有效缩短测试流程,扩大仿真测试范围。 图1:实际图像 图2:NeRF重建场景 对于3D重建,目前主要的两种解决方案为NeRF和3DGS。 一、NeRF 1、 神经辐射场(Neural Radiance Fields) NeRF是将三维空间中的每个点的颜色和密度信息编码为一个连续的函数并由MLP参数化。给定一个视角和三维空间中的点,NeRF可以预测该点的颜色和沿视线方向的密度分布。通过对这些信息进行体积渲染,NeRF能够合成出新视角下的图像。 2、优势 高保真输出。 基于NerFStudio提供了较为友好地代码库。 相对较快的训练时间。 对于待重建区域具有可扩展性。 3、不足及主要挑战 渲染速度缓慢。NeRF需要沿着从相机到场景的每条光线进行大量的采样和计算,以准确估计场景的体积密度和颜色。这个过程计算密集,在NVIDIA A100上进行了测试,全HD分辨率下,渲染一张图像大约需要10s。 场景深度估计效果不理想。NeRF通过体积渲染隐式地学习了场景的深度信息,但这种深度信息通常是与场景的颜色和密度信息耦合在一起的。这意味着,如果场景中存在遮挡或非朗伯(non-Lambertian)反射等复杂情况,NeRF可能难以准确估计每个像素的深度。 近距离物体重建质量可能较低。这可能是由视角和分辨率不足、深度估计不够准确以及运动模糊遮挡等问题造成的。 高FOV相机校准不完善导致的重影伪影。 当然为了解决这些问题研究人员通过引入深度正则化来提升NeRF深度估计的准确性和稳定性,通过优化NeRF的结构和算法提升渲染速度。 二、 3DGS 1、 3D高斯泼溅(3D Gaussian Splatting) 3DGS采用三维高斯分布来表示场景中的点云数据,每个点用一个具有均值和协方差的高斯函数来描述。通过光栅化渲染高斯函数,从而生成逼真的3D场景图像。 2、优势 训练时间短。 近似于实时的渲染。 提供高保真的输出。 3、不足与主要挑战 代码库友好度较低。相比于NeRFStudio,文档的完善程度和易用性较低。 初始点云获取需求高,需要精确的传感器和复杂的数据处理流程,否则将会对3DGS的性能产生明显的影响。 深度估计同样不足,主要可能有几个原因:在优化过程中倾向于独立优化每个高斯点,导致在少量图像下出现过拟合;由于缺乏全局的几何信息,导致在大型场景下或复杂几何结构重建时深度估计不准确;初始点云的深度信息不够准确等。 相机模型支持受限。目前3DGS主要支持针孔相机模型,虽然理论上可以推导出其他相机模型的3DGS版本,但还需要后续的实验验证其有效性和准确性。 重建区域可扩展受限,主要是缺乏LiDAR覆盖区域之外的几何信息导致的不完整重建以及大型城市场景重建的大量计算。 集成和资源密集的挑战,目前3DGS集成通常依赖Python接口;3DGS在运行时可能会占用大量的VRAM。 通过优化超参数和采用新方法,如Scaffold-GS,可能有助于减少内存需求,提高在大型场景下的处理能力。 三、操作方法 1、训练流程 第一步: 输入——相机视频数据;自车运动数据;校准数据;用于深度正则化的LiDAR点云数据; 第二步: 移除动态对象:创建分割图来识别和遮罩图像中的不同对象和区域;对动态对象进行自动注释*(康谋aiData工具链); 第三步: 进行NeRF或Gaussian splatting。 NeRF: 可以使用任何摄像头模型,示例中使用的是MEI相机模型; 采用Block-NeRF进行大规模重建; 嵌入不同的气候条件。 Gaussian splatting: 将输入的相机转化为针孔相机模型; 可以从COLMAP或LiDAR中获得初始点云; 采用Block-Splatting进行大规模重建。 2、添加动态对象 在NeRF和3DGS生成静态场景后,aiSim5将基于外部渲染API进一步增加动态元素,不仅可以重建原始场景,也可以根据测试需求构建不同的交通状态。 aiSim5中基于NeRF/3DGS场景细节。 图13:网格投射阴影 图14:车下环境遮蔽 3、效果展示 在aiSim5中完成动态对象的添加后,可以自由的在地图场景中更改交通状态,用于感知/规控等系统的SiL/HiL测试。
相关资源