tag 标签: 米尔电子

相关博文
  • 2025-1-3 17:04
    1 次阅读|
    0 个评论
    随着市场需求不断的变化,各行各业对CPU的要求越来越高,特别是近几年流行的 AIOT,为了有更好的用户体验,CPU的算力就要求更高了。 今天为大家推荐由米尔基于瑞芯微RK3576处理器推出的MYC-LR3576核心板及开发板。 关于RK3576处理器 国产CPU,是这些年的骄傲,华为手机全国产化,国人一片呼声,再也不用卡脖子了。 RK3576处理器,就是一款由国产是厂商瑞芯微,今年第二季推出的全新通用型的高性能SOC芯片,这款CPU到底有多么的高性能,下面看看它的几个特性: 8核心 6 TOPS超强算力 双千兆以太网 8K@30fps/4K@120fps 解码 ······ CPU具备4xA72@2.2Hz + 4xA53@1.8Hz,除了以上强悍的性能,还有众多通用的功能模块和外设资源,比如:PCIE、USB、SATA、DSMC/Flexbus、CANFD、UART等。 给大家看下RK3576的框图: 通过这些参数,你会发现,这款国产高性能CPU适用于工业、AIoT、边缘计算、智能移动终端以及其他多种数字多媒体等场景。 米尔基于RK3576核心板/开发板 上面介绍了这款今年新推出的国产高性能CPU,下面给大家看看米尔基于这款RK3576处理器的核心板/开发板。 1、核心板 这款核心板尺寸仅为:43x45x3.85mm,采用LGA封装,具备高可靠性,为了满足工业应用场景,核心板还带有屏蔽骨架,能有效减少工业干扰。 同时,为满足应用,核心板匹配最高内存 8GB LPDDR4X、 64GB eMMC、32KBitE2PROM等 2、开发板 为了方便用户拓展自己的外设,米尔提供了配套的开发板(底板)。 开发板提供的接口非常丰富,包括常见的通信和多媒体接口: MYC-LR3576核心板及开发板特色 1、支持三屏异显 这款开发板支持支持三屏异显,得益于处理器强大的音视频编解码能力,同时,开发板还具备HDMI/DP/MIPIDSI等图形输出的常用外设。 它最高支持4K分辨率的视频显示,还支持8K分辨率的硬解码,满足多场景多样化的显示需求。 2、支持多摄像头 由于具备强大的音视频编解码能力,然后也支持MIPI-DSI/Parallel RGB/MIPI CSI/16M Pixel ISP等市面上常见的多媒体接口。 视频输入能力: MIPI-CSI D-PHY v2.0,4 lane, 4.5Gbps/C-PHY v1.1, 3 trios, 2.5Gbps MIPI-CSI D-PHY v1.2, 2*4 lane或4*2 lane或4+2*2, 2.5Gbps DVP, 8/10/12/16-bit, BT.601/BT.656 and BT.1120 单通道ISP,16M pixels 3、赋能AIOT、边缘计算 RK3576处理器高性能8核心,具有6 TOPS的NPU加速器、3D GPU的高算力,在AIOT、边缘计算、 商用机器人、 AI 商显、 智能车载终端、 智慧电力等需要强大算力的应用也不在话下。 丰富的开发资源 MYC-LR3576系列核心板及开发板,提供 Linux 操作系统的驱动支持,并提供用户手册、PDF 原理图、外设驱动、BSP源码包、开发工具等相关资料;为开发者提供了稳定的设计参考和完善的软件开发环境。 1、操作系统镜像文件 myir-image-lr3576-debian: 提供 debian 系统,Gnome默认桌面环境, 包含完整的硬件驱动, 常用的系统工具, 调试工具等。 myir-image-linux-full: 以 buildroot 构建的全功能的镜像, weston 桌面环境, 包含所有的完整的硬件驱动, 常用的系统工具, 调试工具等。 2、丰富的软件资源 为了用户快速上手,米尔提供了丰富的软件资源,包括Bootloader、Linux 内核、设备驱动、文件系统等。
  • 2024-12-19 10:57
    79 次阅读|
    0 个评论
    本篇源自:优秀创作者 lulugl 本文将介绍基于米尔电子MYD-LR3576开发板(米尔基于瑞芯微 RK3576开发板)的人脸疲劳检测方案测试。 米尔基于RK3576核心板/开发板 【前言】 人脸疲劳检测 :一种通过分析人脸特征来判断一个人是否处于疲劳状态的技术。其原理主要基于计算机视觉和机器学习方法。当人疲劳时,面部会出现一些特征变化,如眼睛闭合程度增加、眨眼频率变慢、打哈欠、头部姿态改变等。 例如,通过检测眼睛的状态来判断疲劳程度是一个关键部分。正常情况下,人的眨眼频率相对稳定,而当疲劳时,眨眼频率会降低,并且每次眨眼时眼睛闭合的时间可能会延长。同时,头部可能会不自觉地下垂或者摇晃,这些特征都可以作为疲劳检测的依据。米尔MYC-LR3576采用8核CPU+搭载6 TOPS的NPU加速器,3D GPU,能够非常轻松的实现这个功能,下面就如何实现这一功能分享如下: 【硬件】 1、米尔MYC-LR3576开发板 2、USB摄像头 【软件】 1、v4l2 2、openCV 3、dlib库:dlib 是一个现代化的 C++ 工具包,它包含了许多用于机器学习、图像处理、数值计算等多种任务的算法和工具。它的设计目标是提供高性能、易于使用的库,并且在开源社区中被广泛应用。 【实现步骤】 1、安装python-opencv 2、安装dlib库 3、安装v4l2库 【 代码实现】 1、引入cv2、dlib以及线程等: import cv2 import dlib import numpy as np import time from concurrent. futures import ThreadPoolExecutor import threading 2、初始化dlib的面部检测器和特征点预测器 detector = dlib.get_frontal_face_detector() predictor = dlib.shape_predictor( 'shape_predictor_68_face_landmarks.dat' ) 3、定义计算眼睛纵横比的函数 def eye_aspect_ratio (eye): A = np.linalg. norm (np. array (eye ) - np. array (eye )) B = np.linalg. norm (np. array (eye ) - np. array (eye )) C = np.linalg. norm (np. array (eye ) - np. array (eye )) ear = (A + B) / ( 2.0 * C) return ear 4、定义计算头部姿势的函数 def get_head_pose ( shape ): # 定义面部特征点的三维坐标 object_points = np.array( , dtype=np.float32) image_pts = np.float32( for i in ]) size = frame.shape focal_length = size center = (size // 2, size // 2) camera_matrix = np.array( ], ], ], dtype= "double" ) dist_coeffs = np.zeros(( 4 , 1 )) (success, rotation_vector, translation_vector) = cv2.solvePnP( object_points, image_pts, camera_matrix, dist_coeffs, flags=cv2.SOLVEPNP_ITERATIVE ) rmat, _ = cv2.Rodrigues(rotation_vector) angles, _, _, _, _, _ = cv2.RQDecomp3x3(rmat) return angles 5、定义眼睛纵横比阈值和连续帧数阈值 EYE_AR_THRESH = 0.3 EYE_AR_CONSEC_FRAMES = 48 6、打开摄像头 我们先使用v4l2-ctl --list-devices来例出接在开发板上的列表信息: USB Camera: USB Camera (usb-xhci-hcd.0.auto-1.2): /dev/video60 /dev/video61 /dev/media7 在代码中填入60为摄像头的编号: cap = cv2.VideoCapture( 60 ) cap. set (cv2.CAP_PROP_FRAME_WIDTH, 480 ) # 降低分辨率 cap. set (cv2.CAP_PROP_FRAME_HEIGHT, 320 ) 7、创建多线程处理函数,实现采集与分析分离: # 多线程处理函数 def process_frame ( frame ): global COUNTER, TOTAL gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) faces = detector(gray, 0 ) # 第二个参数为0,表示不使用upsampling for face in faces: landmarks = predictor(gray, face) shape = left_eye = shape right_eye = shape left_ear = eye_aspect_ratio(left_eye) right_ear = eye_aspect_ratio(right_eye) ear = (left_ear + right_ear) / 2.0 if ear < EYE_AR_THRESH: with lock: COUNTER += 1 else : with lock: if = EYE_AR_CONSEC_FRAMES: TOTAL += 1 COUNTER = 0 # 绘制68个特征点 for n in range ( 0 , 68 ): x, y = shape cv2.circle(frame, (x, y), 2 , ( 0 , 255 , 0 ), - 1 ) cv2.putText(frame, f"Eye AR: {ear: .2 f} " , ( 10 , 30 ), cv2.FONT_HERSHEY_SIMPLEX, font_scale, ( 0 , 0 , 255 ), 2 ) cv2.putText(frame, f"Blink Count: {TOTAL} " , ( 10 , 60 ), cv2.FONT_HERSHEY_SIMPLEX, font_scale, ( 0 , 0 , 255 ), 2 ) # 计算头部姿势 angles = get_head_pose(shape) pitch, yaw, roll = angles cv2.putText(frame, f"Pitch: {pitch: .2 f} " , ( 10 , 120 ), cv2.FONT_HERSHEY_SIMPLEX, font_scale, ( 0 , 0 , 255 ), 2 ) cv2.putText(frame, f"Yaw: {yaw: .2 f} " , ( 10 , 150 ), cv2.FONT_HERSHEY_SIMPLEX, font_scale, ( 0 , 0 , 255 ), 2 ) cv2.putText(frame, f"Roll: {roll: .2 f} " , ( 10 , 180 ), cv2.FONT_HERSHEY_SIMPLEX, font_scale, ( 0 , 0 , 255 ), 2 ) # 判断疲劳状态 if = EYE_AR_CONSEC_FRAMES or abs 30 or abs 30 or abs 30 : cv2.putText(frame, "Fatigue Detected!" , ( 10 , 210 ), cv2.FONT_HERSHEY_SIMPLEX, font_scale, ( 0 , 0 , 255 ), 2 ) return frame 8、创建图像显示线程: with ThreadPoolExecutor (max_workers= 2 ) as executor: future_to_frame = {} while True: ret, frame = cap. read () if not ret: break # 提交当前帧到线程池 future = executor. submit (process_frame, frame. copy ()) future_to_frame = frame # 获取已完成的任务结果 for future in list (future_to_frame. keys ()): if future. done (): processed_frame = future. result () cv2. imshow ( "Frame" , processed_frame) del future_to_frame break # 计算帧数 fps_counter += 1 elapsed_time = time. time 1.0 : fps = fps_counter / elapsed_time fps_counter = 0 start_time = time. time () cv2. putText (processed_frame, f "FPS: {fps:.2f}" , ( 10 , 90 ), cv2.FONT_HERSHEY_SIMPLEX, 0.7 , ( 0 , 0 , 255 ), 2 ) if cv2. waitKey ( 1 ) & 0 xFF == ord ( 'q' ): 实现效果: 根据检测的结果,我们就可以来实现疲劳提醒等等的功能。 整体代码如下: import cv2 import dlib import numpy as np import time from concurrent.futures import ThreadPoolExecutor import threading # 初始化dlib的面部检测器和特征点预测器 detector = dlib.get_frontal_face_detector() predictor = dlib.shape_predictor( 'shape_predictor_68_face_landmarks.dat' ) # 修改字体大小 font_scale = 0.5 # 原来的字体大小是0.7,现在改为0.5 # 定义计算眼睛纵横比的函数 def eye_aspect_ratio ( eye ): A = np.linalg.norm(np.array(eye ) - np.array(eye )) B = np.linalg.norm(np.array(eye ) - np.array(eye )) C = np.linalg.norm(np.array(eye ) - np.array(eye )) ear = (A + B) / ( 2.0 * C) return ear # 定义计算头部姿势的函数 def get_head_pose ( shape ): # 定义面部特征点的三维坐标 object_points = np.array( , dtype=np.float32) image_pts = np.float32( for i in ]) size = frame.shape focal_length = size center = (size // 2 , size // 2 ) camera_matrix = np.array( ], ], ], dtype= "double" ) dist_coeffs = np.zeros(( 4 , 1 )) (success, rotation_vector, translation_vector) = cv2.solvePnP( object_points, image_pts, camera_matrix, dist_coeffs, flags=cv2.SOLVEPNP_ITERATIVE ) rmat, _ = cv2.Rodrigues(rotation_vector) angles, _, _, _, _, _ = cv2.RQDecomp3x3(rmat) return angles # 定义眼睛纵横比阈值和连续帧数阈值 EYE_AR_THRESH = 0.3 EYE_AR_CONSEC_FRAMES = 48 # 初始化计数器 COUNTER = 0 TOTAL = 0 # 创建锁对象 lock = threading.Lock() # 打开摄像头 cap = cv2.VideoCapture( 60 ) cap. set (cv2.CAP_PROP_FRAME_WIDTH, 480 ) # 降低分辨率 cap. set (cv2.CAP_PROP_FRAME_HEIGHT, 320 ) # 初始化帧计数器和时间戳 fps_counter = 0 start_time = time.time() # 多线程处理函数 def process_frame ( frame ): global COUNTER, TOTAL gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) faces = detector(gray, 0 ) # 第二个参数为0,表示不使用upsampling for face in faces: landmarks = predictor(gray, face) shape = left_eye = shape right_eye = shape left_ear = eye_aspect_ratio(left_eye) right_ear = eye_aspect_ratio(right_eye) ear = (left_ear + right_ear) / 2.0 if ear < EYE_AR_THRESH: with lock: COUNTER += 1 else : with lock: if = EYE_AR_CONSEC_FRAMES: TOTAL += 1 COUNTER = 0 # 绘制68个特征点 for n in range ( 0 , 68 ): x, y = shape cv2.circle(frame, (x, y), 2 , ( 0 , 255 , 0 ), - 1 ) cv2.putText(frame, f"Eye AR: {ear: .2 f} " , ( 10 , 30 ), cv2.FONT_HERSHEY_SIMPLEX, font_scale, ( 0 , 0 , 255 ), 2 ) cv2.putText(frame, f"Blink Count: {TOTAL} " , ( 10 , 60 ), cv2.FONT_HERSHEY_SIMPLEX, font_scale, ( 0 , 0 , 255 ), 2 ) # 计算头部姿势 angles = get_head_pose(shape) pitch, yaw, roll = angles cv2.putText(frame, f"Pitch: {pitch: .2 f} " , ( 10 , 120 ), cv2.FONT_HERSHEY_SIMPLEX, font_scale, ( 0 , 0 , 255 ), 2 ) cv2.putText(frame, f"Yaw: {yaw: .2 f} " , ( 10 , 150 ), cv2.FONT_HERSHEY_SIMPLEX, font_scale, ( 0 , 0 , 255 ), 2 ) cv2.putText(frame, f"Roll: {roll: .2 f} " , ( 10 , 180 ), cv2.FONT_HERSHEY_SIMPLEX, font_scale, ( 0 , 0 , 255 ), 2 ) # 判断疲劳状态 if = EYE_AR_CONSEC_FRAMES or abs 30 or abs 30 or abs 30 : cv2.putText(frame, "Fatigue Detected!" , ( 10 , 210 ), cv2.FONT_HERSHEY_SIMPLEX, font_scale, ( 0 , 0 , 255 ), 2 ) return frame with ThreadPoolExecutor(max_workers= 2 ) as executor: future_to_frame = {} while True : ret, frame = cap.read() if not ret: break # 提交当前帧到线程池 future = executor.submit(process_frame, frame.copy()) future_to_frame = frame # 获取已完成的任务结果 for future in list (future_to_frame.keys()): if future.done(): processed_frame = future.result() cv2.imshow( "Frame" , processed_frame) del future_to_frame break # 计算帧数 fps_counter += 1 elapsed_time = time.time() - start_time if 1.0 : fps = fps_counter / elapsed_time fps_counter = 0 start_time = time.time() cv2.putText(processed_frame, f"FPS: {fps: .2 f} " , ( 10 , 90 ), cv2.FONT_HERSHEY_SIMPLEX, 0.7 , ( 0 , 0 , 255 ), 2 ) if cv2.waitKey( 1 ) & 0xFF == ord ( 'q' ): break # 释放摄像头并关闭所有窗口 cap.release() cv2.destroyAllWindows() 【总结】 【米尔MYC-LR3576核心板及开发板】 这块开发板性能强大,能轻松实现对人脸的疲劳检测,通过计算结果后进入非常多的工业、人工智能等等的实用功能。
  • 2024-11-1 16:38
    270 次阅读|
    0 个评论
    1.引言 随着网络视频平台的发展,用户对于4K高清画质的需求日益增长。然而,许多用户发现,即使购买了视频平台的会员,观看4K内容时画质却不如预期,有时甚至还会出现模糊、卡顿的情况。这种现象背后涉及到视频编码、网络带宽、和视频传输的诸多因素。 近期“影视飓风”发布的视频《清晰度不如4年前!视频变糊是你的错觉吗?》因讨论视频平台降低码率和改变编码格式以压缩视频画质,影响了内容表达。 4K视频清晰度下降的一个主要原因是平台为了节省带宽而压缩视频流,有时导致比特率降低,无法发挥4K分辨率的全部潜力。 在这种背景下,如何 高效地压缩和传输4K视频成为了一个关键技术难题 。本文将探讨如何通过 米尔电子的ZU4EV MPSoC平台, 接入真4k 60UHD-SDI视频源后,使用VCU进行高效H.265编解码,再通过 SGMII万兆以太网 实现 网络推流,以确保高质量4K视频的流畅传输。 2.视频质量下降的原因与优化方法 1) 带宽瓶颈 :在用户数量增加的情况下,服务器和网络的带宽常常无法满足4K视频流的需求。 2) 压缩算法不足 :传统的视频压缩技术在高分辨率内容上表现不佳,容易导致画面模糊。 3) 视频流传输的优化 在推流过程中,网络带宽和视频压缩效率直接决定了视频播放的清晰度与流畅度。为了确保4K视频在万兆以太网上的高效传输,本设计采用以下优化措施: 合理的码率控制 :在保证视频清晰度的前提下,调整H.265编码的目标码率,避免过低的码率影响视频质量或过高的码率导致带宽浪费或。通过CBR或VBR模式可以根据网络情况动态调整码率。 低延时模式 :VCU支持低延时编码模式,确保视频在压缩和传输过程中保持尽可能低的延迟,提升用户的观看体验。 网络传输协议选择 :根据应用场景选择合适的传输协议。对于实时性要求较高的场景,可选择UDP传输,而对于数据可靠性要求较高的场景,则推荐使用TCP协议。 3.MPSoC与VCU架构在4K UHD音视频广播领域的优势 1. 高性能与低功耗的结合 :Zynq UltraScale+ MPSoC采用了16nm FinFET工艺,集成了多核处理器和可编程逻辑,能够在提高性能的同时降低功耗,这对于音视频广播领域来说至关重要,因为它可以在保证高清晰度视频传输的同时,减少能源消耗。 2. 实时压缩与解压缩能力 :集成的VCU支持H.264/AVC和H.265/HEVC标准,能够实现高达4K UHD分辨率的视频的实时压缩和解压缩。这意味着在广播应用中,可以利用VCU进行高效的视频编码,减少存储空间和带宽的需求,同时保持视频质量。 3. 多视频流处理能力 :VCU能够同时处理多达八个不同的视频流,这对于需要同时广播多个视频源的4K UHD广播应用来说非常有用。这种多任务处理能力使得MPSoC成为多媒体中心和视频服务器的理想选择。 4. 灵活性和可扩展性 :MPSoC的可编程逻辑(PL)提供了任意到任意高速视频/音频接口的灵活性,可以为多媒体管道带来定制图像及视频处理功能的差异化效果。这种可编程性使得系统能够适应不断变化的音视频广播需求。 5. 专用硬件加速 :MPSoC提供了专用的处理引擎,如基于ARM Cortex A53的APU、Mali图形处理单元等,这些专用硬件能够加速图形和视频处理任务,提高系统的整体性能。 6. 支持多种视频格式 :VCU支持高达4:2:2 10位UHD-4K的视频格式,适合专业和高端消费级的制作与后期制作解决方案。这种广泛的格式支持使得MPSoC可以应用于各种不同的音视频广播场景。 7. 集成的多媒体框架支持 :MPSoC结合常见的多媒体框架GStreamer,可以开发硬件加速型多媒体应用。这种集成支持简化了开发过程,使得开发者能够快速实现复杂的音视频处理任务。 8. 优化的功耗管理 :Zynq UltraScale+ MPSoC将处理引擎、硬件编解码器等组件放置在具有独立电轨的不同电源域中,这种配置可用于为整个系统设计优化功耗管理方案,进一步降低系统功耗。 9. 高速互联外设 :MPSoC提供高速互联外设,如集成式DisplayPort接口模块,支持高达6 Gb/s的工作速率,这有助于处理来自PS或PL的实时音视频流,进一步降低系统BOM成本。 10. 支持新一代地面数字电视广播技术 :随着超高清电视时代的到来,MPSoC与VCU架构能够支持新一代地面数字电视广播技术,如DVB-T2、ATSC 3.0和DTMB-A等,这些技术支持更高的视频质量和新的广播应用模式。 综上所述,MPSoC与VCU架构在4K UHD音视频广播领域提供了高性能、低功耗、实时压缩解压缩、多视频流处理、灵活性、硬件加速、广泛格式支持、多媒体框架集成、优化的功耗管理和高速互联外设等多重优势,使其成为该领域理想的解决方案。 4.系统架构概述 在本设计中,我们使用Zynq UltraScale+ MPSoC平台(具体型号为MYIR XCZU4EV),通过FPGA实现对SDI视频的H265压缩,并通过SGMII接口推送到万兆以太网上。系统架构主要包括以下几个部分: 1. 视频输入 :输入源可以是SDI摄像机、SDI信号发生器或通过HDMI转SDI设备从电脑接入的HDMI信号。视频信号通过TI公司的LMH1219芯片做均衡处理,并将单端信号转换为差分信号后输入FPGA。 2. SDI视频解码 :FPGA中的UHD-SDI GT IP核用于SDI视频的解串,并将视频信号转换为AXI4-Stream格式供后续处理。通过SMPTE UHD-SDI RX SUBSYSTEM IP核,SDI视频被解码为RGB格式。 3. 视频帧缓存与处理 :解码后的视频信号存储在PS侧的DDR4中,通过Xilinx提供的Video Frame Buffer Write IP核实现。在这一阶段,可以对视频帧进行颜色转换、缩放等处理。 4. H.265视频压缩 :使用Zynq UltraScale+ VCU IP核对存储的RGB视频帧进行H.265编码压缩。VCU支持YUV420格式的视频,编码分辨率最高可达到4K@60fps。 5. SGMII万兆以太网传输 :经过H.265压缩后的视频流通过SGMII接口推送至万兆以太网。通过PetaLinux系统,利用TCP/UDP协议将压缩后的码流传输到PC或服务器端,用户可以通过VLC播放器等软件实时播放接收到的H.265码流。 5.工程设计主要流程 1. SDI输入 :通过LMH1219进行信号均衡,SDI信号转换为AXI4-Stream格式。 通过HDMI转SDI盒子,通过12G UHD-SDI输出4K 60FPS视频给FPGA,用户也可以使用SDI 工业相机; 2. 视频解码 :UHD-SDI GT IP核完成视频解串,SMPTE UHD-SDI RX SUBSYSTEM IP核将视频解码为RGB信号。 3. 视频缓存 :使用Video Frame Buffer Write IP核将视频写入DDR4。 用户可以选择在这里做出customer ISP,例如图像缩放,拼接 4. 视频压缩 :通过Zynq UltraScale+ VCU IP核对视频进行H265压缩。 5. 网络传输 :通过SGMII万兆以太网接口,将压缩后的H265视频流通过UDP协议推送至PC端,使用VLC播放器播放。 6.结论 在视频内容不断向4K发展的大背景下, 通过Zynq UltraScale+ MPSoC平台,基于VCU实现的SGMII万兆以太网视频压缩推流方案,不仅能够高效地压缩和传输4K视频,还可以确保较低的延迟和高质量的图像输出。该方案适用于视频监控、医疗影像、工业自动化等对高分辨率视频有需求的应用场景。 对于希望在网络视频平台上获得更好观看体验的用户来说,视频平台和服务提供商则需要在视频编码、网络传输等方面进行优化,以满足用户对于4K视频的画质需求。 7.互动环节 在SGMII网兆以太网推流到PC端,因为是万兆网,CPU无法负担这里的高速吞吐率,这里我们需要用到网络卸载,米尔电子的MYC-J7A100T双芯设计核心板可通过SFP采集SGMII万兆以太网数据后,PC通过PCIE读取视频源,实现万兆网口数据包卸载,我们会在后续系列文章中做出分享基于米尔MYC-J7A100TSFP采集后PCIE XDMA中断读取。
  • 2024-10-25 17:21
    0 个评论
    随着科技的快速发展,AIoT智能终端对嵌入式模块的末端计算能力、数据处理能力等要求日益提高。 近日,米尔电子发布了一款基于瑞芯微 RK3576核心板和开发板 。核心板提供4GB/8GB LPDDR4X、32GB/64GB eMMC等多个型号供选择。瑞芯微RK3576核心优势主要包括高性能数据处理能力、领先的AI智能分析、多样化的显示与操作体验以及强大的扩展性与兼容性。‌下面详细介绍这款核心板的优势。 6 TOPS超强算力,8核C PU 赋能A I 瑞芯微RK3576搭载了四核A72与四核A53处理器,主频高达2.2GHz,确保了系统的高效运行和强大的计算能力。RK3576集成了6TOPS的NPU,支持多种深度学习框架,能够处理复杂的AI算法,提高监控效率,降低误报率。 A I算力强, 搭 载 6 TOPS 的 NPU加速器,3D GPU ,赋能工业 A I 三屏异显,丰富多媒体功能 RK3576支持三屏异显,最高支持4K分辨率的视频显示,提供清晰的视觉体验。它还支持8K分辨率的硬解码,满足多场景多样化的显示需求。此外,RK3576的灵活VOP设计允许根据实际需求调整视频输出配置,提升系统的适用性和易用性‌。 丰富的接口,强大的扩展性和兼容性 RK3576拥有双千兆以太网接口、PCIE2.1、USB3.2、SATA3、DSMC/Flexbus、CANFD、UART等丰富接口,具备强大的扩展性和兼容性,支持大模型运行和多模态检索功能,处理复杂的监控数据和场景信息。它还支持512Mbps的接入、转发和存储能力,确保数据的高效传输和存储。 米尔 RK3576 核心板采用 LGA创新设计,可靠性高,又能节省连接器成本。 高可靠性保证,严格的测试标准,保障产品高质量 国产核心板,应用场景丰富 专为新一代 电力智能设备 、工业互联网设备、 工业控制设备 、 工业机器人 、 商显 、触控一体机、 工程机械 、 轨道交通 等行业设计
  • 热度 2
    2024-10-11 16:28
    90 次阅读|
    0 个评论
    米尔电子发布了基于新唐MA35D1处理器设计的MYC-LMA35核心板,MA35D1处理器集成了双核Cortex-A35和Cortex-M4,原生17路UART和4路CAN FD接口,可实现多种设备的高效互联并满足通信需求,此外,MYC-LMA35核心板还提供了丰富的外设资源:RGMII/USB/SDIO/I2S/I2C/EADC/EPWM/SPI等,丰富的外设资源使得MYC-LMA35核心板能够广泛应用于串口服务器、工业网关、新能源充电桩、振动监测、工程机械控制器、运动控制器和电力DTU等场景。 图1MYC-LMA35 核心板框图 下面是基于MYC-LMA35核心板(米尔基于MA35D1核心板)在串口服务器、工业网关、充电桩、振动监测应用的介绍。 串口服务器: 串口服务器是一种网络设备,主要用于将串行通信设备与网络转换和通信,实现远程数据传输和管理。它通过将传统的串口信号转换为网络协议,使得用户能够访问和控制多个串行设备。可应用于工业自动化、数据采集、智能家居等。 在串口服务器上,米尔基于MA35D1核心板具备强大的应用优势。MA35D1处理器支持17个原生UART接口,可以根据需求灵活实现RS232、RS485串口通信方式,利用这些串口连接多种传感器,满足不同设备的连接需求,确保数据实时采集;配备4路CAN FD接口,支持高速的数据速率和更大的有效载荷,适用于复杂的工业通信场景;双千兆以太网接口的设计可用于连接网络,提供了更快的数据传输速度;核心板支持USB HOST,可连接WIFI/4G模块,实现灵活的无线通讯。这些特性使得MYC-LMA35核心板能够更好地应用在串口服务器中,高效地处理实时数据,适应多样化的应用需求。 图2串口服务器应用框图 工业网关: 工业网关是一种专为工业环境设计的网络设备,用于连接不同的工业网络和设备,帮助实现数据的采集、传输和处理。它充当了各种工业控制系统之间的桥梁,使得不同协议和接口的设备能够无缝通信,从而提高了生产效率和设备管理的灵活性。 在工业网关上,米尔基于MA35D1核心板展现了强大的应用能力。核心板支持USB HOST,方便连接4G模组,确保工业设备能够进行实时数据传输;配备两路千兆以太网接口,确保高速数据传输;原生4路CAN FD接口可用于连接CAN 设备,提升工业自动化系统的互联互通性;核心板能够通过EBI与FPGA进行高效数据交互,拓展系统的处理能力;原生UART能够连接传感器等多种外部设备,可检测环境并采集数据;可利用SDHC连接WIFI/BT模块,增强无线通信的灵活性;I2C接口向外拓展连接RTC,确保系统时间准确性;核心板还支持LINUX操作系统,提供灵活的开发环境,适合工业应用的定制需求。基于这些性能MYC-LMA35核心板在工业网关中广泛应用,处理和管理来自不同设备的数据流。 图3 工业网关应用框图 充电桩: 充电桩是为电动车辆提供电能补给的设备,通过将电网中的电能转换为适合电动车使用的形式,实现快速、安全的充电。充电桩种类多样,包括直流快充和交流慢充,满足不同用户的需求。随着电动车的普及,充电桩的建设变得越来越重要,为绿色出行提供了便利保障。 MYC-LMA35核心板在充电桩的应用中展现了其强大的技术优势。MA35D1处理器配备原生17路UART接口,能够利用UART接口实现内外电压检测、计量电压采样和调试,也可以将UART接口根据需求转换为RS232、RS485串口通信方式,连接刷卡器、电表和扫码枪,使得其与电动车及其他设备的通信更加高效和灵活;核心板支持ADC,能够监测控制电压电流和温度,确保充电过程安全与高效;USB接口可连接U盘,实现数据存储和更新;两路千兆以太网,可以实现高速数据传输,满足充电桩实时监控和远程管理的需求;支持SPI和I2C接口,为外部传感器和模块的连接提供了便利;I2S、RGB等多媒体接口,帮助实现人机交互的界面显示和操作输入。MYC-LMA35核心板支持的多种拓展外设,使得其成为充电桩解决方案的理想选择,推动智能充电技术的发展。 图4 直流充电桩应用框图 振动监测: 振动监测是对设备或结构的振动特性进行检测、分析和评估的过程,以了解其运行状态和性能。分为高频振动监测,如电机振动监测;低频振动监测,如桥梁振动监监测。振动监测能够及时发现设备故障、评估设备性能、预测潜在风险,并采取相应的维护措施,确保设备安全、稳定、高效地运行。 MYC-LMA35核心板在振动监测领域具有强大的应用潜力。MA35D1芯片内置的DDR内存,使得数据处理更加高效,支持复杂的硬件设计;芯片集成的M4内核能够有效解决实时数据采集的问题,能够灵活配置ADC、串口、SPI和IIC等外设,确保系统在高频率下的稳定运行;核心板支持LINUX操作系统,方便程序的编制与维护,并通过以太网和4G模块实现更优的连接性能,增强了系统的兼容性和稳定性;M4内核与A35内核之间通过共享DDR内存进行数据传输,确保了在微秒级别内完成大量数据的传递。以上特性确保MYC-LMA35在振动监测中能够更好地应用。 图5 振动监测应用框图 综上所述,核心板在振动监测、充电桩、工业网关和串口服务器等领域的应用展现了其广泛的适用性和灵活性。原生17路UART和4路CAN FD为工业自动化和智能设备的开发提供了强有力的支持,满足更复杂和多样化的应用需求。 图6 米尔基于MA35D1核心板及开发板