tag 标签: 机器视觉

相关帖子
相关博文
  • 热度 3
    2024-4-23 18:03
    407 次阅读|
    0 个评论
    当你用手机进行刷脸解锁,当你用浏览器以图搜图,当你使用扫一扫识别物品,当你用摄像头探视家中猫狗的一日,当你沉浸在VR游戏中感受未来…… 这些不同的视觉场景应用背后,计算机视觉都在发挥重要作用,通过图像处理、模式识别、机器学习等方式,成为现代科技的“眼睛”,扩大人类“视界”。 计算机视觉是AI的一个重要领域,使得计算机和系统能够从图像、视频或其他视觉输入中获得有价值信息,并根据信息采取行动和智能决策。 计算机视觉包含图像分类与识别、物体检测与分割、人体分析、3D识别与重建、视频理解与分析等重要任务,适用于简单物品识别与复杂操作场景。 目前,计算机视觉主要应用于工业智能化、医疗图像分析、车联网、虚拟现实与增强现实等领域。 在工业领域,计算机视觉利用图像识别技术,自动化地进行产品质量检测、颜色及形状分类,提高了生产效率和精确度。在医疗领域,计算机视觉结合深度学习进行疾病诊断和预测,改变了传统医疗方式,助力医疗数字化。在车联网领域,计算机视觉实时分析周围环境,为车辆路径规划和决策提供精准信息,360°环视可实现自动泊车。再者,计算机视觉通过创建沉浸式的虚拟环境,为娱乐和教育等领域提供全新的体验方式。各类机器人终端通过计算机视觉进行物体检测、轨迹跟踪、人脸识别,以更好地实现人机协同。 广和通深度探索计算机视觉的关键技术与难点,助力客户实现计算机视觉端侧部署,以高算力模组及解决方案大大简化智能终端视觉部署的难度。 广和通5G智能模组SC171及解决方案支持12 TOPS的AI算力,具备卓越AI性能,支持4K高清视频,可支持多路摄像头同时运行,能对图片及影像进行高效计算与处理。SC171系列拥有双USB、双PCIe、MIPI、UART、SPI、I2C等多种扩展接口,便于延展至各类视觉终端。SC171系列在计算能力、视频编解码、图像处理、网络连接(支持蓝牙、WiFi 6/6E等多种无线通信方式)等方面都具备领先优势,可在高端智能影像终端、工业视觉终端、具身机器人等领域广泛应用。 计算机视觉以“看得见”的技术改变人们生活和工作方式,解决众多“看不见”的场景痛点。计算机视觉将与物联网技术融合,推动产业智能化、精准化。广和通AIoT模组及解决方案助力计算机视觉端侧部署,将为各行业带来规模商用方案。
  • 2022-8-1 23:31
    0 个评论
    相信大家都经历过一件事 :组装新家具。把零件按顺序排列好,查看 安 装说明, 发现要花费的时间 比预期要长! 新加坡南洋理工大学(NTU Singapore)的科学家们 研制 了一种机器人,可以独立组装椅子的各个 零 件。该机器人由一个 HK Ensenso N35 3D 相机 和 两个能 抓取物体 的 机器臂组成。 应用 为了帮助机器人组装宜家 的 椅子,来自“机械与航空工程学院”的团队用三个不同的开源库对算法进行编码。机器人的硬件设计是为了模拟人们如何安装物体:“眼睛” 为 3D摄像头,“手臂” 为 能够在六个轴上运动的工业 机械臂 。每只机械臂都 有 抓手 来 抓取物体。手腕上安装了力传感器,以确定“手指”的握力以及它们使物体相互接触的强度。 机器人开始组装过程时,会拍摄地面上各部件的3D图像,生成各部件估计位置的地图,由HK Ensenso 3D相机完成。相机的工作原理是模仿人类视觉的“投影纹理立体视觉”(stereo vision)。两台相机从两个不同的位置获取同一场景的图像。虽然摄像机看到的场景内容是相同的,但根据摄像机的投影射线得到的物体位置不同。特殊的匹配算法比较两幅图像,搜索相应的点,并在视差图中可视化所有点的位移。虹科提供软件可以确定每个单独的图像像素或物体点的三维坐标,以便于完成椅子的组装。 难点 难点是在混乱的环境中尽可能精确、快速、可靠地定位组件。虹科3D相机依赖大功率投影仪足以满足这些需求。即使在艰难的光线条件下,投影仪也能通过图像掩模在物体表面产生高对比度的纹理。投射的纹理补充了宜家椅子组件上薄弱或不存在的物体表面结构。 这个应用利用了虹科N35系列相机中独有的FlexView投影仪技术,投影在组件物体表面上的模式可以改变表面上的纹理,检测得到的深度信息非常精确完整,该项技术是通过获取同一目标场景的不同纹理的多幅图像融合成一帧图像得到。另一个优势是HK Ensenso软件提供机器人手眼标定功能。使用一个标定板,它确保相机坐标系(在这种情况下是相机是静止的)的位置是相对于基础坐标系(组件的位置)确定的。这使得机器人的手能够准确地对图像信息做出反应,并准确地到达目的地。 “对于一个机器人来说,把椅子精确的拼凑比人为工作更复杂”南洋理工大学的Pham Quang Cuong教授解释道。“必须分解成不同的步骤,比如识别不同的椅子部件在哪里,抓住这些部件所需要的力量,以及确保机械手臂在移动时不会相互碰撞。通过相当大的工程努力,我们开发了算法,使机器人能够自行组装椅子。”结果是南洋理工大学的机器人只用了8分55秒就安装好宜家的“斯第芬”椅子。 前景 据Pham Quang Cuong教授介绍,人工智能将使这一应用在未来更加独立和有前途:“我们希望在这种方法中融入更多的人工智能,使机器人更加自主,这样它就可以通过人类演示或阅读安装手册,甚至从组装产品的图片中学习组装椅子的不同步骤。” 新加坡南洋理工大学的科学家开发的机器人被用于对机敏操作的研究,这是一个需要精确控制专用机器人手或手指的力量和运动的机器人领域。这需要所有硬件和软件组件的完美交互。使用虹科3D相机进行三维图像处理是解决问题的关键。它在准确性上、经济和速度方面都令人信服。 这标志着家具组装的真正进步,且不止于此。 虹科Ensenso N35 :快速和精确的3D视觉 GigE接口-灵活多样 紧凑,坚固的铝外壳 IP65/67 全局曝光 CMOS传感器和点图案激光器,可选蓝色或红外led 最大帧率(3D): 10 工作距离最远3000mm(N35)且可调节 输出单个3D点云 提供手眼标定步骤指引,易于设置 带有标定板的机器人手眼标定集成功能 可集成uEye 工业摄像头的软件,例如,捕捉附加的颜色信息或条形码 灵活的数据和帧率的采样和叠加 自动判断 中文中文(简体)中文(香港)中文(繁体)英语日语朝鲜语德语法语俄语泰语南非语阿拉伯语阿塞拜疆语比利时语保加利亚语加泰隆语捷克语威尔士语丹麦语第维埃语希腊语世界语西班牙语爱沙尼亚语巴士克语法斯语芬兰语法罗语加里西亚语古吉拉特语希伯来语印地语克罗地亚语匈牙利语亚美尼亚语印度尼西亚语冰岛语意大利语格鲁吉亚语哈萨克语卡纳拉语孔卡尼语吉尔吉斯语立陶宛语拉脱维亚语毛利语马其顿语蒙古语马拉地语马来语马耳他语挪威语(伯克梅尔)荷兰语北梭托语旁遮普语波兰语葡萄牙语克丘亚语罗马尼亚语梵文北萨摩斯语斯洛伐克语斯洛文尼亚语阿尔巴尼亚语瑞典语斯瓦希里语叙利亚语泰米尔语泰卢固语塔加路语茨瓦纳语土耳其语宗加语鞑靼语乌克兰语乌都语乌兹别克语越南语班图语祖鲁语 自动选择 中文中文(简体)中文(香港)中文(繁体)英语日语朝鲜语德语法语俄语泰语南非语阿拉伯语阿塞拜疆语比利时语保加利亚语加泰隆语捷克语威尔士语丹麦语第维埃语希腊语世界语西班牙语爱沙尼亚语巴士克语法斯语芬兰语法罗语加里西亚语古吉拉特语希伯来语印地语克罗地亚语匈牙利语亚美尼亚语印度尼西亚语冰岛语意大利语格鲁吉亚语哈萨克语卡纳拉语孔卡尼语吉尔吉斯语立陶宛语拉脱维亚语毛利语马其顿语蒙古语马拉地语马来语马耳他语挪威语(伯克梅尔)荷兰语北梭托语旁遮普语波兰语葡萄牙语克丘亚语罗马尼亚语梵文北萨摩斯语斯洛伐克语斯洛文尼亚语阿尔巴尼亚语瑞典语斯瓦希里语叙利亚语泰米尔语泰卢固语塔加路语茨瓦纳语土耳其语宗加语鞑靼语乌克兰语乌都语乌兹别克语越南语班图语祖鲁语 百度翻译 谷歌翻译 谷歌翻译(国内) 翻译 朗读 复制 正在查询,请稍候…… 重试 朗读 复制 复制 朗读 复制 来源 谷歌翻译(国内) 译
  • 2022-5-27 15:11
    1 次阅读|
    0 个评论
    文章来源:吴雨培 北京阿丘科技算法总监 如需转载请注明来源。 吴雨培学长将在5月31日下午2:30 与大家继续探讨小样本问题 欢迎扫描下方二维码预约直播围观~ 正文如下: 在工业生产制造中,由于生产过程是一个多因素耦合的复杂过程,生产过程中的任何异常都会导致产品缺陷产生,及时识别异常产品的缺陷模式是提高生产质量和生产效率的有效途径,所以缺陷检测具有十分重要的研究意义。 早期的产品缺陷模式识别主要是通过机器学习方法进行的,如支持向量机、反向传播网络等。这些方法与用肉眼直接对产品缺陷进行识别相比,大大降低了工作量。但是这些早期方法存在以下不足:识别准确率低且需要大量的标签数据对模型进行训练。近年来随着深度学习的发展,大量基于卷积神经网络的算法在视觉任务中大放异彩。由于卷积神经网络具有非常强大的特征提取能力,卷积神经网络在缺陷检测任务中得到了广泛的应用。 与传统的机器学习方法相比,基于卷积神经网络的深度学习方法在缺陷识别领域具有更高的识别准确率和工作效率。但是这种方法和机器学习方法具有同样的缺点,首先是模型训练需要大量的标签数据,而具有缺陷模式标签的图像是不容易获取的,因为获取带有产品缺陷模式标签的图像需要人工监督,即需要大量有经验的专业人员进行人工标注,这是非常昂贵且耗时的。此外在某些高度自动化的生产场景中,产品的良率特别高,收集缺陷样本非常耗时,而当前的用于缺陷检测的深度学习方法大多是基于大量缺陷样本建立模型,缺陷样本的缺乏导致模型难以上线。针对某些行业比如汽车行业的多型号小批量生产场景(每种型号产品只生产几天),在完成缺陷样本收集前某种型号产品已经不再生产了,这种场景下大量的缺陷样本收集是不可能的。此外,由于缺陷是由生产过程中的非受控因素产生的,缺陷的形态是多种多样的,各种形态的样本很难收集完整,这也限制了深度学习在工业检测领域的应用。 为了拓展深度学习在工业检测领域的应用范围及提升易用性,小样本检测算法的研究成为必然。 解决工业检测小样本问题有两种路径,第一种是工程路径,第二种是算法路径。其中工程路径常见有两种方法,第一种是基于真实产品手动制造缺陷,第二种是基于真实图像手动仿真缺陷。这两种方法的优势在于操作简单,产生的缺陷也与真实缺陷比较接近,但劣势也比较明显。基于真实产品手动制造缺陷会对产品造成不可逆的破坏,对于高价值产品破坏成本较高,而且,因为缺陷均由非受控因素产生,手动制造的缺陷不一定与实际缺陷情况完成吻合,会存在一些差异。而基于图像手动仿真缺陷则存在对操作人员要求高,产生速度慢的问题。因此,使用工程路径解决小样本问题可以在一些比较紧急的情况下使用,比如项目初期需要紧急上线时。 从算法路径解决小样本问题,基本的思路有两种,第一种是增加样本,第二种是减少算法对样本的依赖。基于第一种思路的算法研究方向有数据增广和缺陷生成,其中数据增广在深度网络训练时为了防止过拟合已成为一个标准手段,站在工业检测的视角上看,数据增广是一种性价比比较高的扩增样本的手段,但因为目前数据增广的方法大多是基于一些传统图像处理方法,所以能仿真缺陷的位置和一些简单纹理变化,但无法仿真缺陷的形状和复杂纹理,所以数据增广一般作为一个基础手段,可以解决一部分小样本问题,对于一些简单场景是有帮助的。而要解决更复杂场景的样本生成问题,需要用缺陷生成算法。我们将缺陷生成算法的研究分为三个阶段,第一阶段是单一产品单一型号缺陷生成,第二阶段是单一产品多型号缺陷生成,第三阶段是实现跨产品缺陷的生成。当前缺陷生成算法大致可以分为两种,一种是自动生成算法,整个生成过程完全不需要人工干预,第二种是半自动生成算法,需要一些简单的人工交互。自动生成算法的典型算法有DCGAN 、WGAN ,输入一张缺陷图像可以直接生成多张真实的缺陷图像。半自动生成算法的典型算法有CGAN 、CVAE 、Pix2Pix ,需要人工交互给定缺陷生成的类别或形状,然后根据给定信息生成指定类型缺陷。但当前无论是自动生成算法还是半自动生成算法,对训练样本的需求量虽然比监督算法少,但还是有一定要求,而且目前还没有一种能在所有数据上通用的解决方案,当前仍需要针对不同的场景制定不同算法版本。通用的缺陷生成算法是这个研究方向下一步的重点。 算法路径解决小样本问题的第二个思路是减少算法对样本的依赖,基于这个思路衍生出两条算法路线,第一条路线是完全不需要缺陷样本的非监督学习算法,基于非监督算法训练模型时仅需要OK图像参与训练即可。第二条路线仍基于有监督算法,对缺陷样本的需求量大大降低。 非监督算法实现的思路大体上分为两种,一种是基于生成模型,基本思路是训练一个只能生成OK图像的生成网络,推理时针对输入的NG图像,找到一个与NG图像最接近的OK图像,然后求两张图的差异,根据差异大小判断是否为NG,典型算法有AE,VAE ,Ano-GAN 等。另一种思路是基于特征表示,基本思路是找个一个较好的特征表示,将OK图和NG图分别映射到高维特征空间,OK图对应特征点的类内距离很小,推理时一张图对应特征点与OK图特征簇的中心距离很远就可以判定为NG,典型算法有SVDD 、OCSVM、DeepSVDD 等。 基于有监督算法减少样本依赖的思路分为两种,一种是对输入数据进行归一化,降低不同缺陷样本之间的差异,归一化算法基于传统图像处理算法实现,需要针对不同场景做不同的算法设计,很难有通用性,因此仅作为一些临时处理手段。另一种思路是基于迁移学习,典型的算法研发方向是域适应(Domain Adaption)和域泛化(Domain Generation)。DA处理的问题要求可以获取一部分目标域的图像,且不能实现跨类别的迁移,因此适合用于处理跨产品型号的问题。DG在DA的基础上,放宽了对目标域数据的要求,可以不需要目标域数据,且可以实现跨类别迁移,因此可以实现跨产品、跨型号、跨缺陷类别的迁移。DA算法当前研究的基本思路有三种,一是基于差异度量,核心思路是找一个差异度量函数,让源域与目标域样本的特征在这个度量函数下最小,代表算法为MMD ;二是基于对抗,核心思路是通过构造对抗网络,训练一个分类器让判别器无法区分数据是来自源域还是目标域,这样就实现了源域和目标域的融合,代表算法为Dom Confusion ;三是基于重构,核心思路是将构造源域和目标域的通用特征,仅利用通用特征去执行相应的任务,代表算法为Domain Separation Networks 。DG算法当前的研究思路也分为三种,第一种是推理时选取一个分布最近的源域的模型直接使用,第二种是通过拆解域相关与域无关的组件并进行组合来实现对目标域数据的处理,第三种是训练得到域不变的特征 。 当前基于有监督的缺陷检测算法,在数据量充足的场景下已经逐步成功落地,但工业场景具有一定的离散性,大部分应用场景均为小样本检测场景,小样本问题的解决有助于将AI技术应用于千千万万工厂。虽然当前针对小样本问题有一些初步的解决思路,但该问题的彻底解决需要更深入的研究及更大的投入。阿丘科技将AI For Every Factory作为使命,会坚定不移地持续研究小样本问题,也希望可以和有志于研究工业AI检测问题的工业人一起交流进步,推动小样本问题的彻底解决。 5月31日下午2:30-3:30 直播间在线交流 吴雨培学长在线等你哦 (微信扫一扫预约直播,有直播提醒哦) 文献引用 Radford A ,Metz L ,Chintala S . Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks // 2015. Arjovsky M ,Chintala S ,Bottou L . Wasserstein GAN .2017. Mirza M ,Osindero S . Conditional Generative Adversarial Nets . Computer Science, 2014:2672-2680. Sohn K, Lee H, Yan X. Learning structured output representation using deep conditional generative models . Advances in neural information processing systems, 2015, 28: 3483-3491. Isola P, Zhu J Y, Zhou T, et al. Image-to-image translation with conditional adversarial networks //Proceedings of the IEEE conference on computer vision and pattern recognition. 2017: 1125-1134. Kingma D P, Welling M. Auto-encoding variational bayes . arXiv preprint arXiv:1312.6114, 2013. Schlegl T, Seeböck P, Waldstein S M, et al. Unsupervised anomaly detection with generative adversarial networks to guide marker discovery //International conference on information processing in medical imaging. Springer, Cham, 2017: 146-157. Tax, David MJ, and Robert PW Duin. "Support vector data description." Machine learning 54.1 (2004): 45-66. Ruff, Lukas, et al. "Deep one-class classification." International conference on machine learning. PMLR, 2018. Tzeng E ,Hoffman J ,Zhang N , et al. Deep Domain Confusion: Maximizing for Domain Invariance . Computer Science, 2014. Tzeng E ,Hoffman J ,Darrell T , et al. Simultaneous Deep Transfer Across Domains and Tasks . 2015 IEEE International Conference on Computer Vision (ICCV), 2017. Bousmalis K, Trigeorgis G, Silberman N, et al. Domain separation networks . Advances in neural information processing systems, 2016, 29: 343-351. JWang,Lan C ,Liu C , et al. Generalizing to Unseen Domains: A Survey on Domain Generalization .2021.
  • 热度 3
    2022-3-4 11:06
    1019 次阅读|
    0 个评论
    【虹科】如何实现将任何传感器转换成GigE Vision设备
    工程师可以轻松使用先进传感器升级检测系统,同时为未来工业物联网应用做准备。对于使用各类摄像机、传感器和嵌入式平台开发成像系统的机器视觉设计师来说,eBUS Edge是一种软件解决方案,它可以将视觉设备转换为标准化的GigE Vision、GenICam兼容设备,实现联网设备间的互操作性以及第三方处理应用程序的使用。 对于希望保留现有视觉检测流程,同时升级设备的工程师来说,可依靠我们的软件方案,该方案通过将任何CPU设备转换为完全兼容的GigE vision和GenICam兼容设备,简化高级传感器和嵌入式平台的部署。eBUS Edge软件解决方案允许用户避免供应商锁定,同时选择最适合其应用的设备,而无需在新设备或改造上投入大量资金。 通过集成“Multi-Part”功能,来自多个数据源的传感器数据可与相关的元数据(例如传感器信息、GPS数据、时间戳等)一起传输,同时可以传输各种各样的3D数据格式,包括具有扩展块模式的原始有效负载。寻求简化3D检查应用程序部署的工程师可以利用eBUS Edge软件保留现有第三方处理软件,该软件与我们的软件开发包eBUS SDK和广泛的接口产品进行组合,同样可以与现成GigE Vision/GenICam兼容,实现无缝互操作。 在3D应用中,来自左右摄像机的图像、3D深度图、置信度图和块数据集成后以“Multi-Part”负载的形式发送给接收端。eBUS Edge将未压缩的3D数据作为统一时间戳容器的一部分,通过现成以太网电缆使用“Multi-Part”负载,以GigEVision和GenICam兼容的方式传输来自多个传感器的数据是并行传输的,因此可以实现“同步”。并且在网络的另一点,可以通过用于分析和显示的计算机的接收端,将来自全部摄像机和传感器的三维数据进行重建。 此软件解决方案包括集成的GenICam支持,并为用户提供继续控制设备的能力。用户还可以编写代码,然后将其部署在几个不同的操作系统上,使用可移植的C++ API,以及内置的与所有传感器类型兼容的缓冲管理,让开发人员可以为工业物联网和工业4.0应用做准备。 此文转自“ 智能感知解决方案 ”微信公众号
  • 热度 6
    2021-3-11 18:53
    71185 次阅读|
    3 个评论
    实战项目--图像识别--人民币识别
    实战项目旨在交流学习,项目相关资料请在关注 大鸟科创空间 微信公众号后回复项目关键字 ———“人民币识别” 以获取,欢迎在评论区交流意见。 简介:图像识别 --人民币识别 此方式简单的运用颜色空间来识别人民币,适合入门学习,准确度不高,仅能实现简单辨识。 先展示效果: 项目开发环境: Spyder(Python 3.7) 开发语言: Python demo功能: 1:对导入图片里面的人民币利用其色彩分布进行简单识别 2:图片中尽量不要有其他杂物 3:此方式准确度不高,适合入门学习 部分源码截图: 颜色空间适用于机器视觉的多个方面,在计算机上运行源码时候,需注意相关 opencv 库等环境已经安装完成。 至此项目介绍完毕,本项目旨在开源,想要获取源码资料的朋友,关注 大鸟科创空间 微信公众号后,回复项目关键字 ———“人民币识别” ,即可获得源码资料下载链接。 微信扫描下方二维码关注公众号“大鸟科创空间”
相关资源
  • 所需E币: 5
    时间: 2024-3-12 09:33
    大小: 3.02MB
    上传者: htwdb
    伴随着机器人技术和机器视觉技术的研究发展,自动分拣机器人使用机器视觉来定位目标,并使用机器人来进行抓取。随着物流行业和加工产业的发展,自动分拣机器人使用的程度越来越高。自动分拣机器人一般有两种形式,一种是计算机和机器视觉的结合,相机采集目标图片将信息传递至计算机,计算机处理图片获取目标相关的信息,并控制机械臂抓取目标;另一种是相机采集图片并进行处理获取目标信息,通过通信协议将信息发送至控制柜,完成对机械臂的控制。后一种是自动分拣机器人的发展趋势。  基于上述情况,本文设计了一种微型控制器的自动分拣机器人,硬件结构如下:使用TMS320C6748芯片为核心的DSP(数字信号处理)处理器,使用具有VPIF(视频接口端口)接口的相机与DSP开发板硬件相连,使用步进驱动的三轴机械臂来实现对目标的抓取。微处理器中集成了自己设计的图像处理和机械臂控制程序,所设计的微型处理器空间体积小,处理功能比计算机强大,减少了图像处理和控制系统之间的通信环节,减少了控制柜等机械臂控制器硬件,对整体系统的验证满足自动分拣的功能。  本文针对步进控制系统,采用两相混合式步进电机,电机运行分为加速、匀速、减速阶段。对电机要求加减速阶段时间应尽量短,以匀速运动的时间应尽量长。为了避免步进电机的丢步,提出了步进控制函数模型,通过对控制函数的验证,脉冲频率变化率越来越大,满足步进电机初始运动时速度初始值小,加速度小,避免丢步;电机转子适应惯性转动后,电机加速度增大,以尽快完成加速阶段的要求。  本文对三轴机械臂利用SolidWorks三维绘图软件进行建模,对机械臂各连杆建立机器人坐标系,使用D-H参数法获取机械臂相关参数,计算出机械臂运动学正解,求取机械臂末端相对于基坐标系的转换矩阵,并通过特殊位置进行验证;按照几何法求取机械臂逆解,获取关节角度和机械臂末端坐标之间的关系,通过MATLAB进行验证。建立机械臂末端速度和关节速度之间的雅可比矩阵,采用三次多项式对机械臂关节运行轨迹进行平滑。  本文对相机进行标定,使用MATLAB标定工具箱获取相机的内外参数,获取相机主点坐标、焦距、相机坐标系和机器人坐标系转换矩阵等信息。采用最佳阈值法将灰度图片进行二值化,采用Sobel算子进行边缘检测获取目标信息,获取的目标信息与已知控件的信息进行比较,在多控件中进行目标识别。传送带运送为非匀速运动,对传送带运动进行分析,通过目标位置结合传送带运动和机械臂运动获取抓取位置信息。  本文对硬件和软件部分,采用平动机械爪以应对机械爪抓取目标时空间坐标的变化,避免进行坐标误差修正,对图像处理方面将OpenCV函数库调用至CCS工程中,提高图像处理能力,对整体系统进行验证,本文所设计的微型控制器满足自动分拣的功能,减少机器视觉和机械臂控制系统之间的通信环节,取消了机械臂控制柜等硬件。
  • 所需E币: 5
    时间: 2024-3-12 09:31
    大小: 5.42MB
    上传者: htwdb
    近年来,随着人们对食品安全方面的不断关注,食品、饮料包装也越来越重要,罐装产品占食品饮料包装的很大比例。罐盖缺陷会影响罐装食品的质量,传统生产线上对罐盖的质量采用人工检测,其效率非常低下。本文研究了通过机器视觉来检测罐盖缺陷的技术,对提高罐盖缺陷检测的精度和效率、减少罐装食品的安全隐患具有重大价值。  本文首先阐述了基于机器视觉的罐盖缺陷检测技术的研究背景与意义,论述了机器视觉技术的概念,研究了缺陷检测以及罐盖图像缺陷检测的国内外现状。论述了罐盖缺陷检测系统的总体方案,详细介绍了组成系统的视觉成像、运动控制和视觉检测三个模块。  图像预处理技术是后续缺陷检测的基础,本文分别介绍了适用于罐盖图像的增强、去噪、分割、边缘检测等图像预处理技术。罐盖图像定位的精度低、时间长是制约罐盖图像缺陷视觉检测的一大难题,本文研究了几种经典的罐盖图像定位算法并分析对比了它们的优缺点。在此基础上,结合罐盖图像自身的结构特点与灰度分布,提出了一种基于双圆周随机圆拟合的改进hough变换定位算法。实验结果表明本文提出的算法相对于传统定位算法在精度上有极大改善,是一种良好的罐盖图像定位算法。  针对罐盖结构复杂、缺陷种类众多、每个区域里灰度变化较大的难点,提出基于SVM支持向量机的罐盖内表面缺陷检测算法和基于一维投影线处理的罐盖环形区域缺陷检测算法。对于罐盖内表面缺陷检测,运用支持向量机进行缺陷检测。对于罐盖环形区域缺陷检测,首先,将环形区域展开成矩形,接着对矩形区域进行径向投影获得一维投影线,然后对一维投影线进行山峰、山谷检测并计算其梯度,对得到的梯度图搜索零点,根据零点来设定山峰、山谷检测图波形的宽度,落差值,整体数值三个阈值进行缺陷检测。通过实验结果验证了本文提出的罐盖缺陷检测算法具有较高精度。  最后,实现了罐盖缺陷视觉检测系统的软件。选择了软件的开发平台与运行环境,设计了软件的总体功能结构,并对系统的各个模块的具体实现进行了详细说明。
  • 所需E币: 5
    时间: 2024-3-12 09:30
    大小: 4.57MB
    上传者: htwdb
    电子制造业是当前发展最为迅猛的行业之一,随着电子元器件朝着微型化方向发展,质量检测难度大大提高。一方面,传统的人工抽检的方式,效率低,精度差;另一方面,运用机器视觉进行质量检测时,没有适用于多种电子元器件质量检测的统一模型可以遵循。针对电子元器件的形状缺陷,研究机器视觉检测技术,构建电子元器件的形状质量检测模型,实现自动化检测。本文主要研究内容如下:  1)分析用于质量检测的机器视觉应用,针对检测模型适应能力差的问题,以模板对比为主要思路,提出了可以适用于不同电子元器件形状质量检测的模型。  2)研究基于深度学习理论的目标检测方法,提出基于YOLO网络的电子元器件检测识别方法,以YOLO网络结构为基础,简化网络,融合不同粒度特征,增强网络模型对细微特征的表达能力,构建适用于电子元件目标检测识别的网络结构;提出使用标准元件的模板图像为基准,通过几何变换进行数据增强的方法,大大降低了对网络训练对采集数据的需求;  3)根据电子元器件图像的特点,分析常见的图像配准技术,为保证检测精度和稳定性,采用基于傅立叶变换的图像配准方法,并通过在频域内先粗估计,再在其邻域内进行精定位的方法估计变换参数,达到亚像素级配准精度;分析和对比图像分割方法,选用迭代阈值法进行电子元器件提取;通过与标准元件图像对比,分离出待测元件与标准元件之间的差异,计算差异部分面积;最后提出了运用小概率事件原理确定用于判断电子元器件形状质量的缺陷面积阈值;  4)以航天电子连接器中的弹性绞线插针为实验对象,对整个检测过程进行验证,结果表明本文提出的电子元器件质量检测方法可以有效检测出元器件在形状上的质量缺陷,在弹性绞线插针样本集上进行测试,准确率可达97.87%;最后,运用web应用技术进行软件系统实现。
  • 所需E币: 5
    时间: 2024-3-12 09:28
    大小: 27.44MB
    上传者: htwdb
    随着汽车保有量的逐年增加,道路交通安全问题越来越严峻。通过给车辆配置高级驾驶辅助系统或无人驾驶系统来减少交通事故的发生,已经成为未来车辆技术发展的必然趋势。自适应巡航系统、前方碰撞预警系统、自动制动系统等高级驾驶辅助系统和无人驾驶系统都需要对夜间场景的前方车辆状态进行监测。所以本文研究基于机器视觉和毫米波雷达的夜间前方车辆识别技术,具有重要的理论意义和现实意义。  本论文选择毫米波雷达传感器和视觉传感器对夜间车辆目标进行识别。毫米波雷达具有探测距离远和可以在夜间工作的特点,机器视觉可以直接感知物体的颜色信息。使用传感器融合信息对目标进行识别,可提升目标识别率,并且改善识别系统的鲁棒性。本文基于机器视觉和毫米波雷达传感器对夜间车辆识别技术进行了一系列研究,主要工作如下:  (1)研究基于机器视觉的夜间车辆识别与跟踪方法。首先根据尾灯的光晕特征和亮度特征提取尾灯,然后对尾灯配对并根据尾灯对实现车辆识别,最后基于改进的粒子滤波算法对车辆尾灯进行跟踪而实现对车辆的跟踪。  (2)研究基于毫米波雷达对车辆目标初选与跟踪方法。首先删除雷达干扰信号,然后根据距离和车道信息初选出有效车辆目标,最后根据卡尔曼滤波算法对车辆目标进行持续跟踪。  (3)研究基于机器视觉和毫米波雷达的联合识别方法。首先对摄相机进行标定,建立雷达坐标系和图像坐标系之间的转换关系,然后使用目标的雷达和摄像机数据在空间和时间上进行数据融合,最后根据初选车辆目标的雷达信息在图像上建立感兴趣区域,在该区域使用机器视觉的车辆识别算法进行目标验证。  搭建测试系统的硬件框架,使用MicrosoftVisualStudio、MFC和OpenCV软件工具开发测试系统软件。试验结果表明,使用研究的基于机器视觉和毫米波雷达对夜间车辆联合识别的方法,可以有效地对夜间前方车辆进行识别,具有较好的实时性和准确性。
  • 所需E币: 5
    时间: 2024-3-12 08:55
    大小: 1.12MB
    上传者: htwdb
    同步碎石封层车在进行沥青和碎石同步洒布之前需要对道路、桥面表层进行检测,根据表面平整度,路面宽度控制沥青和碎石的喷洒量。目前采用的同步碎石封层技术常出现不能零起步喷洒、石料喷洒不均、沥青计量不准等现象,为提高公路护养、维修质量,急需进行新工艺的改进和应用。为此,我们进行了基于机器视觉的同步碎石封层车控制系统的研究。     在分析、研究国内外同步碎石封层车的基础上,提出了基于机器视觉的同步碎石封层车的优化设计。该方案将机器视觉功能感知技术跟封层车电气、液压控制相结合,根据路面、环境等情况,控制车速、泵速、沥青或石料喷洒量,更好提高喷洒精度、同步度、裹覆强度。  根据基于机器视觉的同步碎石封层车的技术指标,从封层车的控制系统硬件系统、软件系统及检测实验等方面进行研究和设计。各系统在总控板的控制下有序工作:工业摄像机对路面表层进行识别和图像信息的采集,并将其通过以太网传送给工控机处理,然后将结果通过RS-485通讯传输到系统控制板,总控板再根据检测到的温度、车速,调节沥青、石料喷洒量。文中设计了基于机器视觉的测速系统,通过建立速度检测模型、摄像机模型,并对其进行标定和稳像处理,运用光流法推算同步碎石封层车的速度。最后利用摄像头、光源以及计算机系统构建了基于机器视觉的温度测量硬件系统,并设计了测温系统的核心算法,实现了系统自动检测沥青温度的功能。  本同步封层技术实现了根据车速、温度控制沥青和石料的同步撒布,并确保了两者间尽可能大的表面接触,达到了通过日常车辆碾压或压路机碾压形成沥青石料磨耗层的基本要求,成本低,耗能小,防水防滑效果好,具有高耐磨及持久性。特别是机器视觉的引入使该车的研制为同类设备的国产化有了新的突破,同时也是机器视觉在道路识别方面的具体应用,为机器视觉在工控智能控制领域提供了宝贵经验。
  • 所需E币: 5
    时间: 2024-3-1 10:50
    大小: 7.75MB
    上传者: htwdb
       机器视觉技术作为一种基于数字图像处理的技术,在精密检测、特征识别、坐标定位等方面应用广泛,它具有非接触、可重复性,另外稳定性好,智能化高,成本低廉等特点,因而被广泛应用在工业的生产活动中。由于落料件受生产环境,自身材料以及反复搬运等因素的影响,难以保证其质量和良品率。而依靠传统的外形和尺寸检测技术效率低下,成本无法控制,大批量的检测任务重,极易产生疲劳作业。通过将机器视觉技术应用到实际的生产活动中,不但反应速度快,实时性好,而且智能化集成度高,可以很好地解决工业检测中的各种疑难问题。     本研究针对于这种落料件检测面临的问题,着重地研究了落料件的特征检测与识别技术,并根据检测的现实需求,评估并搭建视觉检测平台,从而满足这种落料件的形貌特征检测需求
  • 所需E币: 5
    时间: 2023-4-21 13:56
    大小: 126.26MB
    上传者: angel米兰
    机器人学、机器视觉与控制:MATLAB算法基础》将机器人学与机器视觉知识有机结合,给出了实例算法和程序。
  • 所需E币: 1
    时间: 2023-4-7 11:54
    大小: 45.22MB
    机器视觉教程-(计算机科学丛书)-[美]WesleyE.Snyder&HairongQi
  • 所需E币: 1
    时间: 2023-3-28 20:27
    大小: 1.84MB
    上传者: 指的是在下
    基于机器视觉的施工现场钢结构焊缝坡口识别.pdf
  • 所需E币: 5
    时间: 2023-2-14 09:28
    大小: 1.43MB
    上传者: czd886
    基于机器视觉提高移动机器人装夹精度的应用研究
  • 所需E币: 5
    时间: 2023-2-14 09:39
    大小: 3.61MB
    上传者: czd886
    基于机器视觉的室内移动机器人导航偏转角的确定
  • 所需E币: 5
    时间: 2023-2-14 09:45
    大小: 833.4KB
    上传者: czd886
    室内移动机器人机器视觉定位系统的设计
  • 所需E币: 2
    时间: 2022-10-11 15:23
    大小: 3.17MB
    上传者: czd886
    基于机器视觉技术的加热炉视频监控系统.
  • 所需E币: 0
    时间: 2022-10-6 11:39
    大小: 156.81KB
    上传者: ZHUANG
    基于机器视觉的实时视频监控系统设计
  • 所需E币: 5
    时间: 2022-9-26 22:32
    大小: 846.61KB
    上传者: czd886
    一种机器视觉的安防巡逻机器人系统设计
  • 所需E币: 0
    时间: 2022-9-29 17:25
    大小: 12.59MB
    上传者: nufuvcgx
    了解机器视觉技术
  • 所需E币: 5
    时间: 2022-7-30 10:05
    大小: 858.24KB
    上传者: ZHUANG
    基于主动机器视觉的人脸跟踪与表情识别系统
  • 所需E币: 1
    时间: 2022-7-14 16:03
    大小: 5.21MB
    上传者: czd886
    蛙跳式充电的无人机自主巡线技术与系统(二):基于机器视觉的自动充电控制
  • 所需E币: 1
    时间: 2022-7-14 12:12
    大小: 1.32MB
    上传者: czd886
    机器视觉在无人机智能避障的应用方法研究
  • 所需E币: 0
    时间: 2022-7-13 23:33
    大小: 5.21MB
    上传者: czd886
    蛙跳式充电的无人机自主巡线技术与系统(二):基于机器视觉的自动充电控制