原创 二极管发光原理与LED灯带

2019-3-14 14:11 5594 14 11 分类: 工业电子 文集: 电子电路

二极管就是把一个N型半导体和P型半导体叠放一起,NP型是向半导体中掺入了不同的杂质,由于N型、P型半导体的导电特性,在二极管的电路中电流只能由N极向P极单向导通。

在电路里,二极管作为基础器件的原理就是用于“整流”,将交流电转为直流电(生活中电网上的电都是交流的,所以无论什么电器都必须带个电源模块将交流电转为直流使用),而且实现了单向导通,所谓指哪打哪,有了二极管工程师们才可以发挥他们的聪明才智将电流导向需要的地方实现各种复杂的功能。

发光二极管将P极和N极链接的部分做一些特殊处理,我们可以称之为发光层,当电子从N极进入P极时,电子在发光层产生能阶的降低从而释放出能量,这种能量以光子的形式释放就形成了可见光。

发光二极管的发光亮度与单位时间内通过的电子数量有关,通过的电子数量越多释放的能量就越大从而产生“更亮”的光。但是电子太多,电流太大会“击穿”二极管,一般的工作电流在5mA20mA,电流太小灯不亮,太大就会烧坏。发光二极管的自带电阻很小,在一般使用中我们可以认为其电阻为0,所以直接向二极管两端加电压会导致烧坏。这也就是为啥会在二极管电路中加上一个电阻,阻值一般是300欧姆左右。如果是5V的电压,可算得电流是16mA3V的电压算得的电流是10mA

那么我们现在随便买一个商用的LED灯带,仔细看的话会发现一组灯珠会有3181欧姆的电阻,一条灯带一般有20组灯珠。在结构上,一组灯珠内的LED灯是串联的,但整体结构又是并联的20组灯珠。

计算可得并联电路中单路的电流是24mA(这种商用的5050LED一般电流小于60mA都没问题),总路电流为24mA*20=480mA(并联电路中并联的电阻越多,总电阻越小)。从这个例子中也可以看出为啥家用电器不能太多,家用电路通过插口接入的都是并联电路,接入的电器越多总电阻反而越小,总电流越来越大,最后电流超过电线的承载能力导致短路。

作者: 毛大闲, 来源:面包板社区

链接: https://mbb.eet-china.com/blog/uid-me-3887969.html

版权声明:本文为博主原创,未经本人允许,禁止转载!

文章评论8条评论)

登录后参与讨论

CationLiu 2019-3-28 13:25

易晓: 你个糟老头子坏得很!你就是个初学者,连灯带电路图都不会看的那种,画的什么JB电路图,图中的5050LED是内部有完全三个不相关的LED装在了一个外壳里面,注意看下 ...
认罪,伏诛

法师 2019-3-23 15:28

这个东西不很靠普,上次买个高亮屏,说可以在49.7V-54V,当在52.2V时,用手摸屏就有些烫手。

易晓 2019-3-23 10:21

你个糟老头子坏得很!你就是个初学者,连灯带电路图都不会看的那种,画的什么JB电路图,图中的5050LED是内部有完全三个不相关的LED装在了一个外壳里面,注意看下你下面的电路板,上面都还标着+12V  R  G  B 的字样,这电路本来是用12V电压带动三组RGB电路的,通过控制电路控制三路灯的亮灭,让LED的光不同组合形成7种光的,但在这里,是直接把RGB都弄成了白光LED装在一个RGB灯珠外壳里,所以本质上还是三组分开的电路,因为单纯的三个LED串联接在12V的电源里,会烧坏,所以要在三个串联的LED回路里接一个限流电阻,图中的LED灯串,因为本来就是为RGB灯设计的,因为本来就是三个独立的颜色电路,所以直接改成白光后,也还是三个独立的白光电路,所以实际上,是9个LED和3个电阻的事,一个单独的串联电路是三个LED和一个电阻,但你画的电路是三个LED和三个电阻串联,真JB扯。
你个糟老头子坏得很!

CationLiu 2019-3-22 12:29

xiaozj31: 信你个鬼,糟老头子坏得很。发光管没有压降的吗?
哈哈哈,不要在意细节

xiaozj31 2019-3-19 16:58

信你个鬼,糟老头子坏得很。发光管没有压降的吗?

443955496_148404734 2019-3-15 15:19

学习,谢谢分享

eeNick 2019-3-15 15:07

学习,谢谢分享,关注你

eyesee00 2019-3-15 11:30

灯带这东西有的人做的不咋的
相关推荐阅读
毛大闲 2019-11-04 21:09
【零基础】使用Tensorflow实现神经网络
一、序言  前面已经逐步从单神经元慢慢“爬”到了神经网络并把常见的优化都逐个解析了,再往前走就是一些实际应用问题,所以在开始实际应用之前还得把“框架”翻出来,因为后面要做的工作需要我们将精力集中在业务...
毛大闲 2019-10-29 23:16
【零基础】神经网络优化之Adam
一、序言  Adam是神经网络优化的另一种方法,有点类似上一篇中的“动量梯度下降”,实际上是先提出了RMSprop(类似动量梯度下降的优化算法),而后结合RMSprop和动量梯度下降整出了Adam,所...
毛大闲 2019-10-29 11:25
【零基础】神经网络优化之动量梯度下降
一、序言  动量梯度下降也是一种神经网络的优化方法,我们知道在梯度下降的过程中,虽然损失的整体趋势是越来越接近0,但过程往往是非常曲折的,如下图所示:    特别是在使用mini-...
毛大闲 2019-10-27 23:15
【零基础】神经网络优化之mini-batch
一、前言  回顾一下前面讲过的两种解决过拟合的方法:  1)L0、L1、L2:在向前传播、反向传播后面加个小尾巴  2)dropout:训练时随机“删除”一部分神经元  本篇要介绍的优化方法叫mini...
毛大闲 2019-10-24 15:45
【零基础】神经网络优化之dropout和梯度校验
一、序言  dropout和L1、L2一样是一种解决过拟合的方法,梯度检验则是一种检验“反向传播”计算是否准确的方法,这里合并简单讲述,并在文末提供完整示例代码,代码中还包含了之前L2的示例,全都是在...
毛大闲 2019-10-18 13:01
【零基础】神经网络优化之L1、L2
一、序言  前面的文章中,我们逐步从单神经元、浅层网络到深层网络,并且大概搞懂了“向前传播”和“反向传播”的原理,比较而言深层网络做“手写数字”识别已经游刃有余了,但神经网络还存在很多问题,比如最常见...
广告
我要评论
8
14
广告
关闭 热点推荐上一条 /4 下一条