tag 标签: 物理层

相关帖子
相关博文
  • 热度 6
    2022-10-10 18:19
    1212 次阅读|
    0 个评论
    背景 100BASE-T1方兴未艾,国内外OEM量产车型纷至沓来;为了满足高带宽的应用场景需求(如图像、雷达等数据传输),1000BASE-T1将至已至,如大众MEB平台采用1000BASE-T1总线作为主干网,用于满足域控制器之间的通信,以及实现如ICAS3域控制器与HUD、Display、Cluster之间的图像数据传输。 物理层作为保证通信畅通的最基本条件,对其测试验证既“基础”又“关键”,尤其通信速率的提高对物理链路更为敏感。鉴于此,北汇信息嘉定实验中心联合多个合作伙伴&行业伙伴提前开展了相关的测试研究工作,探寻其中的“奥妙”。 100BASE-T1和1000BASE-T1对比 图1 100BASE-T1和1000BASE-T1对比图 1000BASE-T1-设备环境组成 图2 北汇自有车载以太网测试系统 图3 被测的两个千兆节点的连接实物特写 CANoe+VN接口卡+ VT板卡+程控电源 CANoe+VN接口卡的作用:DUT测试相关的状态设置和读取 VT板卡的作用:DUT供电控制及提供唤醒/使能信号 程控电源的作用:DUT供电 示波器(RTO2024)+信号发生器+测试软件R&S ScopeSuite 作用: Maximum Output Droop、Transmitter Timing Jitter in Master Mode and Slave Mode、Transmitter Timing MDI Jitter and Clock Frequency、PSD and Power Level and Output Voltage、Transmitter Distortion测试 网络分析仪+测试软件R&S ScopeSuite 作用:MDI Return Loss、MDI Mode Conversion Loss测试 测试夹具 型号:RT-ZF2、RT-ZF7A、RT-ZF8,实物见下图4 作用:接口转换、环境配置 图4 测试夹具 1000BASE-T1- 测试对象简介 PHY:BROADCOM BCM89883和MARVELL 88Q2112 图5 被测样件 1000BASE-T1- 测试结果概述 测试结果示意图: 图6 两种线束的MDI Return Loss对比 图7 两种线束的Transmitter Distortion对比 图8 两种电源的Transmitter Distortion对比 图9 两种电源的Transmitter Timing MDI Jitter对比 图10 两种PHY的MDI Return Loss对比 图11 100BASE-T1和1000BASE-T1 PMA测试内容对比图 测试用例上,1000BASE-T1取消了EMC相关测试要求,即MDI Common Mode Emission;在测试方法以及测试设备上,1000BASE-T1对测试环境和测试夹具的性能也提出了更高的要求。 MDI Return Loss等测试项主要是验证在MDI接口处因阻抗不连续造成的信号反射是否符合标准要求,所以测试夹具和被测样件之间的“链路”的品质对测试结果的影响很大,此次测试特别对比了不同线束对测试结果的影响,测得数据也佐证了这点;同时,电源的某些特性同样会对测试结果带来直接的影响。 总结与感谢 当前的测试规范正处于迭代和完善的过程中,定会有一些“坑”和“死角”,需要“趟”。如对于部分测试项,必须选择合适的测试模式,但测试规范中并没有明确约束该条件,从而导致出现误测的情况。且测试规范仅是提供理论上的指导,对测试环境也没有明确说明,但实践证明测试环境对测试结果有直接影响。这对于测试人员而言是挑战和机遇并存,纸上得来终觉浅,需要在实践中发现并分析问题,追根溯源,积累实战经验。 参考文献 【1】IEEE Standard for Ethernet:Amendment 1: Physical Layer Specifications and Management Parameters for 100 Mb/s Operation over a Single Balanced Twisted Pair Cable(100BASE-T1) 【2】IEEE Standard for Ethernet:Amendment 4: Physical Layer Specifications and Management Parameters for 1 Gb/s Operation over a Single Twisted-Pair Copper Cable 【3】OPEN Alliance Automotive Ethernet ECU Test Specification(TC8 ECU Test) 【4】Datasheet:BCM89883 Single-Port Automotive Ethernet Transceiver 【5】Datasheet:88Q2110/88Q2112 Automotive 100/1000BASE-T1 Transceiver 【6】2019年罗德与施瓦茨汽车测试技术研讨会:车载以太网技术及其一致性测试方案
  • 热度 28
    2013-9-13 16:11
    1664 次阅读|
    5 个评论
    曾经三年前,完成GSM/GPRS的物理层系统调试后,简短写过一篇博文。其中,关于物理层调试总结了三点:   1.时间的同步:下行同步是基础,上行同步,比特同步,帧同步到复帧同步时隙同步,睡眠的长时间同步,不同小区的时间同步等;   2.频率的同步:接收频率同步,发射频率同步,多普勒频移,温度的漂移等;   3.功率的调整:调整的步长,调整的速度,动态范围等。   到如今,在LTE的系统调试上又破费了一些功夫。细想想,物理层调试基本上还是这样三点。不过,我们需要一些系统的方法去对这三点存在的问题进行分析定位。   与信号发生器的调试。用信号发生器,例如安捷伦的,产生你所需要的系统的信号,周而复始,然后通过射频电缆跟目标板连接。这样调试,能基本调试通过下行链路的各个环节的算法正确,各个环节的通信正确,调度也是正确的。当然,这个环节,还可以确认每个算法在目标板上实际运行所需要的运算量以及占用的内存空间大小等等指标。 与信号分析仪的调试。跟上一个环节类似,但是是针对上行链路的调试。目标板周而复始生成指定参数的信号波形,信号分析仪接收并进行基本同步和解调的分析,确定信号的带宽和符号级的处理是否正确。及时这个步骤正确地看到星座图,并不能说明上行链路完全正确了。因为比特级的crc验证其实还未做。 与协议分析仪的调试。这个环节不仅仅是综合了上述两个环节,更多的是他对整个协议栈的流程也进行了初步验证。他可以让目标板跟协议分析仪连续工作就如同目标板连接进入了实际的网络一样。但他还是很有局限性。就如最前面所说的三点,时间,频率和功率,协议分析仪的冗余度都很大。所以,你的目标代码在这些地方的处理不合适的话,协议分析仪可能还是可以正常的工作的。于是,你可以看到很好的流程跑起来的结果,但并不证明你的代码可以用了。 于是可以开始进行现场调试了。这里,就是真正地通过无线的空间跟实际基站调试的过程了,在上述的几个跟仪器都已经调试等很好的条件下之后。困难出来了,mib可能收不到了,sib可能收不全了,prach可能上不去了,rar可能没反应了,哈~~~ 一步步都调过来了,ping还是不通…问题咋就这么多呢? 好吧,同学们,这才是真正调试工作开始了。祝贺你,晋级成功,开始第二关了。 mib收不到是吧,那么还是可以用示波器,加在目标板的ADC的A端。看看当你目标代码开始进行扫频,调整AGC,开始计算mib的这个过程中,A端都是什么信号。忽大忽小,还是很大溢出,还是太小啥也没有?啥也没有,拜托检查一下频点是否设置对了。基站在2.6G,你在2.5G上使劲,那是没用的。忽大忽小,就是不合适,拜托检查AGC的调整过程,是否调整对了。接收的功率计算是否计算对了。功率大了,gain就往小了调,反之亦然,但是也别调过了。调过了,就振荡了,不是吗?信号大小合适了,那么根据你找到的主同步信号和辅同步信号,你需要进行接收时间窗的调试哟。别算错了,一定要让mib的信号能够按照你计算的时间点进入到你的接收窗口。如果没进来,这里可以dump出mib的数据波形来看看。一切都就绪了,那肯定能收到了。如果还收不到,那就没道理了,自己再想辙吧,就这些地方可能有问题。否则就是更加弱智的错误了。 sib的接收稍微讲究一点点。因为sib有调度周期。这些都是协议上规定好的内容。好好读协议,好好按照协议来实现就好了。理解的偏差就可能导致错误。且先收sib1,再收其他sib。协议这样规定,自有他的道理,你要不遵循规则,你调试起来就会比别人费劲一点点。为什么?其实都是血的教训。Sib1里告诉你基站的上下行配置,告诉你其他sib的调度周期,Sib1的调度是固定的帧号和子帧号。这就是答案了。 prach上不去吗?当然,前面sib都接受完全了,下行基本放心了。Prach是第一个上行,于是遇到问题太正常不过了。如果prach的波形数据本身,你通过算法验证阶段已经验证好了,通过信号分析仪阶段也已经对过星座图了,那么说明数据本身问题不大了。还是说加示波器看看吧。加在目标板的DAC的A端。眼睛瞪大大的,用两个探头同时抓取接收的信号和发射的信号来看哟!这样可以看到的信息比较多。首先prach的波形,是否直接跟你用matlab画出来看到的类似呢?要完全不像,那就奇怪了。你在目标板上跑程序是,程序发出的数据波形是matlab画的那段吗,地址是否搞错了?长得像的话,那就没问题了。幅度是不是太小了。这个是有可能的,数据本身幅度如果太小,要考虑基站收到时功率会太小而检测不到。幅度也合适,那么在基带数字域这个环节,还需要重点对比的就是接收的同步点和发射的同步点是否能对上了。如果同步点不对,那么prach会落到基站搜索窗的外面,基站是无法找到prach信号的。这个地方,查看波形,需要放大到很大,精确到us的级别。按照协议的规定来分析,发射的标准起点应该比接收的标准起点提前20us,那你看到的波形一定得是提前的,不能延后,哪怕1us,基站可能都收不到。看看,这些内容,最前面的三台仪器都是可以包容你的错误的,但是商用的基站是不会的。基站要考虑的是所有用户,大家都得按照协议来走,否则基站也没法工作了不是。 上行能通一个步骤,其他的步骤相对来说就好调多了。但你必须关注,功率,时间和频率这三个环节。不要一次调得太猛,调过了;也不要出现调整的很异常的值,例如时间只能往前调,不可能往后调,往后调就跟接收时隙混了,如果出现往后调,必定是程序出问题了。多看看数据和波形,后续的调试还有很多内容,整个系统能稳定可是不简单的事情。 今天先写到这里吧,后续内容待定……        
  • 热度 29
    2013-7-24 15:14
    1613 次阅读|
    2 个评论
    好吧,今天貌似有了写作的心情,就逐步开始总结一些内容,或许对以后的生活有点帮助,或许留给以后一些更多清晰的记忆。   物理层调试系列一,什么主题呢?------学会看波形   在开发物理层软件之初,很重要的一点,能在整个软件运行过程中,把最原始的数据波形,或者中间运算的某段波形倒腾出来,直观的看到。当然能实时看到,所有你想看到的波形是最佳。但是由于系统资源受限,一般实时倒腾所有你想看的波形出来是不太可能实现的。那好吧,就倒腾一小段,即使倒腾完了整个系统崩溃,也是值得的。这是一种手段,必须埋在程序中,否则很多问题就无从分析了。   当然倒腾出来不会看,那就比较糟糕了。   处于什么阶段的波形,应该怎么看,作为物理层软件开发者来说,是最基本的技能。例如,射频接口进来的基带的信号,OFDM的不是,带宽多少,做个fft一看就一目了然。原始的星座图应该是啥样的,如果一个大饼就不对了,如果是个圈,且比较细的圈,当然就更好了。做完均衡以后的,肯定得是星座图了。什么调制方式就应该对应什么样的星座图。这些都得会看,如果不够理想,心里也得有个预期。差到什么样,解码是可以解出来的。但是如果就是电缆连着仪器,功率不是很低的情况下,星座图应该是什么样的好的程度,心里也得有个预期。如果达不到这个预期,就说明程序出问题了,这根本不是星座图,或者这时候采的数据噪声太大,增益调整出问题了,还是根本频点或者时间点调整出问题了。   比较直观的看波形,还可以就用示波器挂在ADDA的A端上看。这个是我个人特别钟爱的调试方式。因为这样看波形,不会影响整个程序的运行。且能观察到整个接收波形的幅度,通过这个能确定AGC是否调整得正确,也能看到整个波形是否有较明显的频偏,即确定AFC是否调整得正确。当然对整个LTE基站下行信号本身在有无数据信号,结合RS信号的位置等等信息,是完全能通过示波器看出整个接收时间窗是否正确的,是时间同步的跟踪是否正确。如果把上下行的信号分别挂在一个示波器的管脚上,还可以分析收发相对的时间同步是否正确,发送数据的幅度与接收数据幅度能对比等等。一个小小的示波器,使用好了,能带来的信息量超级大,能帮助会使用者快速定位一系列问题。   物理层软件调试很重要的一点,对整个物理层链路时序关系的把握,而调试过程合理应用工具,结合对时序关系的理解,能起到事半功倍的效果哟~  
  • 热度 35
    2013-4-24 14:11
    2131 次阅读|
    12 个评论
    2011-12-27 记录 曾经有个同学在MSN上问我,为什么协议栈软件总是跑在ARM上,为什么物理层软件跑在DSP上呢? 呵呵,好像从咱们开始做终端软件那天起,就是这样子设计的。为什么呢? 我简单的回答了一下:因为软件的结构不同。 协议栈软件基本上都是基于状态机的,有很多层次结构,需要很多个不同优先级的task来运行。他的总体结构是需要一个RTOS来做调度的多个task可以通信,互相抢占式的。 物理层软件基本上是算法流程的,没有那么多的层次结构。重在算法本身的并行处理上面。DSP内核也是基于这些算法的特征来设计的。于是对于中断的响应上面往往比较差,甚至现在的vector engine的DSP就不响应中断。 于是,不同的芯片内核应不同的应用场景而生。而不同的软件结构就运行在了不同的芯片内核上而已。如此配合才可以做到系统的最优。 这位执着的同学继续问:那么协议栈能否直接跑在DSP上,这样不是节省一颗ARM吗? 这个问题问得蛮好的。 那么咱们得看这整个系统的需求了。不同的系统需求是完全不一样的。协议栈有多少层次,有多少模块,多少状态要处理,整个软件结构会怎么划分,会有多大的代码量,需要多少运算量,会有怎样的抢占关系,实时性的要求是怎样的。 这是一个系统设计的问题,不能单纯的用一种通用的想法来约束系统设计。如果只是一个简单的协议。例如就是基于物理层做了一层协议,那么直接就做在一起,用一颗DSP就处理了有何尝不可。记得十年前刚刚工作的时候,我就设计了一个协议,用于SCDMA的基站与基站之间的一种透明的点到点的通信的协议,也就是直接跟声码器等软件跑在一颗DSP上。 而如果要谈到复杂的协议栈,如GSM/GPRS这样的,你一定要弄到一颗DSP上去做,那就是自讨苦吃了。当然如果是如C64X这么强悍的DSP,另当别论了。GSM、GPRS这样的协议栈,主要是逻辑关系太过于复杂,模块多,层次多。这样的软件跟物理层软件混在一起,会严重影响其实时性。而且代码量大,要放在带cache的系统上运行才是合适的。cache适合这种数据间有一定相关性,又不是剧烈相关的应用场景。如果剧烈相关,那么用sratch的memory可能更合适一点。 而如LTE这样的协议栈又是另外的话题了。首先数据面和控制面的需求就完全不同,最好时分在不同的core上。 细说起来,花很长。总之是需要根据具体的系统需求来做方案的,要考虑到关键点的细节,就好选择了。  
  • 热度 27
    2011-9-21 17:40
    6455 次阅读|
    0 个评论
    背板以太网标准 802.3ap标准定义了背板应用的物理层。这些规范包括1Gbps的1000Base-KX,10Gbps使用4条3.125Gbps链路的10Gbase-KX4和10Gbps单条链路的10GBase-KR。因为大多数设备商都已经广泛使用1Gbps和3.125Gbps的背板方案。10GBase-KR是最令人感兴趣的新产品背板标准。该协议还定义它的自协商特性,它允许10GBase-KR芯片间进行通信,甚至它能和1000Base-KX芯片通信。为了减小开销,10GBase-KR串行链路使用64/66编码,所以它的总数据率是10.3125Gbps。和其他以太网链路一样,背板的物理层也要提供10e-12或更好的误码率性能。为了达到该性能要求,标准定义了一个可选的FEC(前向纠错),它可以提升高噪声环境下的性能。 IEEE802.3ba将背板扩展到40Gbps以及100Gbps.在它们之中,单条lane的速率都是10Gbps,通过多条链路达到需要得速率。例如,40Gbps或者40Gbase-KR4使用4条工作在10.3125Gbps的链路。   高能效以太网标准   针对10Gbase-T以及更低速率的非屏蔽双绞线物理层,IEEE802.3az可以用来进一步降低它们的功耗,它可以在低使用率的情形下降低链路速度。2010年第3季度,IEEE批准了该标准,它被叫做Energy Efficient Ethernet。EEE通过通知PHY在没有流量时关闭一些模块可以降低平均功耗50%。 EEE使用新的idle字符和MAC特殊字符。没有流量时,MAC通过新的idle符号通知PHY进入低功耗状态。链路保持一个刷新信号保证链路保持畅通同时让PHY在有流量时立刻恢复。另一个MAC发给PHY的符号可以让PHY恢复到最高速率。需要注意的是,EEE需要在链路两端都使用新的PHY芯片和MAC芯片。  
相关资源