本文主要分享如何快速上手 ARM 汇编开发的经验、汇编开发中常见的 Bug 以及 Debug 方法、用的 Convolution Dephtwise 算子的汇编实现相对于 C++ 版本的加速效果三方面内容。                  

前言


神经网络模型能够在移动端实现快速推理离不开高性能算子,直接使用 ARM 汇编指令来进行算子开发无疑会大大提高算子的运算性能。初次接触汇编代码可能会觉得其晦涩难懂然后望而却步,但 ARM 汇编开发一旦入门就会觉得语言优美简洁,如果再切换到 ARM INTRISIC 指令开发反而觉得没有直接写汇编码来的方便。我会在第一节分享纯小白如何快速上手 ARM 汇编开发的经验,第二节会列举在汇编开发中常见的 Bug 以及 Debug 方法,第三节会展示常用的 Convolution Dephtwise 算子的汇编实现相对于 C++ 版本的加速效果。如果你已经能很熟练地使用 ARM 汇编指令进行开发了,可以跳过第一节。

从简单函数上手       

学习汇编开发重要的一点是通过学习现有函数的汇编代码来实现自己的需求

我写的第一个汇编算子是 MaxPooling 算子,算子本身的计算过程非常简单。但当我开始实现 MaxPooling 的汇编代码时,我不知道第一行代码怎么写,不知道开头和结尾怎么写,不知道中间的计算逻辑怎么写。当时我就在 MNN 库的 source 文件夹下面找到了一份逻辑简单的、自己非常熟悉的 Relu 算子当做参照来实现 MaxPooling. 之所以我推荐用一个逻辑简单的、自己非常熟悉的算子当做学习汇编的模版,是因为当算子的计算逻辑简单时,我们才能把注意力放在汇编函数的声明、传参、读取数据、存储结果、返回等等这些大的流程上面,至于内部的函数实现(如何计算一行数据的最大值,如何去计算一个寄存器中所有数据的累加和等等)可以暂时不去关注。学习一个新的东西时,我们找的例子模版不能过于复杂,因为这会导致我们将注意力放在例子本身的实现细节中,而忽略了如何去入门,这样会增加我们的学习成本。   

汇编函数的开头与结尾  
函数定义以 asm_function 开头,后加函数名(以 MNNAvgPoolInt8 ARM64 为例):
  1. asm_function MNNAvgPoolInt8
  2. // 加上函数的传参注释,方便后续对照使用对应的寄存器
  3. // void MNNAvgPoolInt8(int8_t* dst, int8_t* src, size_t outputWidth,
  4. // size_t inputWidth, size_t kernelx, size_t kernely, size_t stridesx,
  5. // ssize_t paddingx, ssize_t factor);
  6. // Auto load: x0: dst, x1: src, x2: outputWidth, x3: inputWidth,
  7. // x4: kernelx, x5: kernely, x6: stridesx, x7: paddingx

  8. // Load from sp:
  9. // w8: factor
传参:ARM64 用于传参的寄存器有 8 个:x0-x7. 如果函数的参数大于 8,就需要使用 sp 寄存器读取剩余参数。例如 AvgPoolInt8 算子中的第 9 个参数 factor 读取:
  1. // x8寄存器存储参数factor的值,不是必须使用x8寄存器,用其他寄存器也是可以的。
  2. ldr x8, [sp, #0]
ARM 寄存器使用不当会导致程序 crash。这里总结了 ARM32 和 AMR64 的寄存器基本使用规则。ARM32 中通用寄存器和向量寄存器都有 16 个,每个向量寄存器的最大使用长度是 128 位。ARM32 中用于传参的寄存器有 4 个:r0-r3。ARM32 中 r13 寄存器就是 sp 寄存器,指向栈顶;r14 寄存器也叫 lr 寄存器,存储函数的返回值地址;r15 寄存器也叫 pc 寄存器,存储将要执行的下一条指令的地址。在进行汇编开发时,一般不使用 r13 和 r15 寄存器来存储临时变量。r9 寄存器的使用在各个平台上可能不同,为了防止出错,一般也不用来存储临时变量。当不需要使用 r14 存储返回值地址的信息时,也可以使用其存储临时变量。下图中我总结了 ARM32 中寄存器的基本使用规则,关于各寄存器更加详细的介绍参考 https://developer.arm.com/documentation/den0013/d/Application-Binary-Interfaces/Procedure-Call-Standard。
          图片.png    
ARM64 中通用寄存器和向量寄存器的个数比 ARM32 多一倍,有 32 个。ARM64 中向量寄存器的使用更加灵活,可以 8bit,16bit,32bit,64bit 使用。例如,v0 表示 128 位的向量寄存器,d0,s0,h0 分别表示 v0 的低 64 位,32 位,16 位。注意,d1,s1,h1 表示 v1 寄存器的低 64 位,32 位,16 位,而不是紧接着 v0 的第二个相应位。ARM64 的寄存器使用见下图。
forum.jpg
我们可以用浮点操作指令把向量寄存器中的数当做标量来进行计算,需要注意在 ARMV8 中浮点操作指令不支持对 16bit 的浮点数进行计算,仅支持做 16bit 和 32bit, 64bit 之间的转换。  
  1. fadd Sd, Sn, Sm   // 32bit Single precision
  2. fsub Dd, Dn, Dm  // 64bit Double precision
  3. fcvt Sd, Hn          // half-precision to single-precision
  4. fcvt Dd, Hn          // half-precision to double-precision
  5. fcvt Hd, Sn          // single-precision to half-precision
  6. fcvt Hd, Dn          // double-precision to half-precision
对上图中的 “用完恢复” 寄存器的使用:一些复杂的函数需要的向量寄存器或者通用寄存器可能会非常多,那就需要我们在开头加载这些寄存器,不然会报错 segment fault. 加载方法如下:
  1. // d8-d15表示使用v8-v15这8个寄存器的64位, (2* 64)/8=16,
  2. // 这就是每次sp移位时(#16*i)中16的来源。
  3. stp d14, d15, [sp, #(-16 * 9)]!
  4. stp d12, d13, [sp, #(16 * 1)]
  5. stp d10, d11, [sp, #(16 * 2)]
  6. stp d8,  d9,  [sp, #(16 * 3)]
  7. stp x27, x28, [sp, #(16 * 4)]
  8. stp x25, x26, [sp, #(16 * 5)]
  9. stp x23, x24, [sp, #(16 * 6)]
  10. stp x21, x22, [sp, #(16 * 7)]
  11. stp x19, x20, [sp, #(16 * 8)]
在函数的结尾需要释放这些寄存器:
  1. ldp x19, x20, [sp, #(16 * 8)]
  2. ldp x21, x22, [sp, #(16 * 7)]
  3. ldp x23, x24, [sp, #(16 * 6)]
  4. ldp x25, x26, [sp, #(16 * 5)]
  5. ldp x27, x28, [sp, #(16 * 4)]
  6. ldp d8,  d9,  [sp, #(16 * 3)]
  7. ldp d10, d11, [sp, #(16 * 2)]
  8. ldp d12, d13, [sp, #(16 * 1)]
  9. ldp d14, d15, [sp], #(16 * 9)
  10. ret // 最后需加上ret返回
ARM32 中寄存器的数量只有 ARM64 的一半,自动传参的寄存器仅 r0-r3 这四个寄存器,其他寄存器的加载方式和 ARM64 也不同,我们依然以 MNNAvgPoolInt8 为例,代码的解释和新手闭坑的地方我直接在下面的注释中写明。
  1. // 函数定义
  2. asm_function MNNAvgPoolInt8
  3. // void MNNAvgPoolInt8(int8_t* dst, int8_t* src, size_t outputWidth,
  4. // size_t inputWidth, size_t kernelx, size_t kernely, size_t stridesx,
  5. // ssize_t paddingx, ssize_t factor);
  6. // Auto load: r0: dst, r1: src, r2: outputWidth, r3: inputWidth
  7. // r4: kernelx, r5: kernely, r7: stridesx, r8: paddingx, lr: factor

  8. // 其他寄存器加载, 注意lr寄存器每次必须被push进来(可以不使用),不然会报错segment fault.
  9. push {r4-r8, r10-r11, lr}
  10. // 上一行push了8个寄存器,那么sp指针会向低地址移动(8*4=32)个字节(ARM32每个指针占4个字节),
  11. // 所以第五个参数“kernelx”加载时需要将sp的地址加(#32).
  12. // 虚拟内存中栈是从高地址向低地址扩展的,而函数传参是从右往左传去栈中的,
  13. // 所以后面的参数地址会比前面的高,即相对sp寄存器的地址增加的更多。
  14. ldr r4, [sp, #32] // kernelx
  15. ldr r5, [sp, #36] // kernely
  16. ldr r7, [sp, #40] // stridesx
  17. ldr r8, [sp, #44] // paddingx
  18. ldr lr, [sp, #48] // factor

  19. // 加载向量寄存器一定要放在利用sp寄存器来读取所有函数参数之后,
  20. // 否则不能正常读取函数参数
  21. vpush {q4-q7}
ARM32 结尾对寄存器的释放
  1. // 不需要pop lr寄存器,但是必须pop pc寄存器。
  2. // ARM32结尾不需要写 ret, 这和ARM64不同。
  3. vpop {q4-q7}
  4. pop {r4-r8, r10-r11, pc}
核心功能的实现
写汇编代码之前,我们一定要先实现 C++ 版本的代码,保证 C++ 版本的算子在 ARM 移动端的计算结果是正确的。这样做有两个目的:第一,保证我们对算子的理解是正确并清晰的,否则写汇编算子就是浪费时间;第二,为汇编算子的输出结果提供标准答案,因为同样的 C++ 代码在不同的平台上的计算结果可能会略有不同 (但差异不会很大),我们需要保证汇编版本的算子和 C++ 版本的算子计算结果在 ARM 平台上完全一致。
  • 汇编代码中条件判断和分支跳转
MaxPooling 算子通过遍历局部区域的所有元素,进而找到区域内的最大值。这就涉及到循环指令、地址跳转指令和比较两个向量寄存器中对应元素。关于指令的解释我直接在代码注释中写明。
1. 比较两个向量寄存器中对应元素的大小
  1. /*
  2. smax, smin 比较整型数数据的大小
  3. ARM汇编有符号整数的指令一般以s开头(signed int)
  4. 无符号整数的指令一般以u开头(unsigned int)
  5. 浮点数据的指令一般以f开头(float)
  6. */

  7. // 比较v0和v1寄存器中的16个int8_t数据,
  8. // 并将对应位置上的较大值存储在v2的相应位置上
  9. // b 表示以8位来读取数据,相应的汇编中 h:16位, s:32位, d:64位
  10. smax v2.16b, v0.16b, v1.16b
  11. smin v10.4s, v11.4s, v12.4s //比较v11和v12的4个int32_t数据的大小
2. 循环执行某一段代码
如果需要在 ARM 汇编中循环执行一段代码,那我们需要自定义一个符号来标记这一段代码。以 MaxPooling 算子为例,假设每一个像素点含有 16 个 Channel,我们需要得到被 kernel 覆盖到的 9 个像素点上对应 Channel 的最大值,即重复执行比较指令 9 次。例如用 Loop 来标记我们需要循环的代码段:
  1. 1. mov w7, #-0x80 // 给通用寄存器赋值-128,即int8_t类型的最小值
  2. 2. dup v0.16b, w7 // 初始化v0, v0中存储了16个-128
  3. 3. mov x10, #9    // 计数
  4. // 循环
  5. Loop:
  6. 3. ld1 {v1.16b}, [x0] // 从地址x0中加载16个int8的数据到v1寄存器,与v0做比较
  7. 4. smax v0.16b, v0.16b, v1.16b // 用v0记录最终的比较结果
  8. 5. add x0, x0, #1      // 移动像素点的地址,这里我们假设9个像素点是连续的
  9. 6. sub x10, x10, #1    // 比较完一个像素点的16个Channel大小后,计数减1
  10. 7. cmp x10, #0         // cmp是compare的缩写:比较x10和0的大小
  11. 8. bgt Loop            // bgt是branch greater than的缩写,满足条件就跳到分支Loop执行
  12. // 循环执行结束
  13. 9. st1 {v0}, [x1]       // 存储寄存器v0中的16个int8_t数据到地址x1中

  14. // ARM 汇编代码是按照从上到下的顺序来执行的,
  15. // 所以跳出Loop不需要额外的指令来表示结束该分支
  16. // 当不满足x10>0时,会直接执行第9行代码


如何查找需要的指令

灵活地运用各种汇编指令往往能提高算子性能。
  • 利用现成的汇编代码查找指令
当我们阅读一些汇编代码时,根据汇编指令去查询其功能是非常容易的,甚至根据指令名我们可以猜测出他的功能。但是当我们第一次写汇编代码时,想知道实现某个功能可以使用哪些指令往往很难。此时最关键的一点,需要我们思考哪个函数中会用到我将要实现的功能,然后去参考他的汇编实现过程。比如写 Pooling 算子的汇编代码时不知道如何去进行循环代码段的编写,我们就可以参考矩阵乘算子的汇编代码去学习分支跳转,寄存器的比较等指令。当我们不知道如何用汇编指令去实现浮点数转整数的四舍五入时,MNN 中现成的 Float2Int8 函数一定会有相应的指令实现这个功能。当我们编写了越来越多的汇编代码,会接触到更多的汇编指令,解决问题的思路和视野也更开阔。      
  • 利用关键词在 ARM 官网查找指令
ARM 官网列举了所有汇编指令的用法,其中 ARM64 的指令手册比 ARM32 更易查找和理解。一般 ARM64 的指令在 ARM32 系统都能找到对应的等效指令。偶尔我们也需要 ARM Intrisic 指令来完成一些简单函数的开发,Intrisic 指令可以参考 https://gcc.gnu.org/onlinedocs/gcc-4.6.4/gcc/ARM-NEON-Intrinsics.html?spm=ata.21736010.0.0.68f48710o8Vsk6。利用好功能的关键词能提高查找指令的速度。例如某次编程中我需要查找哪些指令能实现 “int8+int16->int16"的功能,显然关键词是"add". 官网中会列举适用于各种场景的向量加法指令,很快就可以定位到"saddw v0.8h, v1.8h, v2.8b" 指令。  
ARM 官网地址:https://developer.arm.com/documentation/dui0801/h/A64-SIMD-Vector-Instructions/?spm=ata.21736010.0.0.68f48710o8Vsk6         
     
ARM 汇编 Debug 方法和常见错误列举

利用好 “打印 printf”  
汇编代码的调试一直是个难题,不能像 C++ 代码那样一步步 Debug 查看变量的值,只能通过在函数调用的外层加打印的方式来查看汇编代码的执行结果。不过只要我们能利用好打印,汇编代码的 BUG 排查就能简单不少!具体来说,如果我们需要查看某个中间变量的值,我们可以在代码内部用返回值地址来存储该值,从而我们可以在汇编代码的外部打印该地址存储的内容,这样间接地检查代码执行的逻辑是否符合预期。

函数传参错误
函数传参错误非常容易被忽视,因为这个错误很少会直接报错 "segment fault",而是发现汇编算子的结果和 C++ 版本不一致时,经过一步步排查才发现传参就出现了错误。毕竟我们发现结果错误时,更习惯于去检查汇编代码中最复杂的逻辑,不太会想到代码开头的函数传参就已经错了。目前为止,我遇到过的传参错误就只有以下两种:  
1、除了整型以外的数据传参应该用指针传入,而不是直接传入参数值。浮点参数传递方式与编译器及参数配置相关,可能不同平台下传递方式不一样。如果直接浮点数值传参,带来的结果有可能是:浮点参数后面的参数数值都是前一个参数的数据,也就是发生了传参的偏移,导致计算结果对不上;如果恰巧你需要从某个参数中 load 数据,该参数的值受到了浮点参数错误传递的影响,那有可能会报 segment fault 的错误。     
  1. // 正确传参,用指针传递浮点常数para0
  2. void func(float* para0, float* dst)

  3. // 错误传参,直接传入常数para0
  4. void func(float para0, float* dst)
2、传参寄存器使用错误
ARM64 自动传参的寄存器有 8 个:x0-x7,ARM32 自动传参的寄存器有 4 个: r0-r3。如果参数个数大于 8(4),就需要从 sp 寄存器的相对位置来 load 参数。
      
  1. asm_function MNNAvgPoolInt8
  2. // 加上函数的传参注释,方便后续对照使用对应的寄存器
  3. // void MNNAvgPoolInt8(int8_t* dst, int8_t* src, size_t outputWidth,
  4. // size_t inputWidth, size_t kernelx, size_t kernely, size_t stridesx,
  5. // ssize_t paddingx, ssize_t factor);
  6. // Auto load: x0: dst, x1: src, x2: outputWidth, x3: inputWidth,
  7. // x4: kernelx, x5: kernely, x6: stridesx, x7: paddingx

  8. // Load from sp:
  9. // w8: factor
3、整型参数建议使用 ssize_t 和 size_t 传参
定义一个函数:void func (int8_t* dst, int8_t* src, float* params0, float* params1, int width, int height, int kernelx, int kernely, int needBroadcast)
按照前面的介绍,第 9 个参数 needBroadcast 应该由 sp 寄存器来加载,如:ldr x8, [sp, #0],如果我们需要比较 needBroadcast 和 0 的大小,写成:cmp x8, #0,无论 x8 是否为 0,代码的判断结果都会是 false. 除非将判断语句写成:cmp w8, #0. 出现这种问题的原因在于,ssize_t 和 size_t 这两种类型,ARM64 和 ARM32 会将其分别看做是 64 位和 32 位的数据,而对于 int 类型的数据,ARM64 和 ARM32 上都会是 32 位的数据,而 ARM64 的通用寄存器以 x 来使用是 64 位的(即 x1,x2...),以 w 来使用才是 32 位的(即 w1,w2...)。所以要比较 x8 与 0 的大小关系,应是:cmp,w8,#0.
对于上述问题的更好的解决办法是,函数声明时将 needBroadcast 参数的类型定义成 ssize_t,因为该参数的取值可能是 - 1,1,0, 我们将其定义成有符号类型。在汇编代码中再次使用 cmp x8, #0 来比较结果就是正确的了,当然此时我们还是用 w8 和 0 比较的话,结果也是正确的。

ARM32 向量寄存器和参数加载的顺序问题
在汇编开发中我遇到过这样的问题,定义一个函数如下:      
  1. // void MNNAvgPoolInt8(int8_t* dst, int8_t* src, size_t outputWidth,
  2. // size_t inputWidth, size_t kernelx, size_t kernely, size_t stridesx,
  3. // ssize_t paddingx, ssize_t factor);
  4. asm_function MNNAvgPoolInt8
  5. // Auto load: r0: dst, r1: src, r2: outputWidth, r3: inputWidth
  6. // Load from sp: r4: kernelx, r5: kernely, r7: stridesx, r8: paddingx, lr: factor
  7. 2. push {r4-r8, r10-r11, lr}
  8. 3. vpush {q4-q6}

  9. 4. ldr r4, [sp, #32]
  10. 5. ldr r5, [sp, #36]
  11. 6. ldr r7, [sp, #40]
  12. 7. ldr r8, [sp, #44]
  13. 8. ldr lr, [sp, #48]       // lr: factor
这样可能不会出现报错 segment fault,但是参数的加载结果是错的。原因在于第 3 行 vpush 应该在通过 sp 加载完所有的函数参数之后,而不是在此之前。因为 push 了 8 个通用寄存器入栈之后,再 push 向量寄存器入栈,那么函数参数相对于 sp 寄存的位置就不再是 (8x4=32). 相对位置的偏移发生了变化。第 3 行的代码应该在第 8 行后面。      

ARM64 通用寄存器的使用问题
在 ARM64 中给通用寄存器赋整型数值
  1. // 通用寄存器的赋值只能用32位来使用寄存器
  2. mov w10, #0 // right
  3. mov x10, #0 // error
  4. // 后续计算中要使用x10来进行加减乘的计算,需要将w10扩展成x10:
  5. uxtw x10, w10 // w10中32位数据在x10的低32位中保持不变,x10的高32位填充为0.
  sub, add 等指令只能对整型数据操作,浮点类型数据需要使用 fsub, fadd 等
  1. fmov v1.4s, #1.0
  2. fmov v2.4s, #0.2
  3. fsub v1.4s, v1.4s, v2.4s

四舍五入的问题
ARM32 和 ARM64 中浮点数取整的方式不一样。ARM32 中浮点数转换成整数的指令(vcvt.s32.f32)是向负无穷取整的,在 ARM32 中没有四舍五入的取整指令。需要在 ARM32 中实现四舍五入,可以这样做:
  1. //对寄存器q3中的4个浮点数据做四舍五入取整
  2. // q3: -1.4, 4.5, 1.1, -2.7 -> q3: -1, 4, 1, -3
  3. vmov.f32 q1, #0.5
  4. vmov.f32 q2, #-0.5
  5. vcgt.f32 q12, q3, #0
  6. vbsl.f32 q12, q1, q2  // bitwise select.
  7. vadd.f32 q13, q12, q3
  8. vcvt.s32.f32 q3, q13
ARM64 提供的取整指令更加灵活方便,有:  
  1. // q10:  -1.4, 4.5, 1.1, -2.7
  2. fcvtas q1, q10 // q1: -1, 5, 1, -3 就近取整
  3. fcvtzs q2, q10 // q2: -1, 4, 1, -2 向0取整
  4. fcvtms q3, q10 // q3: -2, 4, 1, -3 向负无穷取整
  5. fcvtps q4, q10 // q4: -1, 5, 2, -3 向正无穷取整
  6. fcvtns q4, q10 // q4: -2, 4, 2, -2 向最近的偶数取整

整型数据和浮点数据进行数学运算的问题
整型数据与浮点数据进行相加或相乘等数学运算之前,一定要先将整型数据转换成浮点数据再进行数学运算,否则计算结果会出错。该过程经常出现在 Int8 量化算子的开发中,往往是量化算子很难消除的计算负担。用 Binary multiply 的 Int8 量化算子举例说明该过程:
  1. // Int8 量化的乘法算子,输入和输出均是Int8类型,但考虑到int8xint8会可能会导致越界,
  2. // 在量化算子的实现过程中会将两个输入数据分别转换成Float32数据之后相乘,
  3. // 再将Float32的结果量化到Int8类型.
  4. sxtl v0.8h, v0.8b // int8x8_t -> int16x8_t
  5. sxtl v1.8h, v1.8b // int8x8_t -> int16x8_t

  6. sxtl v2.4s, v0.4h  // v0的低64位数据:int16x4_t -> int32x4_t
  7. sxtl2 v3.4s, v0.8h // v0的高64位数据:int16x4_t -> int32x4_t
  8. sxtl v4.4s, v1.4h
  9. sxtl2 v5.4s, v1.8h

  10. scvtf v2.4s, v2.4s // int32x4_t -> float32x4_t
  11. scvtf v3.4s, v3.4s
  12. scvtf v4.4s, v4.4s
  13. scvtf v5.4s, v5.4s

  14. fmul v2.4s, v2.4s, v6.4s // v6.4s: float32x4_t 量化scale参数
  15. fmul v3.4s, v3.4s, v6.4s
  16. fmul v4.4s, v4.4s, v6.4s
  17. fmul v5.4s, v5.4s, v6.4s
  18. ...
此处有同学可能会质疑这么麻烦还有必要开发 Int8 量化的乘法算子吗?具体原因可以参考之前关于开发 Pooling 量化算子的 ATA 文章,开头有说明原因。      

Segment fault 出现的可能原因总结
在这里总结目前我遇到过的程序 crash 情况,后续也会在此添加更多的 bug。  
  • 数据加载、存储时,地址寄存器使用错误
  • 函数参数加载地址时是否使用了错误的寄存器;
  • 写代码过程中,是否给存储地址的寄存器赋值了,导致寄存器的内容改变;
  • 循环加载、存储数据时,原地址累加是否导致了越界;

  • 寄存器开头和结尾是否相应地 push\pop (stp\ldp)
  • 通用寄存器的加减出错,大多由于赋值错误或函数加载错误而间接导致
  • 通用寄存器的内容是否符合预期,可使用 Printf 的办法验证
  • ARM64 和 ARM32 中用于自动加载函数参数的寄存器个数分别是 8 个、4 个
  • ARM64 中通用寄存器赋值只能用 32 位,即 w0,w1... 根据需要决定是否使用 uxtw 扩展到相应的 x0,x1...

  • 函数参数类型声明错误,导致加载错误
  • 非整型函数参数一律用指针传递
  • 整型常数参数尽量使用 ssize_t, size_t

  • 是否设置了循环退出条件,比如用于计数寄存器是否每次减 1,循环退出条件是否能满足
  • 有一些寄存器是否忘记 push 就直接使用了,参考 1.1 节中的图查询哪些寄存器需要用完恢复
  
ARM 汇编的加速效果       
拿 ConvolutionDepthwise 的 Int8 量化算子举例说明,C++ 版本的算子实现和 ARM 汇编版本的性能差距。测试模型中含有超过 20 个 ConvolutionDepthwise 算子。测试机我选择了高端机华为 Mate40 Pro 和中端机华为 P30 Pro,并使用 ARM V8.2 平台的相关指令编写汇编算子。测试结果中显示的时间是该模型中所有 ConvolutionDepthwise 算子的耗时总和,显然在 ARM V8.2 64 位平台上,汇编算子的性能提高了约 4.7 倍。   

[backcolor=rgba(3, 11, 53, 0.03)]C++ 版本[backcolor=rgba(3, 11, 53, 0.03)]ARM V8.2 汇编
华为 Mate40 Pro11.28 ms1.98 ms
华为 P30 Pro12.83 ms2.22 ms

团队介绍
大淘宝技术 Meta Team,负责面向消费场景的 3D/XR 基础技术建设和创新应用探索,通过技术和应用创新找到以手机及 XR 新设备为载体的消费购物 3D/XR 新体验。团队在端智能、商品三维重建、3D 引擎、XR 引擎等方面有深厚的技术积累。先后发布端侧推理引擎 MNN,端侧实时视觉算法库 PixelAI,商品三维重建工具 Object Drawer 等技术。团队在 OSDI、MLSys、CVPR、ICCV、NeurIPS、TPAMI 等顶级学术会议和期刊上发表多篇论文。  

本篇内容作者:酒七
本文分享自微信公众号 - 大淘宝技术(AlibabaMTT)。