718c41634f
1.项目后端整体迁移至PaddleOCR-NCNN算法,已通过基本的兼容性测试 2.工程改为使用CMake组织,后续为了更好地兼容第三方库,不再提供QMake工程 3.重整权利声明文件,重整代码工程,确保最小化侵权风险 Log: 切换后端至PaddleOCR-NCNN,切换工程为CMake Change-Id: I4d5d2c5d37505a4a24b389b1a4c5d12f17bfa38c
47 lines
3.2 KiB
Markdown
47 lines
3.2 KiB
Markdown
### blob内存是隐含共享的
|
||
|
||
ncnn的blob最初直接使用opencv的cv::Mat,后发现blob最多只支持三维,因此实现了类似的Mat
|
||
Mat的data每个通道内存16字节对齐,并且有原子的引用计数,a=b不复制数据,超级快
|
||
Mat支持直接引用外部的内存块,不复制数据,加快模型加载和输入输出
|
||
|
||
举个例子:split layer 将一个blob复制成n个,ncnn中实现为单纯的增加引用计数,没有任何数据复制
|
||
|
||
### 只运算一部分并保留中间结果
|
||
|
||
ncnn的net在解决分支依赖时是自上而下深度优先的,因此当网络有多个分支时,运算只会在需要结果的那个分支中进行,节约时间
|
||
当多个分支有重合部分时,运算其中一个分支后会自动保留其余分支所需的中间结果,隐含共享,以便运算其余分支时利用
|
||
|
||
举个例子:某网络结构为 A -> B -> C1 + C2,向ncnn索要C1结果时,运算过程是 A -> B -> C1,同时B结果引用计数加1自动保留,后面还需要C2结果时,只运算C2就足够了
|
||
|
||
### 开启轻模式省内存
|
||
|
||
每个layer都会产生blob,除了最后的结果和多分支中间结果,大部分blob都不值得保留,开启轻模式可以在运算后自动回收,省下内存
|
||
|
||
举个例子:某网络结构为 A -> B -> C,在轻模式下,向ncnn索要C结果时,A结果会在运算B时自动回收,而B结果会在运算C时自动回收,最后只保留C结果,后面再需要C结果会直接获得,满足绝大部分深度网络的使用方式
|
||
|
||
### 网络和运算是分开的
|
||
|
||
ncnn的net是网络模型,实际使用的是extractor,也就是同个net可以有很多个运算实例,而且运算实例互不影响,中间结果保留在extractor内部,在多线程使用时共用网络的结构和参数数据,初始化网络模型和参数只需要一遍
|
||
|
||
举个例子:全局静态的net实例,初始化一次后,就能不停地生成extractor使用
|
||
|
||
### openmp虽快但未必合适
|
||
|
||
ncnn中几乎所有运算都能用上openmp多线程加速,而且性能很赞
|
||
不过系统有时候会突然慢一下,比如手机太热自动降频,界面操作等等,ncnn耗时也会偶尔抖动变长,在计算耗时稳定性比较重要的时候建议关闭openmp,或者设置下extractor线程数
|
||
|
||
举个例子:手机自拍时,用ncnn进行人脸实时定位,如果耗时突然涨一下就会感觉到掉帧,而稳定的帧率体验更好
|
||
|
||
### NCNN_STDIO/NCNN_STRING禁用模型文件
|
||
|
||
ncnn支持加载自有的模型文件和模型内存,NCNN_STDIO控制是否需要支持加载模型文件,设成0能禁用这部分代码,从而减小库的体积,NCNN_STRING设成0能清除大部分可见的字符串和解析过程
|
||
模型内存加载时的参数数据是直接引用的,速度更快,通常在手机上使用这种方式
|
||
|
||
### 削减 ncnn 内置的层实现
|
||
|
||
cmake的时候,加参数 -DWITH_LAYER_xxx=OFF 就可以完全不编译对应的内置层,这样可以进一步减小库的体积
|
||
|
||
### 关于 ARM big.LITTLE 调度
|
||
|
||
调用set_cpu_powersave可以把ncnn运算线程控制在特定的cpu核心上,大核心速度快耗电多,小核心速度慢点但省电,大小一起用手机热得快
|