MNN是一個輕量級的深度神經網絡推理引擎,在端側加載深度神經網絡模型進行推理預測。目前,MNN已經在阿裡巴巴的手機淘寶、手機天貓、優酷等20多個App中使用,覆蓋直播、短視頻、搜索推薦、商品圖像搜索、互動營銷、權益發放、安全風控等場景。此外,IoT等場景下也有若幹應用。
整體特點
輕量性
通用性
高性能
易用性
架構設計
MNN可以分為Converter和Interpreter兩部分。
Converter由Frontends和Graph Optimize構成。前者負責支持不同的訓練框架,MNN當前支持Tensorflow(Lite)、Caffe和ONNX(PyTorch/MXNet的模型可先轉為ONNX模型再轉到MNN);後者通過算子融合、算子替代、布局調整等方式優化圖。
Interpreter由Engine和Backends構成。前者負責模型的加載、計算圖的調度;後者包含各計算設備下的内存分配、Op實現。在Engine和Backends中,MNN應用了多種優化方案,包括在卷積和反卷積中應用Winograd算法、在矩陣乘法中應用Strassen算法、低精度計算、Neon優化、手寫彙編、多線程優化、内存複用、異構計算等。
用法
如上圖所示,在端側應用MNN,大緻可以分為三個階段:
在訓練框架上,根據訓練數據訓練出模型的階段。雖然當前MNN也提供了訓練模型的能力,但主要用于端側訓練或模型調優。在數據量較大時,依然建議使用成熟的訓練框架,如TensorFlow、PyTorch等。除了自行訓練外,也可以直接利用開源的預訓練模型。
将其他訓練框架模型轉換為MNN模型的階段。MNN當前支持Tensorflow(Lite)、Caffe和ONNX的模型轉換。模型轉換工具可以參考編譯文檔和使用說明。支持轉換的算子,可以參考算子列表文檔;在遇到不支持的算子時,可以嘗試自定義算子,或在Github上給我們提交issue。
此外,模型打印工具可以用于輸出模型結構,輔助調試。
除模型轉換外,MNN也提供了模型量化工具,可以對浮點模型進行量化壓縮。
在端側加載MNN模型進行推理的階段。端側運行庫的編譯請參考各平台的編譯文檔:iOS、Android、Linux/macOS/Ubuntu、Windows。我們提供了API接口文檔,也詳細說明了會話創建、數據輸入、執行推理、數據輸出相關的接口和參數。
此外,測試工具和benchmark工具也可以用于問題定位。
私信回複"mnn"獲取鍊接地址,喜歡的點個關注,一起學習探讨新技術。
,更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!