r036_logo

TOPS 人工智慧中的處理器效能指標,乘積累加運算(MAC)的關係

artificial-intelligence

什麼是 TOPS ?

TOPS,每秒萬億次運算 (TOPS, Trillion Operations Per Second) 用於衡量處理器的運算效能,一般使用 INT8 整數運算。而 TOPS 表示為每秒可完成的乘加運算(MAC),這在深度學習中的矩陣乘法很常見,也因此TOPS越高則意味著處理器的推理速度越快

補充

除了TOPS評估,另一個則是每秒萬億次浮點運算次數(FLOPS, Floating Point Operations per Second),用到浮點數的運算則用 FLOPS 來評估效能,常用的精度為 FP32 或 FP16。

例如NVIDIA GeForce 顯示卡的規格中的核心使用TOPS,光線追蹤核心則使用FLOPs來做為運算評估指標

NVIDIA GeForce 顯示卡比較 https://www.nvidia.com/zh-tw/geforce/graphics-cards/compare/

乘積累加運算(MAC, Multiply-Accumulate)

乘積累加運算(MAC),指一次乘法加一次加法的組合運算,論文中也常寫作 Multiply-Adds

1 MAC = 1 次乘法 + 1 次加法

為什麼用 MAC / Multiply-Adds 衡量處理器和模型?

深度學習中常見乘加組合運算,可以從矩陣乘法中深入了解,因此,MAC 評估模型在一次執行中,需要產生多少次的運算,因此MAC是衡量模型效率、評估硬體資源配置的重要指標。

如果對於乘加組合運算想更詳細的理解,可以了解深度學習的前向傳播(Forward Propagation) 方法,公式如下

y=WX+by = W X + b

常見精度

精度位元常見標記特性典型應用
Float3232-bitFP32高精度、耗資源訓練、測試、研究
Float1616-bitFP16, BF16中等精度,支援硬體加速GPU 推論、邊緣部署
INT88-bitINT8精度下降可控,效率提高Edge AI、手機裝置
INT44-bitINT4, GPTQ,超小模型體積,效能極高邊緣裝置、小應用