Tommy Huang
Feb 2, 2021

--

嚴格來說kernel map這個名詞出現在SVM那種kernel method才對。

但因為一般deep learning的卷積都用kernels來講卷積的權重,講卷積的權重大小就是那個

Kernels: #out_channel*# in_channel*kernel_height*kernel_width

所以我用kernel map這個字來表示某一個out channel對上in channel的k*k的kernel。

會稱filter的原因conv在單一個channel做forward運算等於傳統DSP的濾波(filter)。

Feature Map這個應該比較統一,經由運算後的輸出都稱為Feature Map,因為卷積本身就是在擷取特徵用,所以卷積後的輸出結果用特徵圖(feature map)來表示,有些文章會用Activations/activation map,原因是卷積後輸出的特徵圖通常是需要被關注的地方會有反應,所以用activations這個字,可以參考Class Activation Mapping相關的文章看一下卷積最後的結果是關注什麼。

你可以參考:https://pytorch.org/docs/stable/generated/torch.nn.Conv2d.html

https://stats.stackexchange.com/questions/291820/what-is-the-definition-of-a-feature-map-aka-activation-map-in-a-convolutio

--

--

Tommy Huang
Tommy Huang

Written by Tommy Huang

怕老了忘記這些吃飯的知識,開始寫文章記錄機器/深度學習相關內容。Medium現在有打賞功能(每篇文章最後面都有連結),如果覺得寫的文章不錯,也可以Donate給個Tipping吧。黃志勝 Chih-Sheng Huang (Tommy), mail: chih.sheng.huang821@gmail.com

Responses (1)