嚴格來說kernel map這個名詞出現在SVM那種kernel method才對。
但因為一般deep learning的卷積都用kernels來講卷積的權重,講卷積的權重大小就是那個
Kernels: #out_channel*# in_channel*kernel_height*kernel_width
所以我用kernel map這個字來表示某一個out channel對上in channel的k*k的kernel。
會稱filter的原因conv在單一個channel做forward運算等於傳統DSP的濾波(filter)。
Feature Map這個應該比較統一,經由運算後的輸出都稱為Feature Map,因為卷積本身就是在擷取特徵用,所以卷積後的輸出結果用特徵圖(feature map)來表示,有些文章會用Activations/activation map,原因是卷積後輸出的特徵圖通常是需要被關注的地方會有反應,所以用activations這個字,可以參考Class Activation Mapping相關的文章看一下卷積最後的結果是關注什麼。
你可以參考:https://pytorch.org/docs/stable/generated/torch.nn.Conv2d.html