Tommy Huang
2 min readDec 15, 2019

--

最後一張圖的 Sum (pixel-wise) 是在做 Pooling 嗎?

Ans: No.

還是在這張圖之後才做 Pooling?

Ans: 這張圖是在解說卷積計算,並沒有做其他處理(例如你提的pool),卷積層後是可以接pooling layer,pool目的是縮小feature map且希望保持feature map的特性並且減低運算量。

卷積運算: 每個input channel做各自的卷積,得到每個卷積後的feature map後,做pixelwise sum得到輸出一個feature map(output一個channel),假設設定十個output channel,則上述運算要做不同kernel map運算十次,得到十個輸出feature map,才是一個卷積層的運算。

2. 以最後一張圖為例,有哪些參數是要由訓練決定的?kernel 的 size(3x3x3 or 4x4x3 or others)?kernel 中各元素的值?或者其它?

Ans: 最後一張圖學習的參數只有兩個卷積層的參數,是學習kernel裡面的值。輸入feature map有三個,第一層的卷積層設定兩個output channel,所以第一層卷積(kernel size我設定3*3)有2*3*3*3個參數(output channel數*input channel數*kernel size高*kernel size寬)。第二層設定3個ouput channel,所以參數為3*2*3*3個。(幾乘幾的順序為根據你用的深度學習模組定義不同而不同,要看官方的說明文件)。

--

--

Tommy Huang
Tommy Huang

Written by Tommy Huang

怕老了忘記這些吃飯的知識,開始寫文章記錄機器/深度學習相關內容。Medium現在有打賞功能(每篇文章最後面都有連結),如果覺得寫的文章不錯,也可以Donate給個Tipping吧。黃志勝 Chih-Sheng Huang (Tommy), mail: chih.sheng.huang821@gmail.com

No responses yet