Tommy Huang
1 min readMar 13, 2019

--

應該說cross entropy算出來是loss value,值越小越好。

但更新權重是看softmax的機率輸出,如果錯誤分類的樣本,隸屬正確類別的機率(p)越低,用1-p(錯誤隸屬機率)來更新weight,錯誤越大修正越大。

--

--

Tommy Huang
Tommy Huang

Written by Tommy Huang

怕老了忘記這些吃飯的知識,開始寫文章記錄機器/深度學習相關內容。Medium現在有打賞功能(每篇文章最後面都有連結),如果覺得寫的文章不錯,也可以Donate給個Tipping吧。黃志勝 Chih-Sheng Huang (Tommy), mail: chih.sheng.huang821@gmail.com

Responses (1)