1 min readMar 13, 2019
應該說cross entropy算出來是loss value,值越小越好。
但更新權重是看softmax的機率輸出,如果錯誤分類的樣本,隸屬正確類別的機率(p)越低,用1-p(錯誤隸屬機率)來更新weight,錯誤越大修正越大。
應該說cross entropy算出來是loss value,值越小越好。
但更新權重是看softmax的機率輸出,如果錯誤分類的樣本,隸屬正確類別的機率(p)越低,用1-p(錯誤隸屬機率)來更新weight,錯誤越大修正越大。
怕老了忘記這些吃飯的知識,開始寫文章記錄機器/深度學習相關內容。Medium現在有打賞功能(每篇文章最後面都有連結),如果覺得寫的文章不錯,也可以Donate給個Tipping吧。黃志勝 Chih-Sheng Huang (Tommy), mail: chih.sheng.huang821@gmail.com