Tommy Huang
May 20, 2022

--

謝謝你,我看懂你的意思。

我本來想把公式轉成圖放上來,後續的讀者如果看到這段就不會看得這麼辛苦,但medium回覆好像改成不能 回覆「圖」的留言了,好可惜。

Cross Entropy:

y = 1 ⟹ log⁡(𝑝_𝑡)

y = 0 ⟹ log⁡( 1−𝑝_𝑡)

CE(𝑝_𝑡 ) = (𝑦=1) × 𝑙𝑜𝑔(𝑝_𝑡 ) + (𝑦=0) × 𝑙𝑜𝑔(1−𝑝_𝑡 )

⟹CE(𝑝_𝑡 ) = 𝑙𝑜𝑔(𝑝_𝑡 )

α-balanced Cross Entropy :

α-balanced-CE(𝑝_𝑡 )= (𝑦 = 1) × 𝛼_𝑡 × 𝑙𝑜𝑔(𝑝_𝑡 )+(𝑦=0) × ( 1 − 𝛼_𝑡) × 𝑙𝑜𝑔( 1 − 𝑝_𝑡 ) = 𝑙𝑜𝑔(𝑝_𝑡 ) = 𝛼_𝑡 × 𝑙𝑜𝑔(𝑝_𝑡 )

--

--

Tommy Huang
Tommy Huang

Written by Tommy Huang

怕老了忘記這些吃飯的知識,開始寫文章記錄機器/深度學習相關內容。Medium現在有打賞功能(每篇文章最後面都有連結),如果覺得寫的文章不錯,也可以Donate給個Tipping吧。黃志勝 Chih-Sheng Huang (Tommy), mail: chih.sheng.huang821@gmail.com

No responses yet