Tommy Huang
2 min readFeb 27, 2019

--

Entropy是接收的所有訊息中所包含的資訊的「加權」平均量。

1. 機率低=資訊量/訊息量大 (agree)
p(x)=0.1→ I(p(x))=3.32
p(x)=0.2→ I(p(x))=2.32
p(x)=0.9:→I(p(x))=0.15

2. 資料不確定性越大=entropy大 (agree)

但1和2不能畫上等號

entropy還是要觀察「所有訊息」的分布,entropy大只能表示「所有訊息」的分布趨向Uniform distribution,如果「所有訊息」的分布趨向集中的Normal distribution,entropy越小。

比如投骰子,公平的骰子1~6點的機率出現都是1/6
但假設有一個作弊的骰子1~6點的機率是{1: 0.01, 2: 0.01, 3: 0.95, 4: 0.01, 5: 0.01, 6: 0.01}
這時候公平骰子的entropy是2.493
這時候作弊的骰子的entropy是0.402
但整體看機率分布可以得知Uniform distribution的Entropy一定是最大的

我這邊才會寫entropy是看資料的亂度/不確定性,因為資料越趨向Uniform distribution代表資料越難被猜到,資料越是趨向集中的高斯分布則是越容易知道什麼資料會被猜出來。

不好意思,我其實不知道你的response要表達什麼,上面討論有回答到「 entropy是看資料的亂度或是資料的不確定性」的部分嗎?

--

--

Tommy Huang
Tommy Huang

Written by Tommy Huang

怕老了忘記這些吃飯的知識,開始寫文章記錄機器/深度學習相關內容。Medium現在有打賞功能(每篇文章最後面都有連結),如果覺得寫的文章不錯,也可以Donate給個Tipping吧。黃志勝 Chih-Sheng Huang (Tommy), mail: chih.sheng.huang821@gmail.com

Responses (1)