정보 이론: 두 판 사이의 차이
내용 삭제됨 내용 추가됨
[[#REDIRECT[[#REDIRECT[[#REDIRECT[[]](으)로 넘겨주기 |
잔글 164.125.68.105(토론)의 1225593판 편집을 되돌림 |
||
1번째 줄:
정보 엔트로피는 열역학에서의 엔트로피와 크게 다르지 않은 개념으로, 정보엔트로피(정보량)가 높을수록 불확실성은 커진다. 반대로 계에서의 정보량은 불확실성의 정도이므로 불확실성이 적은 계의 정보 엔트로피(정보량)는 줄어들수 있다. 영어알파벳의 경우 모든 알파벳이 동일한 확률도 발생한다면 정보엔트로피(정보량)은 4.754887비트이지만 알파벳의 출현 빈도값을 계산하면 4.08비트까지 줄어든다. 이것 외에도 어떤 철자가 오면 그 뒤에 특정철자가 올 확률이 아주 높은등 여러가지 이유가 있기때문에 정보 엔트로피(정보량)는 더욱더 줄어들수 있게 된다. 한가지 예를들면 q가 오면 그뒤에 a,u가 올확률이 거의100%이다.
37번째 줄:
[[uk:Теорія інформації]]
[[zh:信息论]]
|