정보 이론: 두 판 사이의 차이

내용 삭제됨 내용 추가됨
[[#REDIRECT[[#REDIRECT[[#REDIRECT[[]](으)로 넘겨주기
잔글 164.125.68.105(토론)의 1225593판 편집을 되돌림
1번째 줄:
#REDIRECT[[#REDIRECT[[#REDIRECT[[#REDIRECT[[]]]]]]]]{{DEFAULTSORT:{{DEFAULTSORT:}}}}'''정보 이론'''(情報理論, {{lang|en|Information theory}})은 최대한 많은 [[데이터]]를 매체에 저장하거나 [[채널 (통신)|채널]]을 통해 통신하기 위해 데이터를 정량화하는 [[응용 수학]]의 한 분야이다. 데이터의 단위인 [[정보 엔트로피]]는 보통 저장 또는 통신에 사용되는 평균적인 [[비트]] 수로 표현된다. 예를 들어 매일의 날씨 정보가 3비트의 엔트로피를 가진다면, 하루의 날씨를 평균 약 3비트로 기술할 수 있다.
 
정보 엔트로피는 열역학에서의 엔트로피와 크게 다르지 않은 개념으로, 정보엔트로피(정보량)가 높을수록 불확실성은 커진다. 반대로 계에서의 정보량은 불확실성의 정도이므로 불확실성이 적은 계의 정보 엔트로피(정보량)는 줄어들수 있다. 영어알파벳의 경우 모든 알파벳이 동일한 확률도 발생한다면 정보엔트로피(정보량)은 4.754887비트이지만 알파벳의 출현 빈도값을 계산하면 4.08비트까지 줄어든다. 이것 외에도 어떤 철자가 오면 그 뒤에 특정철자가 올 확률이 아주 높은등 여러가지 이유가 있기때문에 정보 엔트로피(정보량)는 더욱더 줄어들수 있게 된다. 한가지 예를들면 q가 오면 그뒤에 a,u가 올확률이 거의100%이다.
37번째 줄:
[[uk:Теорія інформації]]
[[zh:信息论]]
ㄹㄹㄹ