정보 이론: 두 판 사이의 차이

내용 삭제됨 내용 추가됨
잔글 데이타->데이터
Wikier.bot (토론 | 기여)
잔글 봇이 동음이의 처리함: 지각 을 지각 (심리학)로 연결
3번째 줄:
정보 엔트로피는 열역학에서의 엔트로피와 크게 다르지 않은 개념으로, 정보엔트로피(정보량)가 높을수록 불확실성은 커진다. 반대로 계에서의 정보량은 불확실성의 정도이므로 불확실성이 적은 계의 정보 엔트로피(정보량)는 줄어들수 있다. 영어알파벳의 경우 모든 알파벳이 동일한 확률도 발생한다면 정보엔트로피(정보량)은 4.754887비트이지만 알파벳의 출현 빈도값을 계산하면 4.08비트까지 줄어든다. 이것 외에도 어떤 철자가 오면 그 뒤에 특정철자가 올 확률이 아주 높은등 여러가지 이유가 있기때문에 정보 엔트로피(정보량)는 더욱더 줄어들수 있게 된다. 한가지 예를들면 q가 오면 그뒤에 a,u가 올확률이 거의100%이다.
 
정보 이론의 기본적인 주제가 적용되는 기술로 [[ZIP]] 파일([[무손실 데이터 압축]]), [[MP3]] 파일([[손실 데이터 압축]]), [[DSL]]([[채널 용량|채널 부호화]]), [[MIMO]]([[채널 모델]]) 등이 있다. 정보 이론 분야는 [[수학]], [[통계학]], [[전산학]], [[물리학]], [[전자공학]]과 연관되어 있으며, [[보이저 계획]]의 성공, [[콤팩트 디스크]]의 발명, [[휴대전화]]의 실용화, [[인터넷]]의 개발, [[언어학]]과 인간 [[지각 (심리학)|지각]]의 연구, [[블랙홀]]의 이해 등 많은 곳에 큰 영향을 끼쳤다.
 
== 수학적 모델 ==