정보 엔트로피: 두 판 사이의 차이
내용 삭제됨 내용 추가됨
잔글 봇: 틀 이름 및 스타일 정리 |
잔글 오타 및 표현 일부 수정 |
||
3번째 줄:
[[정보 이론]]에서 시스템은 송신자, 채널, 수신자를 이용하여 모형화 한다. 송신자는 채널을 통해 전달되는 메시지를 만들어낸다. 채널은 특정한 방식을 통해 메시지를 변경한다. 수신자는 어떤 메시지가 보내진 것인지 추론하고자 한다. 이 맥락에서 '''정보 엔트로피'''(또는 '''[[:en:Shannon Entropy|섀넌 엔트로피]]''')는 각 메시지에 포함된 정보의 [[기댓값]](평균)이다. '메시지'는 어떤 흐름의 정보에 대해서도 모형화 할 수 있다.
좀 더 기술적인 관점에서 보면 정보는 발생 가능한 사건이나 메시지의 확률분포의 음의 로그로 정의할 수 있다.
확률분포의 로그는 엔트로피의 단위로 사용하기에 매우 유용한데 이는 독립적인 소스(source)들에 대해 그 값을 더할 수 있기 때문이다. 예를 들어 동전을 1개 던지면 엔트로피는 1 섀넌이고, {{math|''m''}} 개의 동전을 던질 때는 {{math|''m''}} 섀넌이다. {{math|''n''}} 이 2의 거듭제곱일 때, 일반적으로 {{math|''n''}} 개의 값 중 하나를 취하는 변수를 표현하기 위해서는 {{math|log<sub>2</sub>(''n'')}} 비트가 필요하다.
일반적으로 엔트로피는 무질서도 또는 불확실성을 가리킨다. 섀넌 엔트로피의 개념은 [[클로드 섀넌]]이 자신의 1948년 논문 "[[:en:A Mathematical Theory of Communication|수학적 통신 이론]]"에서 도입하였다.<ref name=shannonPaper>{{저널 인용|author=Shannon, Claude E. |authorlink=Claude Shannon |title=[[A Mathematical Theory of Communication]] |journal=Bell System Technical Journal |volume=27 |issue=3 |pages=379–423 |date=July–October 1948 |doi=10.1002/j.1538-7305.1948.tb01338.x}} ([http://web.archive.org/web/20120615000000*/http://www.alcatel-lucent.com/bstj/vol27-1948/articles/bstj27-3-379.pdf PDF], archived from [http://www.alcatel-lucent.com/bstj/vol27-1948/articles/bstj27-3-379.pdf here])</ref> 섀넌 엔트로피는 정보 소스(source)를 [[비손실 압축|무손실]] 인코딩 또는 [[데이터 압축|압축]]할 때 가능한 최상의 평균 길이의 절대적 한계치를 제공해준다. [[:en:Rényi entropy|레니 엔트로피]]는 섀넌 엔트로피를 일반화한 것이다.
66번째 줄:
* [[제레미 리프킨]]의 책 《엔트로피》. 엔트로피에 대한 그릇된 해석으로 유명하다.<ref>[http://chemistry.sogang.ac.kr/~duckhwan/essay/books/books-entropy.htm 제레미 리프킨, 엔트로피]</ref>
* 헨리 애덤스의 책 《엔트로피와 생명》. 19세기 미국 역사가 헨리 애덤스는 기계의 힘인 동력과 힘의 쇠퇴인 [[엔트로피]] 개념을 포함한 정교한 역사 이론을 주창하였다. 애덤스는 인간 사회가 진보하는 것이 아니라 어쩔 수 없이 쇠퇴하는 것을 자연 상태에서 엔트로피가 커지는 것에 결합하여 설명하였다.
*[[마법소녀 마도카 마기카]]의 극장판. 여기서는 '잘못' 사용된
== 참고 문헌 ==
|