사용자:Frf1226/연습장: 두 판 사이의 차이

내용 삭제됨 내용 추가됨
63번째 줄:
 
== 예제 ==
시퀀스 모델링은 보통 연쇄 그래프(chain graph: 방향성이 있는 혹은있거나 없는 간선을 모두 가질 수 있으면서있으며 방향성 순환(directed cycle)이순환이 없는 그래프)를 이용해 모델링된다. 관측된 변수들의 벡터 <math>X</math>의 일련의입력 입력은시퀀스는 일련의 관측을 표현하며, <math>Y</math>는 관측된 값이 주어졌을 때 추론되어야 할 숨겨진 변수(hidden state variable or unknown state variable)들을 나타낸다. <math>Y_i</math>는 <math>Y_{i-1}</math>과 <math>Y_i</math> 사이에 간선이 연결되도록연결되는 연쇄적인 구조로 조직된다. 이러한 구조는 <math>Y_i</math>를 일련의입력 입력의시퀀스의원소들에입력에 대한 레이블(label)로써 해석할 수 있는 간단함을간편함이 제공하는 것있으며,이 외에도, 이러한 구조는구조를 사용함으로써 다음과 같은 작업을작업들을 효율적으로 처리 가능하도록할 수 있는 장점이 한다있다:
* 모델 학습(model training): 트레이닝 데이터 뭉치(corpus)에서부터 추출한 자질값들과자질 함수들과 <math>Y_i</math> 사이에 조건부 확률 분포를 학습
* 디코딩(decoding): <math>X</math>가 주어졌을 때, 각 <math>Y</math>의 값에 대한 확률을 결정
* 추론(inference): <math>X</math>가 주어졌을 때, 가장 가능성이 높은 <math>Y</math>의 값을 결정
 
<math>X</math>에 대한 각 <math>Y_i</math>의 조건부 의존성(conditional dependency) <math>f(i, Y_{i-1}, Y_i, X)</math>[[]]의 형태를 갖는 자질 함수의함수들의 고정된 집합을 통해 정이된다정의된다. 이 함수는 입력 시퀀스에 대해 각 <math>Y_i</math> 값에 대한 가능도를가능도(likelihood)를 어느 정도 결정할 수 있는 측정치로 간주될 수 있다. 이 모델은 각 자질에 대해 수치적 가중치를 부여하고 이를 조합함으로써 <math>Y_i</math>의 값에 대한 확률을 결정한다.
 
선형 체인 조건부 무작위장(linear-chain CRFs)은 개념적으로 보다 단순한 [[은닉 마르코프 모델]]과 응용되는 문제가 비슷하다. 단, 입력, 출력 시퀀스의 분포에 대한 가정을 어느 정도 완화하였다. 은닉 마르코프 모델은 상태 전이(state transition)와 방출(emission)을 모델링하기 위해 고정된 확률(constant probability)을 사용하는 자질 함수만을 사용하는갖는 조건부 무작위장으로 생각될 수 있다. 반면, 조건부 무작위장은 은닉 마르코프 모델의 일반화된 버전으로모델로 생각될 수 있으며, 고정된 전이 확률(transition probability) 대신에 일련의 은닉숨겨진 상태들의상태(hidden state)들의 구성에조직에 따라 다른달라지는 임의의 함수를 입력 시퀀스마다시퀀스에 다르게맞추어 사용한다.
 
은닉 마르코프 모델과는 대조적으로 주목할 점은, 조건부 무작위장은 임의의 개수의 자질 함수를 포함할 수 있으며, 이 자질 함수는 추론 중 어느 시점에서라도 전체 입력 시퀀스 <math>X</math>를 살펴볼조사할 수 있고, 자질 함수의 범위(range)는 확률적으로 해석될 필요가 없다.
 
== 다른 방법에 비한 장점 ==