담금질 기법: 두 판 사이의 차이

4,679 바이트 추가됨 ,  12년 전
편집 요약 없음
내용 삭제됨 내용 추가됨
EmausBot (토론 | 기여)
잔글 r2.6.4) (로봇이 바꿈: es:Algoritmo de recocido simulado
편집 요약 없음
4번째 줄:
 
SA 알고리즘은 해를 반복해 개선함으로써, 현재의 해 근방에 있는 해를 임의로 찾는데, 그때에 주어진 함수의 값과 전역 인자 ''T'' (온도를 의미한다)가 영향을 준다. 그리고 앞에서 기술한 물리 과정과 비슷한 원리로. ''T''(온도)의 값은 서서히 작아진다. 따라서, 처음에는 ''T''가 크기 때문에 해가 크게 변화하지만, ''T''가 0에 가까워짐에 따라 변화가 줄어든다. 처음은 간단하게 비탈을 올라갈 수 있으므로, [[등산법]]으로 문제가 되는 [[지역 최적점]]에 빠졌을 때의 대책을 생각할 필요가 없다.
 
== 유사코드 ( pseudo-code, 類似)==
아래 유사코드는 담금질 기법을 코드화 한것입니다.
간단히 용어에 대하여 설명을 드리면:
* P는 P=nk=5*100=500 이 되고 Step 이 500 이 됩니다.여기서 Step의 값은 아주 중요한 요소가 됩니다. 만약 Step이 크게 되면 최적한 된 값을 건더 뛰고 넘어가서 최적화의 단계를 가지지 못합니다. 여기서 최적화를 예를 들면 만약 무작위의 10개의 돌이 있으면 이 돌을 가장 작은 공간에 배치 할때 가장 효율적으로 배치한 값이 담금질 기법의 최적화 값이 됩니다. 10개의 돌을 배치하는 방법으로 단순히 10!*10의 경우의 수를 생각해 보겠지만 이것을 한번씩 다해서 최적의 경우의 수를 얻는다는 것은 너무나 비효율적이고 만약 돌의 갯수가 100000 개라고 하면 이 많은 경우의 수를 하는 것이 불가능 합니다. 그리고 특정 시간안에 이것을 찾아야 하는 조건이면 거의 불가능하게 됩니다. 그래서 모든 경우의 수를 하지 않고 이것을 찾는 방법이 바로 담금질 기법입니다. 하지만 이 담금질 기법의 문제점이 바로 적당한 Step 사이즈 즉 가장 효율적으로 찾기 위한 돌을 움직여야 하는 갯수를 결정하는 것입니다. 본론으로 돌아가서 Step의 사이즈가 작으면 최적화의 방법을 당연히 찾을 것입니다. 여러가지 경우의 수를 많이 해보면 당연히 그중에 찾을 확률이 높지요. 하지만 Step의 사이즈가 작으면 작을 수록 무작위로 모든 경우 수를 해보는 것고 점점 차이가 없어지는 것이 지요. 그럼 담금질 기법의 의미가 없어 집니다.
* 담금질 기법의 원문을 자주 보거나 번역판을 보면 온도라는 말과 Frozen 즉 냉각이라는 말이 자주 나옵니다. 이것은 이 기법이 담금질 기법과 비슷하기 때문에 같은 개념으로 설명하기 위한 것이지 절대 이것이 정말 온도나 냉각을 의미하는 것이 아니라 경우의 수을 높여서 더 안좋은 결과가 나오는 것을 Uphill 즉 상승 즉 온도의 상승으로 보고, 경우의 수의 조합을 좋게 해서 Downhill 즉 하락 온도의 하락으로 보고 설명을 하는 것입니다. 온도가 완전히 떨어진 경우 Downhill의 최저점이 우리가 찾는 최적의 조합이 되는 것입니다.
 
<code>
begin
Get an initial solution S; // s ← s0; e ← E(s) 초기값을 설정합니다.
Get an initial temperature T>0; // 초기 온도값을 설정함, 예) T=1000
while not yet "frozen" do // 최적의 경우를 찾을 때 까지 즉 온도가 완전히 내려 갈때 까지 프로그램을 Loop합니다.
for 1<= i <= P do // P=nk 즉 Step의 사이즈가 되고 k는 주어진 종류를 n은 우리가 결정하게 됩니다. 즉 STEP사이즈를 결정하게 됩니다.
Pick a random neighbor S' of S; // 임의로 선택한 숄류션 S' 과 기존의 숄류션 S를 선택합니다.
∆ <- cost(S')-cost(S); // 기존의 솔류션과 새로운 숄류션을 가격의 차 즉 최적화의 값의 차를 만듭니다. ∆ <- area(S')-area(S), 돌을 예를 들면 면적이 크기가 효율성의 차이 입니다.
/* downhill move */
if ∆ <= 0 then S <- S' // S'의 값이 작으면 즉 차지하는 면적이 작고, 더 효율적으로 배치 되었으면, 이것이 현재까지의 최적화가 되고 이것을 온도가 내려간다. Downhill로 표현합니다.
/* uphill move */
if ∆ > 0 then S <- S' // S'의 값이 크면 즉 차지하는 면적이 크고, 더 비 효율적으로 배치 되었으면, 이것을 온도가 올라간다. uphill로 표현합니다.
T <-rT; // 한가지 경우의 수를 처리 했었므로 한 단계 줄어 들게 되면 다음 반복을 진해합니다.
return S // 프로그램이 마무리 되면 우리가 찾는 최적화의 답을 리턴하고, 정확히 최적화의 답을 찾았으면 이것을 Global Optimization 즉 모든 경우의 수중에서 가장 최적화된 것입니다.
end
</code>
 
* 여기서 원래의 SA(Generic Simulated Annealing Algorithm)은 여러가지 찾는 속도나 사용하는 메모리의 경우에 대하여 문제점이 있습니다. 그래서 여러 박사 과정의 분들이 새로운 기법을 추가하여 더욱 발전되 기법을 찾아 내었습니다. 하지만 이 아이디어 자체는 모든 분야에 대하여 적용이 가능합니다. 임의의 경우의 수가 많은 경우 정해진 조건에서 대용량의 최적화를 찾을 때 유용하게 사용이 됩니다.
 
[[분류:최적화 알고리즘]]

편집

109