인공 신경망: 두 판 사이의 차이
내용 삭제됨 내용 추가됨
편집 요약 없음 |
잔글 봇: 인용 틀 구식 변수 정리 |
||
79번째 줄:
# 뉴런의 가중 입력을 활성화도 출력으로 바꿔주는 활성화 함수
수학적으로, 뉴런의 망 함수 <math>\textstyle f(x)</math>는 다른 함수 <math>\textstyle g_i(x)</math>들의 합성으로 정의되고, 이 함수들 또한 다른 함수들의 합성으로 정의될 수 있다. 이 함수는 화살표가 변수들 사이의 의존 관계를 나타내는 망 구조로써 편리하게 나타낼 수 있다. 자주 쓰이는 종류의 합성으로는 ''비선형 가중 합''이 있는데, [[쌍곡선함수]]와 같은 미리 정의된 함수 <math>\textstyle K</math> (주로 [[활성화 함수]]라 불림<ref>{{웹 인용|url=http://www.cse.unsw.edu.au/~billw/mldict.html#activnfn|제목=The Machine Learning Dictionary|확인날짜=2015-04-28|보존url=https://web.archive.org/web/20180826151959/http://www.cse.unsw.edu.au/~billw/mldict.html#activnfn|보존날짜=2018-08-26|
[[파일:Ann dependency (graph).svg|섬네일|150px|인공신경망 의존 그래프]]
220번째 줄:
하바 세이겔만(Hava Siegelmann)과 에드워도 다니엘 손택(Eduardo D. Sontag)의 연구
<ref>{{저널 인용 | 제목 = Turing computability with neural nets | url = http://www.math.rutgers.edu/~sontag/FTP_DIR/aml-turing.pdf | year = 1991 | journal = Appl. Math. Lett. | pages = 77–80 | volume = 4 | issue = 6 | last1 = Siegelmann | first1 = H.T. | last2 = Sontag | first2 = E.D. | doi = 10.1016/0893-9659(91)90080-F | 확인날짜 = 2013년 12월 9일 | 보존url = https://web.archive.org/web/20130502094857/http://www.math.rutgers.edu/~sontag/FTP_DIR/aml-turing.pdf | 보존날짜 = 2013년 5월 2일 |
=== 수용력(Capacity) ===
261번째 줄:
"신경망은 예를 들면, 그것은 더 높은 목적을 달성할 수 있다고 과장된 광고를 하고 있을 뿐만 아니라 이것이 어떻게 동작하는지 이해도 하지 않고도 성공적인 네트워크를 만들어 낼 수 있다고 말하는데, 이것은 불투명하고 이해할 수 없는 것일 뿐만 아니라 과학적 측면에서 가치가 없는 것이다."
그의 이러한 과학(인공신경망)은 기술이 아니라는 강한 발표에도, 듀드니는 "이것은 단지 남들이 보는 앞에서 그들이 이것을 이해하지 못하더라도 훌륭한 기술자들인 것처럼 보이기 위해 신경망을 안 좋은 학문이라고 비판하는 것"이라고 했다. 불투명하고 이해할 수 없는 것이라도 유용한 기계가 될 수있다면 그것은 여전히 우리에게 가치있는 것이고 필요한 것일 것이다.<ref>{{웹 인용 |url=http://members.fortunecity.com/templarseries/popper.html |제목=Roger Bridgman's defence of neural networks |확인날짜=2015년 4월 30일 |보존url=https://web.archive.org/web/20120319163352/http://members.fortunecity.com/templarseries/popper.html |보존날짜=2012년 3월 19일 |
.
비록 인공 신경망을 배우고 이해하고 분석하는 것이 매우 힘든 일이라는 것은 사실이지만, 실제 생물에서의 신경망을 배우고 이해하여 분석해서 적용하는 것보다는 훨씬 쉬운 일일 것이다. 게다가, 신경망을 구현하는 학습 알고리즘을 연구하는 연구자들은 점진적으로 기계학습을 성공적으로 하게 할 수 있는 신경 유전적 원리를 발견해 내는데 성공하고 있다. 예를 들어, 벤지오(Bengio)와 레쿤(LeCun)이 2007년에 쓴 논문에서는, 지역 vs 비지역 학습(local vs non-local learning)과 얕은 vs 깊은 구조(shallow vs deep architecture)에 대해서 다루고 있다<ref>{{웹 인용 |url=http://www.iro.umontreal.ca/~lisa/publications2/index.php/publications/show/4 |제목=보관 된 사본 |확인날짜=2015-04-30 |보존url=https://web.archive.org/web/20150515182539/http://www.iro.umontreal.ca/~lisa/publications2/index.php/publications/show/4 |보존날짜=2015-05-15 |
=== 혼합적 접근 ===
|