특징 선택(Feature selection)은 모델 구성에 사용할 관련 특징(변수, 예측 변수)의 하위 집합을 선택하는 프로세스이다. 스타일로메트리와 DNA 마이크로어레이 분석은 특징 선택이 사용되는 두 가지 경우이다. 특징 추출과는 구별되어야 한다.[1]

특징 선택 기술은 다음과 같은 여러 가지 이유로 사용된다.

  • 연구자/사용자가 해석하기 쉽도록 모델을 단순화하기 위해[2]
  • 더 짧은 훈련 시간[3]
  • 차원의 저주를 피하기 위해[4]
  • 학습 모델 클래스와의 데이터 호환성을 향상시키기 위해[5]
  • 입력 공간에 존재하는 고유한 대칭성을 인코딩하기 위해[6][7][8][9]

특징 선택 기술을 사용할 때의 핵심 전제는 데이터에 중복되거나 관련성이 없는 일부 특징이 포함되어 있으므로 정보 손실을 많이 발생시키지 않고 제거할 수 있다는 것이다.[10] 중복성과 관련성 없음은 서로 다른 두 가지 개념이다. 하나의 관련 기능이 밀접하게 연관되어 있는 다른 관련 기능이 있으면 중복될 수 있기 때문이다.

특징 추출은 원래 특징의 함수로부터 새로운 특징을 생성하는 반면, 특징 선택은 특징의 하위 집합을 반환한다. 특징 선택 기술은 특징이 많고 샘플(또는 데이터 포인트)이 상대적으로 적은 도메인에서 자주 사용된다.

같이 보기 편집

각주 편집

  1. Sarangi, Susanta; Sahidullah, Md; Saha, Goutam (September 2020). “Optimization of data-driven filterbank for automatic speaker verification”. 《Digital Signal Processing》 104: 102795. arXiv:2007.10729. doi:10.1016/j.dsp.2020.102795. S2CID 220665533. 
  2. Gareth James; Daniela Witten; Trevor Hastie; Robert Tibshirani (2013). 《An Introduction to Statistical Learning》. Springer. 204쪽. 
  3. Brank, Janez; Mladenić, Dunja; Grobelnik, Marko; Liu, Huan; Mladenić, Dunja; Flach, Peter A.; Garriga, Gemma C.; Toivonen, Hannu; Toivonen, Hannu (2011), 〈Feature Selection〉, Sammut, Claude; Webb, Geoffrey I., 《Encyclopedia of Machine Learning》 (영어), Boston, MA: Springer US, 402–406쪽, doi:10.1007/978-0-387-30164-8_306, ISBN 978-0-387-30768-8, 2021년 7월 13일에 확인함 
  4. Kramer, Mark A. (1991). “Nonlinear principal component analysis using autoassociative neural networks”. 《AIChE Journal》 (영어) 37 (2): 233–243. doi:10.1002/aic.690370209. ISSN 1547-5905. 
  5. Kratsios, Anastasis; Hyndman, Cody (2021). “NEU: A Meta-Algorithm for Universal UAP-Invariant Feature Representation”. 《Journal of Machine Learning Research》 22 (92): 1–51. ISSN 1533-7928. 
  6. Persello, Claudio; Bruzzone, Lorenzo (July 2014). 〈Relevant and invariant feature selection of hyperspectral images for domain generalization〉. 《2014 IEEE Geoscience and Remote Sensing Symposium》 (PDF). IEEE. 3562–3565쪽. doi:10.1109/igarss.2014.6947252. ISBN 978-1-4799-5775-0. S2CID 8368258. 
  7. Hinkle, Jacob; Muralidharan, Prasanna; Fletcher, P. Thomas; Joshi, Sarang (2012). 〈Polynomial Regression on Riemannian Manifolds〉. Fitzgibbon, Andrew; Lazebnik, Svetlana; Perona, Pietro; Sato, Yoichi; Schmid, Cordelia. 《Computer Vision – ECCV 2012》. Lecture Notes in Computer Science (영어) 7574. Berlin, Heidelberg: Springer. 1–14쪽. arXiv:1201.2395. doi:10.1007/978-3-642-33712-3_1. ISBN 978-3-642-33712-3. S2CID 8849753. 
  8. Yarotsky, Dmitry (2021년 4월 30일). “Universal Approximations of Invariant Maps by Neural Networks”. 《Constructive Approximation》 (영어) 55: 407–474. arXiv:1804.10306. doi:10.1007/s00365-021-09546-1. ISSN 1432-0940. S2CID 13745401. 
  9. Hauberg, Søren; Lauze, François; Pedersen, Kim Steenstrup (2013년 5월 1일). “Unscented Kalman Filtering on Riemannian Manifolds”. 《Journal of Mathematical Imaging and Vision》 (영어) 46 (1): 103–120. doi:10.1007/s10851-012-0372-9. ISSN 1573-7683. S2CID 8501814. 
  10. Kratsios, Anastasis; Hyndman, Cody (2021년 6월 8일). “NEU: A Meta-Algorithm for Universal UAP-Invariant Feature Representation”. 《Journal of Machine Learning Research22: 10312. Bibcode:2015NatSR...510312B. doi:10.1038/srep10312. PMC 4437376. PMID 25988841. 

외부 링크 편집