본문 바로가기

An Introduction to Variable and Feature Selection Variable selection Variable과 feature selection은 매우 중요하다. 특히나 하나의 item에 대해서 수 십, 수 백, 혹은 수 천 개의 변수가 있는 경우에는 더하다. 인터넷 문서, 유전자 분석 등에선 이런 경우가 있다. variable selection의 목표는 세 가지로 나뉜다. 1. Predictor 의 성능을 높이기 위해서 2. 좀 더 빠르고, cost-effective한 (효율적인) predictor를 만들기 위해서 3. 마지막으로는, 데이터를 생성한 underlying process를 더 잘 이해하기 위해서 이다. Check list 1. Domain knowledge가 있는가? 만약 그렇다면 ad hoc feature를 만들어라. 2. 데이터들이 commens.. 더보기
Markov Chain : http://pages.uoregon.edu/dlevin/MARKOV/markovmixing.pdf 이 포스팅을 시작하는 이유는 내가 다음의 내용을 수학적으로 증명하려고 하기 위해서이다. 학습을 할 때, 좋은 예제만 보여주는 것 보다 안 좋은 예제를 같이 보여주는 것이 (물론 이것이 안좋다는 정보와 함께) 더 효과적인 학습을 가능하게 한다. 당연해보이는 글귀이지만, 이를 수학적으로 보이기 위해선 몇 가지 세팅이 필요하다. 먼저 우리가 학습하는 것이 무엇인가에 대한 것이다. 여기서 학습이라는 것은 주어진 환경에서 어떤 행동을 하는 것이 옳은지를 나타낸다. 수학적으로는 어떤 공간 '$X$'가 있을 때, 이 공간과 행동들의 집합 '$U$'를 연결해주는 어떤 함수 '$f: X \to U$'를 찾는 것이라고 .. 더보기
Theoretical Analysis of Behavior Cloning How can we provide a theoretical analysis of the supervised learning method in Behavior Cloning (Imitation Learning)? Above figure is about learning driving style for parking. Problem setting: There exists an experts whose state distribution is '$d_{\pi^*}$' and action distribution (policy) is '$\pi^*(s)$'. From such distributions, one can obtain a training dataset consists of state-action pairs.. 더보기
Robotics paper list Related Paper List Jaakkola, Tommi, Michael I. Jordan, and Satinder P. Singh. "On the convergence of stochastic iterative dynamic programming algorithms." Neural computation 6.6 (1994) - - http://www.mitpressjournals.org/doi/pdfplus/10.1162/neco.1994.6.6.1185 "KJ" Bertsekas, Dimitri P., and Dimitri P. Bertsekas. Dynamic programming and optimal control - Ch6 Approximate Dynamic programming. Vol. .. 더보기