본문 바로가기

TensorFlow 'reduce_prod', 'kron', 'tf_normal','tf.nn.softmax','invkronprod','save&load' 1. tf.reduce_prod : 행렬이 있을 때 특정 row 혹은 column에 있는 원소들을 다 곱하는 연산이다. reduce_mean의 곱하기 버젼이다. 물론 rank를 줄이기 때문에 reduce가 붙어있다. sess = tf.Session()x = tf.constant([1,2,3,4,5,6]) x_rsh = tf.reshape(x,(-1,2))x_mul = tf.reduce_prod(x_rsh,axis=1) print sess.run(x)print sess.run(x_rsh)print sess.run(x_mul) [1 2 3 4 5 6] [[1 2] [3 4] [5 6]] [ 2 12 30] 2. kron : 이건 tf.tile이랑 비슷하지만, [a,b]를 [a,b,a,b]로 만들어주는 til.. 더보기
Causalty란 무엇일까? Causality - 한국 말로는 인과성 정도 되려나? 인과 관계와 상관 관계는 연구자라면 항상 주의 깊게 구분할 줄 알아야 한다. 이 둘을 혼용하는 사람들이 많은데 특히 특정 목적을 가지고 이 둘을 혼용하는 사람들을 보면 화가 날 때가 많다. 결론부터 말하자면, 난 이걸 잘 모른다. 그리고 대충 가지고 있는 느낌은 directed acyclic graph를 구성해야 한다. Conditional dependency를 잡는 것이 중요하다. 간단한 인과 관계의 예로 위의 그림과 같이 비가 오면 진흙이 생긴다를 생각해보자. 진흙은 다른 일로도 생길 수 있기에 other cause를 고려하는 DAG가 생겼다. 화살표로 연결이 안되어 있으면 'no direct causal' 관계이다. 위의 그림에서 얻을 수 있는.. 더보기
T-RO reviews Reviewer 3 좋은 리뷰가 왔다. multi-task GP를 구현해야할 것 같다. This paper proposes a method for learning from demonstration using not only optimal but also sub-optimal (or negative) demonstrations. This is done by using a new model called leveraged Gaussian Processes. The idea is in general interesting and would definitely be of interest in the learning from demonstration community. Regarding the approach pro.. 더보기
연구자의 덕목 조금 역설적인 얘기지만, 연구자가 가져야 하는 두 중요한 덕목이 있다면, 1) 다른 사람과 소통을 하는 능력 과 2) 고독에 익숙해지는 능력 이 아닐까 싶다. 연구는 필연적으로 남과 소통을 통해서 발전시켜 나가는 것이 맞다. 그래서 주변 연구자와의 협업이 그 무엇보다 중요하다고 생가하다. 하지만 연구는 (또다시 필연적으로) 그 결과가 나올 때까지 오랜 시간이 필요하다. 이럴 때 주변 사람들의 관심과 주목에 익숙해지는 것은 호흡이 긴 연구를 하는데 독약과 같다고 생각한다. 필요하다고 느낄 때 결과가 나올 때까지 독방에 들어가서 연구를 마무리하는 능력을 키워야한다. 예전에 보이드 교수가 했던 말이 생각난다. 가끔 어떤걸 정말 증명을 하고자 할 때는 방에 종이와 펜만 들고 들어가서 풀릴 때까지 해보고 나온다고.. 더보기