본문 바로가기

Latent Dirichlet Allocation (LDA) with Matlab Code 1. 세팅 1. 우리에게 여러 문서가 주어졌다. 2. 문서는 단어의 묶음이다. 3. 단어는 특정 단어의 집합(사전)에서 나왔다. 4. 문서는 특정 주제(토픽)을 가지고 있다. 5. 주제는 문서들 마다 공유된다. 예를 들어서 생각해보면 우리에게 논문이 세 편 주어졌다고 하자. 조사는 모두 없다고 가정하겠다. 물론 한 논문에 단어는 중복되게 나올 수 있다. 논문 1양자 역학, 상대성 이론, 힉스 입자, 강아지, 고양이, 치킨, 상대성 이론, 상대성 이론, 양자 역학 논문 2치킨, 강아지, 고양이, 비둘기, 비둘기, 강아지, 강아지, 고양이, 햄버거 논문 3치킨, 치킨, 치킨, 치킨, 치킨, 치킨, 햄버거, 피자, 치킨 사실 논문이라고 하기엔 문제가 좀 있긴 하지만 위의 논문들을 보고 우리는 논문1은 물리학에.. 더보기
호프스테더 문화 산물 혹은 문화 행위 중 하나를 선택하고, 호프스테더 문화 분석 이론에서 말하는 네 가지 기본 문제 영역 중 한 가지의 방법으로 문화 교육을 할 경우에 장단점을 기술하시오. [호프스테더 문화 차원 이론에 대하여]호프스테더의 문화 차원 이론- 호프스테더는 그가 1967년에서 1973년까지 다국적 기업인 IBM의 유럽 지사의 책임자로 있을 당시에 전 세계 자회사들 사이의 가치관의 차이에 대한 비교 연구를 진행하였다. 이 연구는 기본적으로 한 사람의 가치관 형성에 그가 속한 문화의 영향을 받는다고 가정하고, 다음 네 가지의 항목을 통해서 한 국가의 문화를 수치화하였다. 지금에야 문화라는 단어가 국가의 고유한 특성이란 뜻으로 널리 사용되고 있지만, 이 연구가 진행되었던 것이 1960년대임을 감안한다면, 문.. 더보기
Important properties regarding matrix inversions Following properties about matrix inversion is extermely important in deriving derivatives in parameter estimation. 1. Gradient of Matrix Inversion$$\frac{\partial}{\partial \theta} K^{-1} = K^{-1} \frac{\partial K}{\partial \theta} K^{-1}$$where '$\frac{\partial K}{\partial \theta}$' is a matrix of elementwise derivatives. 2. Gradient of Log-Determinent of a Matrix$$ \frac{\partial}{\partial \t.. 더보기
Bayesian과 MCMC 알고리즘 (Gibbs and Metropolis-Hastings Algorithm) Motivation 깁스 샘플링이 무엇인가를 정의하기 전에 이것이 왜 필요한지에 대해서 먼저 생각해보자. '우리'는 베이지안이라고 가정을 하겠다. 베이지안은 '일반적'으로 우리의 현상을 표현하는 latent variable을 가정한다. 우리의 현상, 혹은 관측을 Y라 하고, 이 현상의 원인을 X라 했을 때, 다음 세 가지를 정의한다. - 편의상 X를 내면의 감정이라하고, Y를 외면의 표현이라고 하자. - X는 기쁨, 슬픔, 등등이 있고, Y에는 웃음, 울기, 짜증 등등이 있을 것이다. 1. Likelihood (개인적으로 우도란 단어를 별로 좋아하지 않는다.) $$\mathbb{P}(Y|X)$$이것이 의미하는 것은 어떤 의도가 주어졌을 때 현상이 일어날 확률이다. 예를 들면 슬플 경우 꽤나 높은 확률로 .. 더보기