Bayes Theorem
조건부 확률 분포를 뒤집어 표현하는 방법
데이터가 주어졌을 때, 어떤 모델을 학습시키는 방법에는
MAP, MLE 두 방법이 있다.
위 수식에서,
P(L|features) Posterior
P(features|L)이 Likelihood
P(L)이 Prior이다.
예를 들어,
(김기현님 머신러닝 강의에서 가져온 예시)
절도 사건의 범인이 발자국을 남겼는데
그 사이즈가 240이라면, 범인은 남자인가 여자인가? 의 문제를 품에 있어서
가장 쉽게 접근하는 방법은 Likelihood를 비교해보는 것이다.
여자일 때의 발사이즈가 240인 사람,
남자일 때 발사이즈가 240인 사람을 비교해서 확률이 더 높은 쪽을 선택하는 것이다.
그런데, 이 접근법은 '남녀 성별 비율이 같다'고 가정을 깔고 있다는 것에 주의해야한다.
이 때,
범행 장소가 '군부대' 였고
P(L=남자) = 0.95, P(L=여자) = 0.05
와 같은 Prior가 주어진다면
Prior를 고려하여 Posterior 확률을 구할 수 있게 되고,
단순히 Likelihood만을 비교하여 결과를 얻었을 때와 결과가 달라질 수 있게 된다.
MAP Estimation
Posterior를 최대화 함으로써 모델의 파라미터를 찾는 방법이다.
즉 Likelihood에 Prior를 곱한 것을 최대화하는 파라미터를 찾는 것.
'DL&ML > concept' 카테고리의 다른 글
Under/overfit, Validation, Regularization, Dropout, Normalization, Ensemble etc. (0) | 2021.03.10 |
---|---|
Cross Entropy, KL-Divergence (0) | 2021.03.10 |
Likelihood & MLE(최대 우도 추정) (0) | 2021.03.10 |
One-shot learning (siamese network) (0) | 2020.10.23 |
Transformer (0) | 2020.10.21 |