강의 참고
https://kooc.kaist.ac.kr/machinelearning1_17/
인공지능 및 기계학습 개론Ⅰ 강좌소개 : edwith
본 강의는 기계 학습에 대한 이론적 지식을 확률, 통계, 최적화를 바탕으로 소개합니다. 이 과정에서 다양한 확률 이론 및 통계 방법론을 설명하며, 최적화 방법을 소개하고, Naiv... - KAIST 산업및
kooc.kaist.ac.kr
이 내용은 아래 내용에 이어진 내용입니다. 따라서 이 내용을 먼저 읽기를 권장합니다.
https://thought-process-ing.tistory.com/70
[ML_Basic] 기본 확률론
강의 참고 https://kooc.kaist.ac.kr/machinelearning1_17 인공지능 및 기계학습 개론Ⅰ 강좌소개 : edwith 본 강의는 기계 학습에 대한 이론적 지식을 확률, 통계, 최적화를 바탕으로 소개합니다. 이 과정에서
thought-process-ing.tistory.com
베이지안 확률
베이지안은 데이터가 주어진 후의 $\theta$를 추정하는 것이므로 P($\theta$|D)를 구해야 한다고 주장했다.
$$p(\theta|D) = \frac{P(D|\theta)P(\theta)}{P(D)}$$
$p(\theta|D)$는 Posterior(사후 확률)
$P(D|\theta)$는 Likelihood(가능도 함수)
$P(\theta)$는 Prior Knowledge(사전 확률)
$P(D)$는 Normalizing Constant(정규화 상수)
가능도 함수는 이전 글에서 P(D|$\theta$) = $\theta^{a_H}$ $\times$ $(1 - \theta)^{a_T}$
그런데 문제가 있다.
$\alpha$ 와 $\beta$ 를 정하는 것은 매우 중요한데 어떻게 결정할까...? (굉장히 중요한 문제!)
'머신러닝' 카테고리의 다른 글
[ML_Basic] Naive Bayes Classifier (0) | 2023.01.04 |
---|---|
[ML_Basic] Decision Boundary (0) | 2023.01.01 |
[ML_Basic] Decision Tree (의사 결정 나무) (0) | 2023.01.01 |
[ML_Basic] Rule_based machine learning (규칙 기반 기계학습) (0) | 2022.12.31 |
[ML_Basic] 기본 확률론 (0) | 2022.12.30 |
댓글