본문 바로가기
머신러닝

[ML_Basic] 베이지안 확률론

by Alan_Kim 2022. 12. 30.
728x90
반응형

강의 참고

https://kooc.kaist.ac.kr/machinelearning1_17/

 

인공지능 및 기계학습 개론Ⅰ 강좌소개 : edwith

본 강의는 기계 학습에 대한 이론적 지식을 확률, 통계, 최적화를 바탕으로 소개합니다. 이 과정에서 다양한 확률 이론 및 통계 방법론을 설명하며, 최적화 방법을 소개하고, Naiv... - KAIST 산업및

kooc.kaist.ac.kr

 

이 내용은 아래 내용에 이어진 내용입니다. 따라서 이 내용을 먼저 읽기를 권장합니다.

 

https://thought-process-ing.tistory.com/70

 

[ML_Basic] 기본 확률론

강의 참고 https://kooc.kaist.ac.kr/machinelearning1_17 인공지능 및 기계학습 개론Ⅰ 강좌소개 : edwith 본 강의는 기계 학습에 대한 이론적 지식을 확률, 통계, 최적화를 바탕으로 소개합니다. 이 과정에서

thought-process-ing.tistory.com

 

베이지안 확률

베이지안은 데이터가 주어진 후의 $\theta$를 추정하는 것이므로 P($\theta$|D)를 구해야 한다고 주장했다.

$$p(\theta|D) =  \frac{P(D|\theta)P(\theta)}{P(D)}$$

$p(\theta|D)$는 Posterior(사후 확률)

$P(D|\theta)$는 Likelihood(가능도 함수)

$P(\theta)$는 Prior Knowledge(사전 확률)

$P(D)$는 Normalizing Constant(정규화 상수)

 

가능도 함수는 이전 글에서 P(D|$\theta$) =  $\theta^{a_H}$ $\times$ $(1 - \theta)^{a_T}$

 

 

 

그런데 문제가 있다.

$\alpha$ 와 $\beta$ 를 정하는 것은 매우 중요한데 어떻게 결정할까...? (굉장히 중요한 문제!)

 

728x90
반응형

댓글