Processing math: 100%
본문 바로가기
머신러닝

[ML_Basic] 베이지안 확률론

by Alan_Kim 2022. 12. 30.
728x90
반응형

강의 참고

https://kooc.kaist.ac.kr/machinelearning1_17/

 

인공지능 및 기계학습 개론Ⅰ 강좌소개 : edwith

본 강의는 기계 학습에 대한 이론적 지식을 확률, 통계, 최적화를 바탕으로 소개합니다. 이 과정에서 다양한 확률 이론 및 통계 방법론을 설명하며, 최적화 방법을 소개하고, Naiv... - KAIST 산업및

kooc.kaist.ac.kr

 

이 내용은 아래 내용에 이어진 내용입니다. 따라서 이 내용을 먼저 읽기를 권장합니다.

 

https://thought-process-ing.tistory.com/70

 

[ML_Basic] 기본 확률론

강의 참고 https://kooc.kaist.ac.kr/machinelearning1_17 인공지능 및 기계학습 개론Ⅰ 강좌소개 : edwith 본 강의는 기계 학습에 대한 이론적 지식을 확률, 통계, 최적화를 바탕으로 소개합니다. 이 과정에서

thought-process-ing.tistory.com

 

베이지안 확률

베이지안은 데이터가 주어진 후의 θ를 추정하는 것이므로 P(θ|D)를 구해야 한다고 주장했다.

p(θ|D)=P(D|θ)P(θ)P(D)

p(θ|D)는 Posterior(사후 확률)

P(D|θ)는 Likelihood(가능도 함수)

P(θ)는 Prior Knowledge(사전 확률)

P(D)는 Normalizing Constant(정규화 상수)

 

가능도 함수는 이전 글에서 P(D|θ) =  θaH × (1θ)aT

 

 

 

그런데 문제가 있다.

αβ 를 정하는 것은 매우 중요한데 어떻게 결정할까...? (굉장히 중요한 문제!)

 

728x90
반응형

댓글