
강의 참고
https://kooc.kaist.ac.kr/machinelearning1_17/
인공지능 및 기계학습 개론Ⅰ 강좌소개 : edwith
본 강의는 기계 학습에 대한 이론적 지식을 확률, 통계, 최적화를 바탕으로 소개합니다. 이 과정에서 다양한 확률 이론 및 통계 방법론을 설명하며, 최적화 방법을 소개하고, Naiv... - KAIST 산업및
kooc.kaist.ac.kr
이 내용은 아래 내용에 이어진 내용입니다. 따라서 이 내용을 먼저 읽기를 권장합니다.
https://thought-process-ing.tistory.com/70
[ML_Basic] 기본 확률론
강의 참고 https://kooc.kaist.ac.kr/machinelearning1_17 인공지능 및 기계학습 개론Ⅰ 강좌소개 : edwith 본 강의는 기계 학습에 대한 이론적 지식을 확률, 통계, 최적화를 바탕으로 소개합니다. 이 과정에서
thought-process-ing.tistory.com
베이지안 확률
베이지안은 데이터가 주어진 후의 θ를 추정하는 것이므로 P(θ|D)를 구해야 한다고 주장했다.
p(θ|D)는 Posterior(사후 확률)
P(D|θ)는 Likelihood(가능도 함수)
P(θ)는 Prior Knowledge(사전 확률)
P(D)는 Normalizing Constant(정규화 상수)
가능도 함수는 이전 글에서 P(D|θ) = θaH × (1−θ)aT
그런데 문제가 있다.
α 와 β 를 정하는 것은 매우 중요한데 어떻게 결정할까...? (굉장히 중요한 문제!)
'머신러닝' 카테고리의 다른 글
[ML_Basic] Naive Bayes Classifier (0) | 2023.01.04 |
---|---|
[ML_Basic] Decision Boundary (0) | 2023.01.01 |
[ML_Basic] Decision Tree (의사 결정 나무) (0) | 2023.01.01 |
[ML_Basic] Rule_based machine learning (규칙 기반 기계학습) (0) | 2022.12.31 |
[ML_Basic] 기본 확률론 (0) | 2022.12.30 |
댓글