본문 바로가기
728x90

분류 전체보기432

[NLP] Basics of Recurrent Neural Networks(RNNs) 사실 이전에 [DL]에서 배운 적이 있어서 쓴 적이 있다. 아래를 먼저 참고하는 것이 좋다. https://thought-process-ing.tistory.com/5 [DL] Recurrent Neural Networks(RNN), Transformer Recurrent Neural Networks(RNN) RNN은 주어진 모델 자체가 Sequential Model이다. 즉 연속된 순서가 존재하는 모델로 비디오, 텍스트등이 여기에 속한다고 생각하면 된다. Sequential Data에서의 RNN 모델의 성능은 thought-process-ing.tistory.com RNN Basic structure: Rolled Version RNN 과 Unrolled version RNN으로 표현할 수 있다.(등식.. 2021. 9. 10.
[NLP] 자연어처리란? 자연어처리 Natural Language Processing(NLP) NLP란? (NLP = NLU + NLG) Text 데이터를 분석하고 모델링하는 분야를 '자연어 처리(Natural Language Processing, NLP)'라고 한다. 이는 자연어를 이해하는 영억인 '자연어 이해(Natural Language Understanding, NLU)'와 모델이 자연어를 생성하는 영역인 '자연어 생성(Natural Language Generation, NLG)' 으로 나뉘어 표현하기도 한다. Natural language processing (major conferences: ACL, EMNLP, NAACL) Low- level parsing Tokenization(토큰화) : 텍스트를 토큰으로 나누는.. 2021. 9. 6.
2021_08_31_(화) 보호되어 있는 글 입니다. 2021. 8. 31.
Ensemble(앙상블) Ensemble(앙상블) 실험을 하다 보면 여러가지 모델을 여러 결과를 만들었을 것이다. 앙상블은 싱글 모델(하나의 모델)보다 더 나은 성능을 위해 서로 다른 여러 학습 모델을 사용 하는 것이다. 앙상블은 현업에서 많이 쓰지는 않는다. (빠른 속도가 중요하기 때문) 성능이 좋아야 하는 대회와 같은 도메인(domain)에서는 알고 있는 것이 좋다. Ensemble of Deep NN (Bagging, Boosting,Stacking) 기존에 [DL Basic] 03강 Bootstrapping 과정에서 Bargain, Boosting에 대해서 배웠었다. https://thought-process-ing.tistory.com/3 [DL] 최적화 (Optimization) Optimization 어떤일을 하던 .. 2021. 8. 27.
728x90