1. What I Learned... 이번주는 도메인 관련 NLP 강의를 듣는 두번째 주였다. 이번주 강의에서는 Seq2seq 모델 부터 BERT 모델까지 많은 내용의 모델에 대해 배웠다. sequence to sequence 모델의 기본적인 구조인 Encode, Decoder 구조, 그리고 발전된 seq2seq with Attention 모델까지 공부하였고, 최근에 가장 각광받고 기본이 되는 모델인 Transformer 모델과 Attention module 그리고, multi head Attention의 연산방식까지 학습했다. 이후에는 GPT-1, BERT 등 새롭게 출시된 다양한 모델의 기본적인 컨셉에 대해서 학습을 한 뒤 2주간의 짧지만 긴 커리큘럼이 마무리 됬다. 특히 이번주에는 과제가 어려웠는데..