NaverBoostCamp AI-Tech 5기/주간 학습회고

[NaverBoostCamp] 4월 5주차 학습회고

uomnf97 2023. 4. 7. 20:31

AI-Tech 5기

1. What I Learned...

이번주는 도메인 관련 NLP 강의를 듣는 두번째 주였다. 이번주 강의에서는 Seq2seq 모델 부터 BERT 모델까지 많은 내용의 모델에 대해 배웠다. sequence to sequence 모델의 기본적인 구조인 Encode, Decoder 구조, 그리고 발전된 seq2seq with Attention 모델까지 공부하였고, 최근에 가장 각광받고 기본이 되는 모델인 Transformer 모델과 Attention module 그리고, multi head Attention의 연산방식까지 학습했다. 이후에는 GPT-1, BERT 등 새롭게 출시된 다양한 모델의 기본적인 컨셉에 대해서 학습을 한 뒤 2주간의 짧지만 긴 커리큘럼이 마무리 됬다. 특히 이번주에는 과제가 어려웠는데 Byte Pair Encoding 그리고 Padding 등 추가적으로 개념에 대해서 찾아보고 코딩을 해야했지만,무사히 잘 마무리 했고 멘토링에서 "Attention is All You Need"라는 논문을 리뷰했는데 멘토링과 학습이 시너지가 나서   리뷰 및 학습이 잘 되었다고 생각한다.

2. Study Evaluation

지난 주차에 이어서 이번 주차에서도 학업에서의 관점에서 뿐만 아니라 소통의 관점에서도 기술하려고 한다.

+)잘했던것, 좋았던 것, 계속할 것😊😄

  • 학습 부분 :
    • 이번주에 Github 특강, Transformer 논문 리뷰 등 스페어 타임이 많이 없어 강의를 듣고 과제를 하는게 쉽지 않았는데 무사히 모든 일정을 잘 마무리 했다. 
    • 과제 코드가 어려웠는데, 문제 지문 개념들을 추가적으로 찾아보며 완벽하게 이해한 뒤 코드를 잘 마무리 지었다. 
    • 논문 리뷰 파트를 세세하게 잘 리뷰하여 마무리를 하였고, 만족스러운 첫 협업 결과물을 만들어냈다.
  • 소통 & 협업 부분 :
    • 스페셜 피어세션 때 재밌는 분위기에서 잘 마무리 되었다. 계속해서 좋은 팀원들과 함께 하는 부분도 있겠지만, 나름 분위기를 띄우고 이야기하는 스킬이 생긴 것 같아서 뿌듯하다. 
    • 보다 더 차분하게 이야기할 수 있었다. 최근에 스스로 이야기가 붕뜬다고 생각한 부분이 있었는데 그런 느낌을 스스로에게 지울 수 있어서 좋았다. 

(-) 잘못했던 것, 아쉬운 것, 부족한 것 -> 개선방향 😢😤

  • 학습 부분 :
    • 주말 시간을 잘 활용해야겠다. 사실 몇주째 주말을 잘 활용하자고 다짐은 하고 있지만 잘 이행되고 있지 않다. 포기하지 말고 주말을 잘 이용해보자.
    • 내용이 많다보니 블로그 포스팅을 하지 못했다. 주말에라도 좋으니 하나라도 포스팅해보자.
  • 소통 & 협업 부분 :
    • 한번 더 생각하고 말하자. 성격이 급해서 말을 먼저 하는 경향이 있는데 중간에 생각이 엉켜서 말도 꼬이는 것 같다. 보다 내가 아는 내용을 잘 전달 할 수 있도록 잘 전달하는 연습을 해야겠다. 

(!) 도전할 것, 시도할 것🏹🏋️

  • 학습 부분 : 기술블로그에 1개 이상 기록하기 + 1일 1 커밋하기
  • 소통 부분 : 한번 더 생각하고 말하기

(-) 키워드(공부한 것, 알게 된 것, 느낀 점)📖🙇🏻‍♂️

  • 소통 부분 : 틀린다고 해서 혹은 다르다고 해서 위축될 필요가 없다.
  • 학업 부분 : 
    • 키워드 : Github 기초(repository, issue, push, pull), seq2seq with Attention, BPE, Bucket Padding, Transformer, BERT, GPT 1,2,3, Multi head Attention