Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 최단경로
- Level1
- ODQA
- dfs
- 개인회고
- 단계별문제풀이
- 기술면접
- dp
- 알고리즘_스터디
- 부스트캠프_AITech3기
- 백트랙킹
- 이진탐색
- 구현
- 그래프이론
- 파이썬 3
- 주간회고
- 알고리즘스터디
- 정렬
- 글또
- 프로그래머스
- 백준
- 그리디
- python3
- 다시보기
- 부스트캠프_AITech_3기
- U_stage
- Level2_PStage
- 이코테
- mrc
- Level2
Archives
- Today
- Total
목록Light-weight Models (1)
국문과 유목민

해당 일일리포트에서는 네이버 커넥트에서 진행하는 '부스트캠프 AI Tech 3기'에서 배운 내용을 다루고 있습니다. 저작권 이슈 때문에 관련 자료를 올릴 수는 없기에 핵심 이론과 코드를 요약해서 올리고 있기에 내용이 부족할 수 있습니다. ▶ Today I Learned (핵심 요약 정리) Recent Trendes in NLP 기존 Transformer에서 Self-Attention block을 6개만 쌓아다면 이제는 더 많이 쌓고 있다. Self-supervised Learning framework를 통해 깊게 쌓인 Transformer를 TransferLearning으로 학습해 다양한 NLP Task의 성능을 상당히 발전시킬 수 있었다. 해당 모델로는 BERT, GPT-3, XLNet, ALBERT,..
IT 견문록/2022_부스트캠프 AITech 3기(100일)
2022. 3. 17. 15:57