300x250
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- DFS
- 그래프
- nlp
- 코딩 테스트
- 알고리즘
- dp
- 동적 프로그래밍
- 운영체제
- CSS
- 프로그래머스
- 파이썬
- 코딩
- 브루트포스
- 동적프로그래밍
- kick start
- 백준
- linux
- 코딩테스트
- PYTHON
- google coding competition
- OS
- BFS
- 네트워크
- 프로그래밍
- 구글 킥스타트
- 킥스타트
- 순열
- 리눅스
- 딥러닝
- AI
Archives
- Today
- Total
목록realformer (1)
오뚝이개발자
RealFormer : Transformer Likes Residual Attention 논문 리뷰
오늘 리뷰할 논문은 구글 리서치팀에서 발표한 "RealFormer : Transformer Likes Residual Attention"(링크)이다. 해당 논문은 Transformer와 Attention의 후속 연구 같은 느낌이니 두 개념에 대해 먼저 알고 본 포스팅을 보는 것을 추천한다. 무슨 논문이지? 쉽게 말해, RealFormer는 기존의 Transformer의 성능을 향상시키는 방법에 대한 논문이다. 그런데 기존 Transformer의 2개의 canonical한 구조 Pre-LN, Post-LN에서 약간의 구조적인 변화를 주어 이러한 성능 향상을 이끌어 내는 것이다. 정확히는 Resnet의 개념을 Transformer에 접목하여서 말이다. 이에 대해선 뒤에서 더 자세히 설명하겠다. 그렇게 만들어..
AI/Deep Learning Paper Review
2021. 9. 12. 14:38