300x250
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 딥러닝
- dp
- 동적 프로그래밍
- 동적프로그래밍
- 브루트포스
- google coding competition
- nlp
- 백준
- 파이썬
- 킥스타트
- BFS
- 프로그래밍
- PYTHON
- 구글 킥스타트
- kick start
- linux
- CSS
- 운영체제
- 코딩 테스트
- 순열
- 그래프
- DFS
- 리눅스
- 코딩테스트
- OS
- AI
- 프로그래머스
- 알고리즘
- 코딩
- 네트워크
Archives
- Today
- Total
목록기계번역 (1)
오뚝이개발자
Attention is all you need(NIPS 2017) 논문 리뷰
오늘 리뷰할 논문은 구글 리서치팀에서 발표한 "Attention is all you need"(링크)이다. 해당 논문은 현대 NLP의 중요한 backbone으로 사용되는 Transformer에 관한 논문이다. 사실 원논문의 제목보다 Transformer라는 이름으로 더 많이 알려져 있다. NLP model history 그 동안 ML분야에선 vision과 관련된 분야들이 눈에 띄는 발전을 이루어 온 것에 비해 NLP 분야의 발전은 더딘 편이었다. 그러나 최근 들어 좋은 성능을 보이는 다양한 모델들이 나오면서 NLP 분야에서도 급진적인 발전이 이루어지고 있다. 이러한 NLP의 발전을 이끈 모델들의 변천사는 대략 아래와 같다. 오늘 리뷰할 Transformer 논문은 2017년에 발표된 것이다. What d..
AI/Deep Learning Paper Review
2021. 9. 17. 14:56