300x250
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- linux
- 네트워크
- DFS
- 파이썬
- 구글 킥스타트
- nlp
- dp
- google coding competition
- 알고리즘
- 리눅스
- AI
- 동적 프로그래밍
- PYTHON
- 킥스타트
- 운영체제
- 코딩
- 프로그래머스
- OS
- CSS
- 코딩 테스트
- 동적프로그래밍
- kick start
- 백준
- 코딩테스트
- 그래프
- 순열
- 프로그래밍
- 딥러닝
- BFS
- 브루트포스
Archives
- Today
- Total
목록norm (1)
오뚝이개발자

L1, L2 regularization은 모두 overfitting을 막기 위해 사용된다. 두 개념을 알기 위해 필요한 사전개념들이 있다. 이들을 순차적으로 알아보자. Norm Norm은 벡터의 크기(길이)를 측정하는 방법(혹은 함수)이다. 두 벡터 사이의 거리를 측정하는 방법이기도 하다. - p는 Norm의 차수, p=1이면 L1 Norm이고, p=2이면 L2 Norm - n은 해당 벡터의 원소 수 L1 Norm - L1 Norm은 쉽게 말해 벡터 p,q의 각 원소들의 차이의 절댓값의 합 L2 Norm - L2 Norm은 벡터 p, q의 직선 거리 - q가 원점이라면 벡터 p, q의 L2 Norm은 벡터 p의 원점으로부터의 직선거리 L1 Norm과 L2 Norm의 차이 - 검정색 두 점 사이의 L1 N..
AI/밑바닥딥러닝1
2020. 6. 28. 22:08