300x250
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 킥스타트
- PYTHON
- linux
- 리눅스
- 구글 킥스타트
- 운영체제
- 프로그래밍
- OS
- 딥러닝
- 코딩테스트
- DFS
- 프로그래머스
- 백준
- 순열
- CSS
- kick start
- 동적 프로그래밍
- 브루트포스
- AI
- 알고리즘
- nlp
- 네트워크
- 코딩
- 동적프로그래밍
- google coding competition
- 그래프
- 코딩 테스트
- 파이썬
- BFS
- dp
Archives
- Today
- Total
목록batch size (1)
오뚝이개발자
[AI/ML] 배치(batch)와 에폭(epoch), 적절한 배치 사이즈(batch size)
많이들 헷갈리는 개념 중 하나가 바로 배치(batch)와 에폭(epoch)이다. 둘은 서로 다른 개념이지만 모두 학습의 성능을 결정하는 중요한 요소이다. 배치와 에폭의 개념 딥러닝에서 모델이 전체 학습 데이터를 한 번씩 본 것을 '에폭을 돌았다'라고 표현한다. 모델은 가중치를 한 번 업데이트하기 위해 한 개 이상의 훈련 데이터 묶음을 사용하는데, 이것을 배치라고 하고 이 묶음의 사이즈가 바로 배치 사이즈(batch size)이다. 따라서 배치 사이즈에 따라 에폭 당 훈련 횟수가 달라진다. 배치 크기와 모델 훈련 시간의 관계 100개의 훈련 데이터를 가지고 80에폭 동안 훈련시킨다고 가정해보자. 배치 크기=1이면, 모델은 1에폭 당 100번 훈련(가중치 업데이트), 총 8000번 훈련 배치 크기=10이면,..
AI/AI 개념
2022. 1. 27. 20:33