300x250
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 |
Tags
- BFS
- 코딩 테스트
- 동적프로그래밍
- kick start
- 구글 킥스타트
- 동적 프로그래밍
- 리눅스
- 파이썬
- AI
- 네트워크
- 코딩
- 코딩테스트
- 그래프
- CSS
- 킥스타트
- 딥러닝
- DFS
- nlp
- dp
- 프로그래밍
- 브루트포스
- 운영체제
- OS
- linux
- 프로그래머스
- 알고리즘
- PYTHON
- google coding competition
- 순열
- 백준
Archives
- Today
- Total
목록2022/06 (2)
오뚝이개발자
1초 단위로 GPU 사용량과 메모리 확인하기(GPU 모니터링)
모델 학습을 돌리다보면 GPU 상태를 모니터링해야 되는 경우가 종종 있다. 내가 지정한 GPU로 프로그램이 잘 돌아가고 있는지, GPU 메모리가 학습이 진행되는 정도에 따라 얼만큼 점유되고 있는지, GPU 사용률이 충분히 높게 잡히고 있는지 같은 사항들을 확인해야 되는 경우들이 그러하다. 이럴 땐 아래의 커맨드로 확인이 가능하다. 리눅스 커맨드 창에 아래와 같은 명령어를 입력하면 1초 단위로 갱신되는 GPU 상태를 모니터링할 수 있다. watch -n -1 nvidia-smi
AI/AI 개발
2022. 6. 28. 20:54
허깅페이스(Huggingface) 모델 inference(pipeline) GPU로 돌리기
허깅페이스를 사용하다보면 이미 만들어진 모델을 불러와서 inference만 하고자 하는 때가 있다. 가령 이미 학습된 NER 모델을 불러와 데이터 처리를 한다거나, Summarization 모델을 불러와서 필요한 문서에 대한 summarization을 수행하려고 하는 경우가 그러하다. 보통 이런 때엔 허깅페이스의 pipeline 기능을 사용한다. 그런데 처리하고자 하는 데이터가 대용량인 경우 시간이 오래 걸리는 경우가 많다. 이런 때 GPU를 사용해 model infernece를 돌리는 방법에 대해 소개한다. 참고로 이 방법은 실험을 하면서 내가 필요했던 기능인데 구글 검색을 통해 찾아봐도 나오지 않아서 ...ㅜㅜ 혼자 공식문서를 읽어서 파악하고 직접 실험을 돌리며 알아낸 것이다....! from tra..
AI/AI 개발
2022. 6. 26. 22:30