300x250
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 리눅스
- 킥스타트
- 네트워크
- 딥러닝
- 프로그래밍
- 동적프로그래밍
- linux
- 알고리즘
- 코딩
- CSS
- AI
- dp
- 그래프
- 백준
- 코딩테스트
- BFS
- PYTHON
- 구글 킥스타트
- 브루트포스
- 운영체제
- OS
- 파이썬
- google coding competition
- 프로그래머스
- nlp
- kick start
- 동적 프로그래밍
- DFS
- 코딩 테스트
- 순열
Archives
- Today
- Total
오뚝이개발자
허깅페이스(Huggingface) custom loss로 Trainer 학습시키기 본문
728x90
300x250
허깅페이스의 transformers 패키지를 사용할 때 custom loss로 최적화를 해야하는 경우가 있다. 이럴 땐 Trainer클래스를 상속받아 새로운 CustomTrainer 클래스를 만들고 그 안의 compute_loss 함수를 새로 작성해주면 된다.
from torch import nn
from transformers import Trainer
class CustomTrainer(Trainer):
def compute_loss(self, model, inputs, return_outputs=False):
labels = inputs.get("labels")
# forward pass
outputs = model(**inputs)
logits = outputs.get("logits")
# compute custom loss (suppose one has 3 labels with different weights)
loss_fct = nn.CrossEntropyLoss(weight=torch.tensor([1.0, 2.0, 3.0]))
loss = loss_fct(logits.view(-1, self.model.config.num_labels), labels.view(-1))
return (loss, outputs) if return_outputs else loss
compute_loss 내에서 본인이 원하는 loss를 구해 최적화하도록 코드를 바꿔주면 된다.
728x90
300x250
'AI > AI 개발' 카테고리의 다른 글
허깅페이스(Huggingface) transformers로 early stopping 사용하기 (0) | 2022.03.28 |
---|---|
텍스트로부터 키워드 추출하기(KeyBERT) (0) | 2022.02.21 |
허깅페이스(Huggingface)로 내 모델 포팅(porting)하기 (0) | 2022.01.20 |
[Anaconda] conda 가상환경 remove, copy, rename (0) | 2021.12.31 |
ML개발 GPU 사용 환경 세팅하기(Anaconda, Tensorflow, Keras, CUDA, cuDNN) (2) | 2021.11.15 |
Comments