KoGPT2 챗봇
1.0.0
공개된 한글 챗봇 데이터와 pre-trained KoGPT2를 이용한 간단한 챗봇 실험
KoGPT2
의 다양한 활용 가능성을 타진하고 성능을 정성적으로 평가한다.
학습 데이터에 적합하게 Hello! GPT-2를 응용, 아래와 같은 아키텍처를 설계함
데이터의 Q 필드를
발화, A 필드를
발화 그리고 감정 레이블을
로 매핑해 P(
를 최대화 할 수 있는 모델을 학습한다. 감정 레이블은 이곳의 정의를 따른다(일상다반사 0, 이별(부정) 1, 사랑(긍정) 2).
git clone --recurse-submodules https://github.com/haven-jeon/KoGPT2-chatbot.gitcd KoGPT2-chatbot pip3 install -r requirements.txt
CUDA_VISIBLE_DEVICES=0 python train_torch.py --gpus 1 --train --max_epochs 2
# CUDA_VISIBLE_DEVICES=0 python train.py --chatCUDA_VISIBLE_DEVICES=0 python train_torch.py --gpus 1 --chat user > 대박 Simsimi > 잘 될 거예요. user > 너 이름이 뭐니?Simsimi > 저는 위로봇입니다. user > 어버이날엔 뭘 하죠?Simsimi > 저랑 놀아요. user > 비가와 Simsimi > 우산 챙기세요. user > 눈이와 Simsimi > 눈사람 만들어보세요. user > 천둥이 쳐 Simsimi > 저도 보고 싶어요. user > 봄이왔어. Simsimi > 봄은 항상 두근거려요. user > 배탈났어. Simsimi > 얼른 집에 가서 쉬세요. user > 너를 만든 사람은?Simsimi > 당신이 만든 사람이에요.
PyTorch