Skip to content

thisisHJLee/fine-tuning-kogpt2

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

6 Commits
 
 
 
 

Repository files navigation

fine-tuning-kogpt2

Introduction

SKT가 공개한 KoGPT2 모델을 한국어 노래가사 20곡을 이용해 파인튜닝하였습니다. 적은 데이터로도 가사를 꽤 잘 생성합니다. 더 큰 데이터를 사용하면 성능도 더 좋아질 것으로 보입니다.

About KoGPT2

KoGPT-2는 한국어로 학습된 오픈소스 기반 GPT-2 모델로, 질문에 대한 응답 생성, 문장 완성, 챗봇 등 한국어 해석이 필요한 여러 애플리케이션의 머신러닝 성능을 향상할 수 있습니다. GPT-2는 머신러닝 알고리즘을 활용해 입력된 샘플 텍스트를 구문론적, 문법적, 정보 등의 일관성을 갖춘 텍스트로 생성하는 자연어 처리 모델입니다. KoGPT-2는 챗봇 구축, 텍스트 감성 예측, 텍스트 분석 기반 응답 생성에 사용될 수 있습니다.

Requirements

Windows 10 Pro
Python 3.8.16
Torch 1.8.0
CUDA 11.1
cuDnn 8.5.0

References

About

No description or website provided.

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published