AI (25) 썸네일형 리스트형 GPT-2 (Generative Pre-Training 2) 소설쓰는 인공지능!본 글에서는 소설쓰는 인공지능인 GPT-2 모델의 사용법에 대해 알아보고직접 인공지능이 소설을 쓰게 해본다. 최근 인공지능의 자연어 처리에서 가장 화제가 되고있는건Bert, GPT-2, Transformer 이다. Transformer : 번역(Neural Machine Translation)Bert : 양방향 언어모델GPT-2 : 단방향 언어모델 본 글에서는 파이토치를 이용한 GPT-2(Generative Pre-Training-2)에 대해 다룬다. 보통 Tensorflow로 학습된 모델을 convert_tf_checkpoint_to_pytorch_custom.py 을 이용하여 파이토치 버전으로 바꾼다.하지만 이미 파이토치 버전으로 변환해 놓은 GPT2 pre-trained model.. 이전 1 2 3 4 다음