클라우드 분류
[KT클라우드]Transformer
작성자 정보
- 관리자 작성
- 작성일
컨텐츠 정보
- 3,006 조회
- 0 추천
- 목록
본문
Transformer 모델은 자연어 처리를 위한 딥 뉴럴 네트워크로, 기존에 사용되던 RNN, LSTM 기반 모델과 달리 장기 의존성 문제(long-term dependency)를 해결하여 일반적으로 더 높은 학습 성능을 제공합니다. 현재 널리 사용되는 GPT, BERT, T5 등의 자연어 처리 모델은 모두 Transformer 모델의 구조를 기반으로 만들어졌습니다.
Hyperscale AI Computing 서비스를 사용해 Transformer 모델을 학습시키고, 또 학습된 모델을 사용해 언어 간 기계 번역을 할 수 있습니다. 학습/추론을 위한 PyTorch 스크립트와, 실제 모델 학습을 시켜 보기 위한 샘플 데이터를 제공합니다. 샘플 데이터는 WMT 2016에서 독일어-영어 번역 작업을 위해 제공된 Multi30k 데이터셋입니다. 이 데이터셋과 호환되는 포맷의 데이터가 있다면 이를 사용해 Transformer 모델을 학습시킬 수 있습니다.
VM 생성 권장 사양
GoogLeNet 학습을 위해서는 최소 다음 사양으로 VM을 생성하기를 권장합니다.
- OS: Ubuntu 18.04
- CPU: 8 vCore
- 메인 메모리: 32 GB
- VM 생성 시 Hyperscale AI Computing 서비스가 제공하는 여러 가지 AI 가속기 모델 중 한 가지를 선택해야 합니다. AI 가속기 모델에 따라 Transformer모델의 학습 시간이 달라집니다. 다음 계산 성능 측정치를 참고하여 AI 가속기 모델을 선택하십시오. 너무 부담 가지실 필요는 없습니다 — VM을 생성한 후에도 언제든지 필요하다면 AI 가속기 모델을 다른 것으로 변경할 수 있습니다.
AI 가속기 모델 | 학습 처리 속도(초당 이미지 학습량) | 샘플 데이터 1회 학습(1 epoch)시 소요 시간 |
small.16gb | 555개 | 52초 |
medium.32gb | 814개 | 36초 |
large.48gb | 1182개 | 25초 |
large.64gb | 1525개 | 19초 |
xlarge.96gb | 1935개 | 15초 |
2xlarge.192gb | 3164개 | 9초 |
3xlarge.288gb | 3502개 | 9초 |
4xlarge.384gb | 4730개 | 6초 |
위 성능은 테스트 환경에서 측정된 것으로 실 사용 환경에서는 차이가 생길 수 있습니다.
또한 VM의 reference model로는 NLP 카테고리의 Transformer 모델을 선택하십시오. 마지막으로 "생성하기" 버튼을 클릭하면 VM 생성이 완료됩니다.
모델 코드 및 샘플 데이터 설치
VM에 접속하면 홈 디렉터리 밑에 install.sh 스크립트가 위치하고 있습니다. 이를 실행하여 Transformer 모델 코드 및 샘플 데이터를 설치하십시오. 설치에는 수 분 정도가 걸릴 수 있습니다. 설치 중에 VM 접속이 끊어지지 않도록 유의하십시오.
설치가 완료되면 홈 디렉터리 밑에 transformer, dataset/multi30k 디렉터리가 생성됩니다. transformer 디렉터리에는 Transformer 모델 학습/추론을 위한 PyTorch 스크립트가 들어 있습니다. dataset/multi30k 디렉터리에는 샘플 데이터로 사용 가능한 Multi30k 데이터셋이 저장되어 있습니다.
설치가 정상적으로 이루어졌다면 홈 디렉터리 밑의 downloads 디렉터리는 지워도 무방합니다.
(pytorch) ubuntu@vm:~$ ls
install.sh sample
(pytorch) ubuntu@vm:~$ ./install.sh
- Installing transformer reference code...
(중략)
Install complete!
- Reference code of transformer : [ OK ] (Saved at /home/ubuntu/transformer)
- Dataset multi30k : [ OK ] (Saved at /home/ubuntu/dataset/multi30k)
- Link dataset : [ OK ] (Linked dataset at /home/ubuntu/transformer/data)
(pytorch) ubuntu@vm:~$ ls
dataset install.sh sample transformer
(pytorch) ubuntu@vm:~$ ls dataset
multi30k
(pytorch) ubuntu@vm:~$ ls transformer
data preprocess.py train.py transformers.py LICENSE inference.py requirements.txt transformer utils.py
Hyperscale AI Computing 시스템 환경 확인
VM에는 기본적으로 Python 3.8, PyTorch 1.7.1 및 Hyperscale AI Computing 지원을 위한 플러그인이 설치되어 있습니다. 다음과 같이 실행하여 PyTorch 버전 및 Hyperscale AI Computing 플러그인 버전 정보를 확인할 수 있습니다.
(pytorch) ubuntu@vm:~$ python
Python 3.8.12 (default, Oct 12 2021, 13:49:34)
[GCC 7.5.0] :: Anaconda, Inc. on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import torch
>>> torch.__version__
'1.7.1'
>>> torch.version.moreh
'0.8.0'
>>> quit()
(pytorch) ubuntu@vm:~$
또한 터미널에서 moreh-smi 명령을 실행하여 VM에 연결된 AI 가속기 정보를 확인할 수 있습니다.
(pytorch) ubuntu@vm:~$ moreh-smi
+--------------------------------------------------------------------------------------------------------------+
| Moreh-SMI 0.8.0 Client Version: 0.8.0 Server Version: 0.8.0 |
+--------------------------------------------------------------------------------------------------------------+
| Device | Name | Token | Model | Memory Usage | Total Memory |
+==============================================================================================================+
| 1 | KT AI Accelerator | ZXhhbXBsZSB0b2tlbiBzdHI= | small.16gb | - | - |
+--------------------------------------------------------------------------------------------------------------+
Processes:
+----------------------------------------------------------+
| Device | Job ID | PID | Process | Memory Usage |
+==========================================================+
+----------------------------------------------------------+
Transformer 학습 시작하기
홈 디렉터리 아래의 transformer 디렉터리로 이동한 다음 train.py 스크립트를 실행하여 AlexNet 모델 학습을 시작할 수 있습니다.
(pytorch) ubuntu@vm:~$ cd ~/transformer
(pytorch) ubuntu@vm:~/transformer$ python train.py --save-model model.pt -b 256
"무단배포금지: 클라우드포털(www.linux.co.kr)의 모든 강좌는 저작권에 의해 보호되는 콘텐츠입니다. 무단으로 복제하여 배포하는 행위는 금지되어 있습니다."
관련자료
-
링크
-
이전
-
다음
댓글 0
등록된 댓글이 없습니다.