강좌
클라우드/리눅스에 관한 강좌입니다.
클라우드 분류

[KT클라우드]RNN-T

작성자 정보

  • 관리자 작성
  • 작성일

컨텐츠 정보

본문

RNN-T는 대표적인 음성 인식용 딥 뉴럴 네트워크 모델입니다. 사람의 말소리가 녹음된 오디오를 입력 받아 이에 대응되는 텍스트를 생성합니다.
Hyperscale AI Computing 서비스를 사용해 RNN-T 모델을 학습시키고, 또 학습된 모델을 사용해 실제 오디오를 텍스트로 변환할 수 있습니다. 학습/추론을 위한 PyTorch 스크립트와, 실제 모델 학습을 시켜 보기 위한 샘플 데이터(LibriSpeech 데이터셋의 일부)를 제공합니다. LibriSpeech 데이터셋과 호환되는 포맷의 데이터가 있다면 이를 사용해 RNN-T 모델을 학습시킬 수 있습니다.
VM 생성 권장 사양
GoogLeNet 학습을 위해서는 최소 다음 사양으로 VM을 생성하기를 권장합니다.
  • OS: Ubuntu 18.04
  • CPU: 8 vCore
  • 메인 메모리: 32 GB
  • VM 생성 시 Hyperscale AI Computing 서비스가 제공하는 여러 가지 AI 가속기 모델 중 한 가지를 선택해야 합니다. AI 가속기 모델에 따라 RNN-T모델의 학습 시간이 달라집니다. 다음 계산 성능 측정치를 참고하여 AI 가속기 모델을 선택하십시오. 다음 계산 성능 측정치를 참고하여 AI 가속기 모델을 선택하십시오. 특히 RNN-T 학습 용도로는 2xlarge.192gb 이하의 모델을 선택하시기를 권장합니다. 모델 구조 상 크기가 큰 AI 가속기에서 추가적인 성능 향상을 얻지 못할 수 있습니다. 너무 부담 가지실 필요는 없습니다 — VM을 생성한 후에도 언제든지 필요하다면 AI 가속기 모델을 다른 것으로 변경할 수 있습니다.
AI 가속기 모델학습 처리 속도(초당 이미지 학습량)샘플 데이터 1회 학습(1 epoch)시 소요 시간
small.16gb14.9개1시간 54분
medium.32gb26.0개1시간 6분
large.48gb38.6개44분 28초
large.64gb50.3개34분 10초
xlarge.96gb72.7개23분 37초
2xlarge.192gb123.4개13분 54초
위 성능은 테스트 환경에서 측정된 것으로 실 사용 환경에서는 차이가 생길 수 있습니다.
또한 VM의 reference model로는 NLP 카테고리의 RNN-T 모델을 선택하십시오. 마지막으로 "생성하기" 버튼을 클릭하면 VM 생성이 완료됩니다.
모델 코드 및 샘플 데이터 설치
VM에 접속하면 홈 디렉터리 밑에 install.sh 스크립트가 위치하고 있습니다. 이를 실행하여 RNN-T 모델 코드 및 샘플 데이터를 설치하십시오. 설치에는 수 분 정도가 걸릴 수 있습니다. 설치 중에 VM 접속이 끊어지지 않도록 유의하십시오.
설치가 완료되면 홈 디렉터리 밑에 rnnt, dataset/librispeech 디렉터리가 생성됩니다. rnnt 디렉터리에는 RNN-T 모델 학습/추론을 위한 PyTorch 스크립트가 들어 있습니다. dataset/librispeech 디렉터리에는 샘플 데이터로 사용 가능한 LibriSpeech 데이터셋의 일부가 저장되어 있습니다.
설치가 정상적으로 이루어졌다면 홈 디렉터리 밑의 downloads 디렉터리는 지워도 무방합니다.
(pytorch) ubuntu@vm:~$ ls
install.sh  sample
(pytorch) ubuntu@vm:~$ ./install.sh
 
- Installing rnnt reference code...
(중략)
Install complete!
 
- Reference code of rnnt   : [ OK    ] (Saved at /home/ubuntu/rnnt)
- Dataset librispeech      : [ OK    ] (Saved at /home/ubuntu/dataset/librispeech)
- Link dataset             : [ OK    ] (Linked dataset at /home/ubuntu/rnnt/data)
 
(pytorch) ubuntu@vm:~$ ls
dataset  downloads  install.sh  rnnt  sample
(pytorch) ubuntu@vm:~$ ls dataset
librispeech
(pytorch) ubuntu@vm:~$ ls rnnt
data  dataset  inference.py  LICENSE.md  model  NOTICE  requirements.txt  train.py  utils.py
Hyperscale AI Computing 시스템 환경 확인
VM에는 기본적으로 Python 3.8, PyTorch 1.7.1 및 Hyperscale AI Computing 지원을 위한 플러그인이 설치되어 있습니다. 다음과 같이 실행하여 PyTorch 버전 및 Hyperscale AI Computing 플러그인 버전 정보를 확인할 수 있습니다.
(pytorch) ubuntu@vm:~$ python
Python 3.8.12 (default, Oct 12 2021, 13:49:34)
[GCC 7.5.0] :: Anaconda, Inc. on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import torch
>>> torch.__version__
'1.7.1'
>>> torch.version.moreh
'0.8.0'
>>> quit()
(pytorch) ubuntu@vm:~$
또한 터미널에서 moreh-smi 명령을 실행하여 VM에 연결된 AI 가속기 정보를 확인할 수 있습니다.
(pytorch) ubuntu@vm:~$ moreh-smi
+--------------------------------------------------------------------------------------------------------------+
|  Moreh-SMI 0.8.0                                               Client Version: 0.8.0  Server Version: 0.8.0  |
+--------------------------------------------------------------------------------------------------------------+
|  Device  |        Name         |            Token           |     Model    |  Memory Usage  |  Total Memory  |
+==============================================================================================================+
|       1  |  KT AI Accelerator  |  ZXhhbXBsZSB0b2tlbiBzdHI=  |  small.16gb  |  -             |  -             |
+--------------------------------------------------------------------------------------------------------------+
 
Processes:
+----------------------------------------------------------+
|  Device  |  Job ID  |  PID  |  Process  |  Memory Usage  |
+==========================================================+
+----------------------------------------------------------+
RNN-T 학습 시작하기
홈 디렉터리 아래의 rnnt 디렉터리로 이동한 다음 train.py 스크립트를 실행하여 RNN-T 모델 학습을 시작할 수 있습니다.
(pytorch) ubuntu@vm:~$ cd ~/rnnt
(pytorch) ubuntu@vm:~/rnnt$ python train.py --save-model model.pt -b 16
| INFO     | __main__:parse_args:198 - PARAMETER | mode : train
| INFO     | __main__:parse_args:198 - PARAMETER | load_checkpoint :
| INFO     | __main__:parse_args:198 - PARAMETER | checkpoint_path : ./checkpoint
| INFO     | __main__:parse_args:198 - PARAMETER | checkpoint_epoch_interval : 0

관련자료

댓글 0
등록된 댓글이 없습니다.

공지사항


뉴스광장


  • 현재 회원수 :  60,037 명
  • 현재 강좌수 :  35,810 개
  • 현재 접속자 :  124 명