강좌
클라우드/리눅스에 관한 강좌입니다.
클라우드 분류

네이버클라우드 실무사용법014 : 리눅스서버의 OS영역을 스냅샷 생성하여 다른서버의 추가스토리지로 생성하기

작성자 정보

  • 관리자 작성
  • 작성일

컨텐츠 정보

본문

리눅스서버의 OS영역을 스냅샷 생성하여 다른서버의 추가스토리지로 생성하기

 


2번서버의 OS영역(기본스토리지) 스냅샷 생성하여 1번서버의 추가스토리지로 생성하기

 


1.  2번서버의 기본스토리지 스냅샷 생성

Server > Storage > “2번리눅스서버의 기본스토리지 선택” > “스토리지 설정” > 스냅샷생성


2420209719cffc021205a4286a6166be_1694739596_5746.png
 


2.  스토리지 스냅샷 생성 확인

Server > Snapshot > 생성된 스냅샷 확인

 



3.  생성한 스냅샷으로 스토리지 생성


Server > Snapshot > 생성한 스냅샷 선택(ss-test-linux02-os-snap) > +스토리지생성 >

  .스토리지 이름 : ss-linux01-snap-disk
  .Zone : KR-2
  .
스토리지종류 : HDD
  .
서버선택 : ss-test-linux01
  .
크기 : 50GB


이렇게 하면… linux01 서버에서 (2번서버의 os영역 스냅샷으로 생성한)스토리지를 확인할 수 있다.

 


4.  UUID 중복으로 에러발생 및 해결하기


리눅스1번에 ssh로 원격접속하여 마운트를 진행하면 다음과 같이 오류 발생한다.

 
원인은 UUID 중복 때문이다.

다음은 리눅스1번서버에서 lsblk로 방금 추가한 스토리지가 xvde에 할당되어 있는 것을 확인할 수있다.


 

[root@ss-test-linux01 ~]# lsblk

NAME            MAJ:MIN RM SIZE RO TYPE MOUNTPOINT

xvda            202:0    0  50G  0 disk

├─xvda1         202:1    0   1G  0 part /boot

└─xvda2         202:2    0  49G  0 part /

xvdb            202:16   0  20G  0 disk

└─xvdb1         202:17   0  10G  0 part

xvdc            202:32   0  10G  0 disk

└─xvdc1         202:33   0  10G  0 part

  └─lvmVG-lvmLV 253:0    0  20G  0 lvm  /lvm

xvdd            202:48   0  10G  0 disk

└─xvdd1         202:49   0  10G  0 part

  └─lvmVG-lvmLV 253:0    0  20G  0 lvm  /lvm

xvde            202:64   0  50G  0 disk

├─xvde1         202:65   0   1G  0 part

└─xvde2         202:66   0  49G  0 part

[root@ss-test-linux01 ~]#

 


마운트 에러 발생


[root@ss-test-linux01 ~]# mkdir /disk2

[root@ss-test-linux01 ~]#

[root@ss-test-linux01 ~]# mount /dev/xvde2 /disk2

mount: /disk2: wrong fs type, bad option, bad superblock on /dev/xvde2, missing codepage or helper program, or other error.

[root@ss-test-linux01 ~]#

 


UUID 리스트 확인하기


모든 디스크에 할당된 UUID를 다음과 같이 확인해 보면.. 아래와 같이 UUID가 중복되어 있음을 알수 있다.

[root@ss-test-linux01 ~]# blkid

/dev/xvda1: UUID="d95e3752-8d43-4af3-898e-4d312facf522" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="c0214863-01"

/dev/xvda2: UUID="c78179f8-fbff-456e-b77c-26010001fee6" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="c0214863-02"

/dev/xvdb1: UUID="7c361dc3-e3b0-419f-bc20-62f8988340c5" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="0ee5a53a-01"

/dev/xvdc1: UUID="FPE0Lo-do8a-wGLv-jfUN-oRRh-tVEm-QKIx7r" TYPE="LVM2_member" PARTUUID="859e840e-01"

/dev/xvdd1: UUID="zEtlDR-XbKK-vT8K-7Czx-FXvT-6D0q-00PI5E" TYPE="LVM2_member" PARTUUID="ed2907f4-01"

/dev/mapper/lvmVG-lvmLV: UUID="20626e48-ada7-4ead-b6e7-38d290d093ee" BLOCK_SIZE="4096" TYPE="ext4"

/dev/xvde1: UUID="d95e3752-8d43-4af3-898e-4d312facf522" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="c0214863-01"

/dev/xvde2: UUID="c78179f8-fbff-456e-b77c-26010001fee6" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="c0214863-02"

[root@ss-test-linux01 ~]#

 


UUID 생성하기

 

[root@ss-test-linux01 ~]# uuidgen

a1414656-a4d0-4c9a-bec0-f8bd74c210e1

[root@ss-test-linux01 ~]#

 

[root@ss-test-linux01 ~]# xfs_repair -L /dev/xvde2

Phase 1 - find and verify superblock...

Phase 2 - using internal log

        - zero log...

        - scan filesystem freespace and inode maps...

        - found root inode chunk

Phase 3 - for each AG...

        - scan and clear agi unlinked lists...

        - process known inodes and perform inode discovery...

        - agno = 0

        - agno = 1

        - agno = 2

        - agno = 3

        - process newly discovered inodes...

Phase 4 - check for duplicate blocks...

        - setting up duplicate extent list...

        - check for inodes claiming duplicate blocks...

        - agno = 0

        - agno = 1

        - agno = 2

        - agno = 3

Phase 5 - rebuild AG headers and trees...

        - reset superblock...

Phase 6 - check inode connectivity...

        - resetting contents of realtime bitmap and summary inodes

        - traversing filesystem ...

        - traversal finished ...

        - moving disconnected inodes to lost+found ...

Phase 7 - verify and correct link counts...

Maximum metadata LSN (7:11369) is ahead of log (1:2).

Format log to cycle 10.

done

[root@ss-test-linux01 ~]#

 


UUID 재 설정하기

 

생성한 UUID/dev/xvde2 에 다음과 같이 할당한다.

 

[root@ss-test-linux01 ~]# xfs_admin -U a1414656-a4d0-4c9a-bec0-f8bd74c210e1 /dev/xvde2

Clearing log and setting UUID

writing all SBs

new UUID = a1414656-a4d0-4c9a-bec0-f8bd74c210e1

[root@ss-test-linux01 ~]#

[root@ss-test-linux01 ~]# blkid

/dev/xvda1: UUID="d95e3752-8d43-4af3-898e-4d312facf522" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="c0214863-01"

/dev/xvda2: UUID="c78179f8-fbff-456e-b77c-26010001fee6" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="c0214863-02"

/dev/xvdb1: UUID="7c361dc3-e3b0-419f-bc20-62f8988340c5" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="0ee5a53a-01"

/dev/xvdc1: UUID="FPE0Lo-do8a-wGLv-jfUN-oRRh-tVEm-QKIx7r" TYPE="LVM2_member" PARTUUID="859e840e-01"

/dev/xvdd1: UUID="zEtlDR-XbKK-vT8K-7Czx-FXvT-6D0q-00PI5E" TYPE="LVM2_member" PARTUUID="ed2907f4-01"

/dev/mapper/lvmVG-lvmLV: UUID="20626e48-ada7-4ead-b6e7-38d290d093ee" BLOCK_SIZE="4096" TYPE="ext4"

/dev/xvde1: UUID=" d95e3752-8d43-4af3-898e-4d312facf522" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="c0214863-01"

/dev/xvde2: UUID="a1414656-a4d0-4c9a-bec0-f8bd74c210e1" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="c0214863-02"

[root@ss-test-linux01 ~]#

 


다시 마운트 하기

 

이번에는 UUID가 중복되지 않았기 때문에 마운트가 정상적으로 수행된다.

 

[root@ss-test-linux01 ~]# mount /dev/xvde2 /disk2

[root@ss-test-linux01 ~]#

 


마운트 정보 확인하기


  . lsblk
또는 df로 마운트된 것을 확인한다.

 

[root@ss-test-linux01 ~]# lsblk

NAME            MAJ:MIN RM SIZE RO TYPE MOUNTPOINT

xvda            202:0    0  50G  0 disk

├─xvda1         202:1    0   1G  0 part /boot

└─xvda2         202:2    0  49G  0 part /

xvdb            202:16   0  20G  0 disk

└─xvdb1         202:17   0  10G  0 part

xvdc            202:32   0  10G  0 disk

└─xvdc1         202:33   0  10G  0 part

  └─lvmVG-lvmLV 253:0    0  20G  0 lvm  /lvm

xvdd            202:48   0  10G  0 disk

└─xvdd1         202:49   0  10G  0 part

  └─lvmVG-lvmLV 253:0    0  20G  0 lvm  /lvm

xvde            202:64   0  50G  0 disk

├─xvde1         202:65   0   1G  0 part

└─xvde2         202:66   0  49G  0 part /disk2

[root@ss-test-linux01 ~]#

[root@ss-test-linux01 ~]# df

Filesystem              1K-blocks    Used Available Use% Mounted on

devtmpfs                  1881300       0   1881300   0% /dev

tmpfs                     1899800       0   1899800   0% /dev/shm

tmpfs                     1899800    8708   1891092   1% /run

tmpfs                     1899800       0   1899800   0% /sys/fs/cgroup

/dev/xvda2               51354116 3843180  47510936   8% /

/dev/xvda1                1038336  257140    781196  25% /boot

tmpfs                      379960       0    379960   0% /run/user/0

/dev/mapper/lvmVG-lvmLV  20503120   45080  19393492   1% /lvm

/dev/xvde2               51354116 3613388  47740728   8% /disk2

[root@ss-test-linux01 ~]#

 


Disk2 디렉토리에서 기존 내용 확인하기


리눅스2번서버의 os영역스냅샷으로 생성한 스토리지를 리눅스1번서버에 추가한 것이기 때문에 기존 내용이 그대로 보인다.


 

[root@ss-test-linux01 ~]# ls -l /disk2

total 20

lrwxrwxrwx.   1 root root    7 Oct 11  2021 bin -> usr/bin

drwxr-xr-x.   2 root root    6 Sep 30  2022 boot

drwxr-xr-x.   2 root root    6 Sep 30  2022 dev

drwxr-xr-x. 102 root root 8192 Aug 16 15:48 etc

drwxr-xr-x.   3 root root   20 Aug 16 13:51 home

drwxr-xr-x    3 root root   20 Nov  4  2022 home1

lrwxrwxrwx.   1 root root    7 Oct 11  2021 lib -> usr/lib

lrwxrwxrwx.   1 root root    9 Oct 11  2021 lib64 -> usr/lib64

drwxr-xr-x    2 root root   48 Aug 16 17:38 lost+found

drwxr-xr-x.   2 root root    6 Oct 11  2021 media

drwxr-xr-x.   2 root root    6 Oct 11  2021 mnt

drwxr-xr-x.   2 root root    6 Oct 11  2021 opt

drwxr-xr-x.   2 root root    6 Sep 30  2022 proc

dr-xr-x---.   2 root root  112 Nov  4  2022 root

drwxr-xr-x.   2 root root    6 Sep 30  2022 run

lrwxrwxrwx.   1 root root    8 Oct 11  2021 sbin -> usr/sbin

drwxr-xr-x.   2 root root    6 Oct 11  2021 srv

drwxr-xr-x.   2 root root    6 Sep 30  2022 sys

drwxrwxrwt.   9 root root 4096 Aug 16 17:22 tmp

drwxr-xr-x.  13 root root  158 Sep 30  2022 usr

drwxr-xr-x.  21 root root 4096 Sep 30  2022 var

[root@ss-test-linux01 ~]#

 


새로 생성한UUID를 추가한 디스크파티션에 할당한다.

 

[root@ss-test-linux01 ~]# xfs_admin -U a1414656-a4d0-4c9a-bec0-f8bd74c210e1 /dev/xvde2

Clearing log and setting UUID

writing all SBs

new UUID = a1414656-a4d0-4c9a-bec0-f8bd74c210e1

[root@ss-test-linux01 ~]#

 

 


추가로 UUID가 중복되어 있는 /dev/xvde1 파티션도 새롭게 UUID를 할당해준다.


 

[root@ss-test-linux01 ~]# uuidgen

21c5f5d6-b6a4-4010-9403-00f442b2de58

[root@ss-test-linux01 ~]#

[root@ss-test-linux01 ~]# xfs_admin -U 21c5f5d6-b6a4-4010-9403-00f442b2de58 /dev/xvde1

Clearing log and setting UUID

writing all SBs

new UUID = 21c5f5d6-b6a4-4010-9403-00f442b2de58

[root@ss-test-linux01 ~]#

[root@ss-test-linux01 ~]# blkid

/dev/xvda1: UUID="d95e3752-8d43-4af3-898e-4d312facf522" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="c0214863-01"

/dev/xvda2: UUID="c78179f8-fbff-456e-b77c-26010001fee6" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="c0214863-02"

/dev/xvdb1: UUID="7c361dc3-e3b0-419f-bc20-62f8988340c5" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="0ee5a53a-01"

/dev/xvdc1: UUID="FPE0Lo-do8a-wGLv-jfUN-oRRh-tVEm-QKIx7r" TYPE="LVM2_member" PARTUUID="859e840e-01"

/dev/xvdd1: UUID="zEtlDR-XbKK-vT8K-7Czx-FXvT-6D0q-00PI5E" TYPE="LVM2_member" PARTUUID="ed2907f4-01"

/dev/mapper/lvmVG-lvmLV: UUID="20626e48-ada7-4ead-b6e7-38d290d093ee" BLOCK_SIZE="4096" TYPE="ext4"

/dev/xvde1: UUID="21c5f5d6-b6a4-4010-9403-00f442b2de58" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="c0214863-01"

/dev/xvde2: UUID="a1414656-a4d0-4c9a-bec0-f8bd74c210e1" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="c0214863-02"

[root@ss-test-linux01 ~]#



앞전에서는 /dev/xvda1/dev/xvde1UUID가 중복되어 있었으나 이번에는 중복되지 않았음을 확인할 수 있다.

 

이렇게 UUID 중복문제를 완벽하게 해결 하였다.

 


관련자료

댓글 0
등록된 댓글이 없습니다.

공지사항


뉴스광장


  • 현재 회원수 :  60,035 명
  • 현재 강좌수 :  35,798 개
  • 현재 접속자 :  151 명