You are currently viewing 볼륨 용량 확장하기(4베이에서 8베이로 교체하기) 

볼륨 용량 확장하기(4베이에서 8베이로 교체하기) 

4베이에서 8베이로 교체하려고 합니다.

볼륨을 거의 다 사용했습니다.  DS918+ 4베이 제품에 4TB, 4TB, 4TB, 8TB 디스크를 사용하고 있습니다. 나스를 8베이 제품으로 교체하고 디스크를 추가로 장착해서 볼륨의 용량을 확장하려고 합니다.

스토리지 풀 상태
볼륨이 꽉 찼습니다.
디스크와 볼륨의 관계
디스크 - 스토리지 풀 - 볼륨의 관계

디스크 4개를 3개의 볼륨으로 사용하고 있습니다. 볼륨 1은 RAID 1 유형의 스토리지 풀을 사용하고 여유 공간이 남아있습니다. 볼륨 2는 기본 유형의 스토리지 풀을 사용하고 여유 공간이 없습니다. 볼륨 3은 SHR 유형의 스토리지 풀을 사용하고 여유 공간이 없습니다.

소요시간 : 4일    어려움 : ★★★★★

드라이브를 추가하여 볼륨 3의 용량을 확장합니다.

데이터가 대부분 볼륨 3에 저장되어 있습니다. 또한 볼륨 3은 디스크 한 개만 사용하고 있어서 디스크 고장시 데이터가 손실될 수 있습니다. 이런 이유로 볼륨 3의 스토리지 풀을 레이드 5로 변경해서 용량을 확장하고 디스크 고장에도 대비 합니다. 

나스에 ‘클라우드 스테이션 서버’ 패키지가 설치되어 있는데요. 이 패키지가 생성한 파일(공유 폴더의 과거 버전 파일)이 볼륨 1과 볼륨 2의 용량을 대부분 차지하고 있습니다. 하지만 ‘클라우드 스테이션 서버’ 패키지를 사용하지 않습니다. 패키지를 삭제해서 볼륨 1과 볼륨 2에 빈 공간을 확보합니다.

볼륨 2도 디스크 한 개만 사용하고 있어서 디스크 고장시에 데이터 손실이 발생할 수 있습니다. 볼륨 2의 데이터(공유 폴더)를 볼륨 1로 이동해서 디스크 고장으로 인한 데이터 손실의 위험을 줄입니다.

DS1821+와 8TB 디스크를 3개 준비해서 다음과 같이 진행합니다.

  1. DS918+에서 ‘클라우드 스테이션 서버’ 패키지 삭제하기.
  2. DS918+에서 DSM을 7로 업그레이드 하기.
  3. DS918+의 디스크를 DS1821+로 마이그레이션 하기.
  4. DS1821+에서 볼륨 2의 공유 폴더를 볼륨 1로 이동하기.
  5. DS1821+에서 볼륨 3의 스토리지 풀에 디스크 3개 추가하기.
디스크를 추가한 뒤 디스크와 볼륨의 관계
DS1821+로 교체하고 8TB 디스크를 3개 추가한 결과.
'클라우드 스테이션 서버' 패키지 삭제하기.
볼륨2에 생성한 공유 폴더의 크기.
볼룸 2에 만든 공유 폴더의 크기

볼륨 2는 사용량 3.5TB 중에서 620GB만 공유 폴더가 차지하는 용량입니다. 나머지는 ‘클라우드 스테이션 서버’ 패키지의 데이터가 차지하는 용량입니다.

'클라우드 스테이션 서버' 패키지를 삭제합니다.
삭제하면 그 즉시 볼륨에 여유 공간이 생깁니다.
DSM을 7로 업그레이드 하기.
DSM7로 업그레이드합니다.
DSM 7로 업그레이드합니다.
DS1821+로 마이그레이션 하기.
DS1821+로 마이그레이션합니다.
DS918+를 DS1821+로 교체함.
DS918+를 DS1821+로 교체합니다.
볼륨 2의 공유 폴더를 볼륨 1로 이동하기.
공유 폴더를 다른 볼륨으로 이동합니다.

‘공유 폴더 편집’하는 화면에서 ‘위치’를 ‘볼륨 1’로 변경하면 공유 폴더가 ‘볼륨 1’로 이동됩니다. 이동하는 동안에는 해당 공유 폴더를 사용하지 못합니다. 620GB의 용량을 이동하는데 90분이 걸렸습니다.

볼륨 3의 스토리지 풀에 디스크 3개 추가하기.

스토리지 풀의 레이드 유형이 SHR입니다. SHR은 디스크(정확하게는 파티션) 개수에 따라서 레이드 유형을 자동으로 변경해 줍니다. 2개는 레이드 1으로, 3개 이상은 레이드 5로 변경해줍니다. 따라서 ‘드라이브 추가’를 클릭해야 합니다. ‘RAID 유형 변경’은 SHR-2(레이드 6)로 변경하는 기능입니다.

'드라이브 추가' 버튼을 클릭한다.
'드라이브 추가'를 클릭합니다.
추가할 디스크를 선택한다.
추가로 장착한 디스크를 모두 선택합니다.
1번째 디스크를 추가하는 중.
1단계. 드라이브 5를 추가하는 과정입니다.
2번째 디스크를 추가하는 중.
2단계. 드라이브 6을 추가하는 과정입니다.
3번째 디스크를 추가하는 중.
3단계. 드라이브 7을 추가하는 과정입니다.
드라이브 추가하는 작업이 완료됨.
용량을 확장하는 작업이 완료되었습니다.

궁금하면 ↓↓↓↓

root@NAS:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid1 sda3[0] sdb3[1]
      3902196544 blocks super 1.2 [2/2] [UU]

md3 : active raid1 sdc3[0]
      3902196544 blocks super 1.2 [1/1] [U]

md4 : active raid1 sdd5[0]
      7809195456 blocks super 1.2 [1/1] [U]

md1 : active raid1 sda2[0] sdb2[1] sdc2[2] sdd2[3]
      2097088 blocks [4/4] [UUUU]

md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3]
      2490176 blocks [4/4] [UUUU]

unused devices: <none>
root@NAS:~# df -h
Filesystem         Size  Used Avail Use% Mounted on
/dev/md0           2.3G  1.1G  1.2G  48% /
none               1.9G     0  1.9G   0% /dev
/tmp               1.9G  2.5M  1.9G   1% /tmp
/run               1.9G   18M  1.9G   1% /run
/dev/shm           1.9G  4.0K  1.9G   1% /dev/shm
none               4.0K     0  4.0K   0% /sys/fs/cgroup
cgmfs              100K     0  100K   0% /run/cgmanager/fs
/dev/vg2/volume_2  3.5T  3.5T     0 100% /volume2
/dev/vg1000/lv     7.0T  7.0T  104M 100% /volume3
/dev/vg1/volume_1  3.5T  2.2T  1.4T  61% /volume1
root@NAS:~# ls -al /volume1
total 3748
drwxr-xr-x   1 root  root      318 Nov  7 10:04 .
drwxr-xr-x  25 root  root     4096 Nov  7 10:04 ..
d---------+  1 root  root      108 Apr 17  2020 DIR_A
drwxr-xr-x   1 root  root       60 Jan 21  2019 @appstore
drwx------   1 root  root        0 Mar 11  2021 @autoupdate
drwxr-xr-x   1 root  root       32 Jan 21  2019 @cloudstation
drwxr-xr-x   1 root  root       32 Jan 21  2019 @CloudStationClient
drwxr-xr-x   1 admin users      76 Dec 17  2018 @database
drwxrwxrwx+  1 root  root      130 Apr 16  2020 @eaDir
drwxr-xr-x   1 root  root       24 Dec 17  2018 @S2S
drwxr-xr-x   1 root  root       12 Dec 19  2018 @sharesnap
-rw-------   1 root  users 4153344 Mar 20  2019 @SYNO.FolderShar.core
drwxrwxrwt   1 root  root       90 Mar 13 09:53 @tmp
d---------+  1 root  root      154 Dec 22 11:01 DIR_B
d---------+  1 root  root      594 Apr 14  2020 DIR_C
d---------+  1 root  root      616 Nov 26  2020 DIR_D
d---------+  1 root  root      342 Jan 12 17:09 DIR_E
d---------+  1 root  root     1696 Mar  7 17:21 DIR_F
root@NAS:~# ls -al /volume2
total 4
drwxr-xr-x   1 root root  100 Nov  7 10:04 .
drwxr-xr-x  25 root root 4096 Nov  7 10:04 ..
drwxr-xr-x   1 root root   10 Jan 21  2019 @cloudstation
drwxr-xr-x   1 root root   18 Jul 17  2020 @database
drwxrwxrwx+  1 root root   40 Dec 19  2018 @eaDir
drwxr-xr-x   1 root root   16 Dec 19  2018 @sharesnap
drwxrwxrwx   1 root root   56 Nov  7 10:05 @tmp
d---------+  1 root root  660 May 29  2020 DIR_G
root@NAS:~# ls -al /volume3
total 4
drwxr-xr-x   1 root       root        122 Nov  7 10:04 .
drwxr-xr-x  25 root       root       4096 Nov  7 10:04 ..
drwxrwxrwx+  1 root       root         44 Jul  3  2020 @eaDir
drwxr-xr-x   1 root       root         88 Nov  7 10:04 @S2S
drwxr-xr-x   1 SynoFinder SynoFinder   26 Mar 11  2021 @SynoFinder-etc-volume
drwxr-xr-x   1 root       root         84 Jul  3  2020 @SynoFinder-log
drwxrwxrwt   1 root       root         34 Nov  7 10:05 @tmp
d---------+  1 root       root       1950 Mar 10 11:03 DIR_H
root@NAS:~# du -d1 -h /volume1/\@cloudstation
2.1T    /volume1/@cloudstation/@sync
64K     /volume1/@cloudstation/@clientd
101M    /volume1/@cloudstation/log
2.1T    /volume1/@cloudstation
root@NAS:~# du -d1 -h /volume1/\@cloudstation/\@sync
0       /volume1/@cloudstation/@sync/log
0       /volume1/@cloudstation/@sync/rm
3.6G    /volume1/@cloudstation/@sync/view
110M    /volume1/@cloudstation/@sync/file
2.0T    /volume1/@cloudstation/@sync/repo
80G     /volume1/@cloudstation/@sync/delta
380K    /volume1/@cloudstation/@sync/node_delta
2.1T    /volume1/@cloudstation/@sync
root@NAS:~# du -d1 -h /volume2
16K     /volume2/@eaDir
4.0K    /volume2/@sharesnap
627G    /volume2/DIR_G
3.9T    /volume2/@cloudstation
4.0K    /volume2/@database
0       /volume2/@tmp
4.5T    /volume2
root@NAS:~# du -d1 -h /volume2/\@cloudstation
3.9T    /volume2/@cloudstation/@sync
3.9T    /volume2/@cloudstation
root@NAS:~# du -d1 -h /volume2/\@cloudstation/\@sync/
3.8T    /volume2/@cloudstation/@sync/repo
93G     /volume2/@cloudstation/@sync/delta
0       /volume2/@cloudstation/@sync/node_delta
3.9T    /volume2/@cloudstation/@sync/
root@NAS:~#
root@NAS:~#

Cloud Station Server 패키지를 삭제 함.

root@NAS:~#
root@NAS:~#
root@NAS:~#
root@NAS:~# ls -al /volume1
total 3748
drwxr-xr-x   1 root  root      292 Mar 13 10:29 .
drwxr-xr-x  25 root  root     4096 Nov  7 10:04 ..
d---------+  1 root  root      108 Apr 17  2020 DIR_A
drwxr-xr-x   1 root  root       36 Mar 13 10:30 @appstore
drwx------   1 root  root        0 Mar 11  2021 @autoupdate
drwxr-xr-x   1 root  root       32 Jan 21  2019 @CloudStationClient
drwxr-xr-x   1 admin users      76 Dec 17  2018 @database
drwxrwxrwx+  1 root  root      130 Apr 16  2020 @eaDir
drwxr-xr-x   1 root  root       24 Dec 17  2018 @S2S
drwxr-xr-x   1 root  root       12 Dec 19  2018 @sharesnap
-rw-------   1 root  users 4153344 Mar 20  2019 @SYNO.FolderShar.core
drwxrwxrwt   1 root  root       90 Mar 13 09:53 @tmp
d---------+  1 root  root      154 Dec 22 11:01 DIR_B
d---------+  1 root  root      594 Apr 14  2020 DIR_C
d---------+  1 root  root      616 Nov 26  2020 DIR_D
d---------+  1 root  root      342 Jan 12 17:09 DIR_E
d---------+  1 root  root     1696 Mar  7 17:21 DIR_F
root@NAS:~# ls -al /volume2
total 4
drwxr-xr-x   1 root root   74 Mar 13 10:30 .
drwxr-xr-x  25 root root 4096 Nov  7 10:04 ..
drwxr-xr-x   1 root root   18 Jul 17  2020 @database
drwxrwxrwx+  1 root root   40 Dec 19  2018 @eaDir
drwxr-xr-x   1 root root   16 Dec 19  2018 @sharesnap
drwxrwxrwx   1 root root   56 Nov  7 10:05 @tmp
d---------+  1 root root  660 May 29  2020 DIR_G
root@NAS:~#
Broadcast message from root@NAS
        (unknown) at 10:33 ...

The system is going down for reboot NOW!

‘클라우드 스테이션 서버’ 패키지는 과거 버전의 파일을 ‘/volumeX/@cloudstation/@sync/repo’ 디렉토리에 보관합니다.

디스크 사용량 그래프. raid1으로 변경하는 과정.
레이드 1으로 변경하는 과정.

‘단계 : 1/3’에서는 드라이브 4에 드라이브 5를 추가해서 레이드 1으로 변경합니다.

읽기 : 드라이브 4
쓰기 : 드라이브 5
소요 시간 : 15시간 20분

디스크 사용량 그래프. raid5로 변경하는 과정.
레이드 5로 변경하는 과정.

‘단계 : 2/3’에서는 드라이브 6을 추가해서 디스크 3개를 사용하는 레이드 5로 변경합니다.

읽기 : 드라이브 4, 5
쓰기 : 드라이브 4, 5, 6
소요 시간 : 35시간 30분

디스크 사용량 그래프. raid5에서 디스크를 추가하는 과정.
레이드 5의 용량을 확장하는 과정.

‘단계 : 3/3’에서는 드라이브 7을 추가해서 디스크 3개로 구성된 레이드 5의 용량을 확장합니다.

읽기 : 드라이브 4, 5, 6
쓰기 : 드라이브 4, 5, 6, 7
소요 시간 : 35시간 20분

# 2단계. 5시간 40분 경과.
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1] 
md4 : active raid5 sata6p5[2] sata5p5[1] sata4p5[0]
      7809195456 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
      [==>..................]  reshape = 14.8% (1161509888/7809195456) finish=2329.7min speed=47555K/sec

# 2단계. 14시간 40분 경과.
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1] 
md4 : active raid5 sata6p5[2] sata5p5[1] sata4p5[0]
      7809195456 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
      [======>..............]  reshape = 31.7% (2481243136/7809195456) finish=2206.1min speed=40250K/sec

# 2단계. 29시간 경과. 읽기가 발생하지 않아서 속도가 빨라짐.
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1] 
md4 : active raid5 sata6p5[2] sata5p5[1] sata4p5[0]
      7809195456 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
      [=============>.......]  reshape = 68.1% (5324958208/7809195456) finish=331.8min speed=124778K/sec

# 3단계. 5시간 10분 경과.
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1] 
md4 : active raid5 sata7p5[3] sata6p5[2] sata5p5[1] sata4p5[0]
      15618390912 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
      [===>.................]  reshape = 15.2% (1194437248/7809195456) finish=1938.4min speed=56872K/sec

# 3단계. 18시간 30분 경과.
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1] 
md4 : active raid5 sata7p5[3] sata6p5[2] sata5p5[1] sata4p5[0]
      15618390912 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
      [=========>...........]  reshape = 49.7% (3884790016/7809195456) finish=2591.1min speed=25242K/sec

# 3단계. 29시간 20분 경과. 읽기가 발생하지 않아서 속도가 빨라짐.
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1] 
md4 : active raid5 sata7p5[3] sata6p5[2] sata5p5[1] sata4p5[0]
      15618390912 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
      [=============>.......]  reshape = 69.0% (5393952288/7809195456) finish=301.0min speed=133697K/sec

# 완료 후.
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1] 
md4 : active raid5 sata7p5[3] sata6p5[2] sata5p5[1] sata4p5[0]
      23427586368 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

답글 남기기