You are currently viewing 볼륨 용량 확장하기(SHR-2,raid6 스토리지 풀의 디스크를 교체하기)

볼륨 용량 확장하기(SHR-2,raid6 스토리지 풀의 디스크를 교체하기)

볼륨의 용량이 부족합니다.

사용 가능한 용량이 부족하다는 메일이 수신됩니다. 메일이 처음 왔을 때는 사용 가능한 용량이 20%였는데요. 점점 줄어들어서 이제는 1%도 남지 않았습니다. DS918+ 제품에 6TB 디스크 4개를 SHR-2(레이드6)로 사용하고 있는데요. 디스크를 더 큰 용량으로 교체해서 볼륨의 용량을 확장하려고 합니다.

사용자님께,

NAS에 있는 볼륨 1 (SHR, btrfs)의 사용 가능한 용량이 부족합니다. 일부 파일을 삭제하여 공간을 확보하거나 여기를 참조하여 드라이브 추가 방법을 알아보거나 여기를 참조하여 드라이브를 교체하여 볼륨 용량을 확장하는 방법을 알아보십시오.

총 용량: 10722.09GB
사용 가능한 용량: 53.48GB(0.50%)

NAS에서 보냄

볼륨 사용량
스토리지 풀

스토리지 풀의 레이드 유형은  SHR-2(raid6)이고 6TB 용량의 디스크 4개를 사용하고 있습니다.

소요시간 : 4일    어려움 : ★★★★

12TB 디스크로 교체합니다.

6TB 디스크를 모두 12TB로 교체합니다. 디스크의 용량이 2배로 커지므로 4개 모두 교체한 이후에는 볼륨의 용량도 2배 늘어납니다. 디스크 한 개를 교체하는데 15시간이 소요됩니다. 레이드6이므로 레이드5를 사용하는 경우보다 한결 마음 편하게 교체작업을 진행할 수 있습니다. 

드라이브 1 교체를 완료함.
디스크 한 개 교체 완료
디스크 3개를 교체함
디스크 세 개 교체 완료
교체 후에 예상되는 용량
마지막 디스크를 교체하는 과정
디스크 4개를 모두 교체 완료함.
디스크 네 개 교체 완료

디스크를 모두 교체하면 볼륨의 크기가 10.5TB에서 20.9TB로 확장됩니다. 교체작업에 소요된 총 시간은 하루에 한 개씩 교체해서 4일이 걸렸습니다.

궁금하면 ↓↓↓↓

12TB + 12TB = 24TB
root@NAS:~# parted /dev/sda print free
Model: ATA ST12000VN0008-2P (scsi)
Disk /dev/sda: 12.0TB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
        17.4kB  1049kB  1031kB  Free Space
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
        4699MB  4840MB  142MB   Free Space
 5      4840MB  6001GB  5996GB                        raid
        6001GB  6001GB  8241kB  Free Space
 6      6001GB  12.0TB  5993GB                        raid
        12.0TB  12.0TB  6147MB  Free Space

root@NAS:~# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1]
md3 : active raid6 sdd6[3] sdc6[2] sdb6[1] sda6[0]
      11704908672 blocks super 1.2 level 6, 64k chunk, algorithm 2 [4/4] [UUUU]

md2 : active raid6 sdd5[4] sdc5[7] sdb5[6] sda5[5]
      11711382912 blocks super 1.2 level 6, 64k chunk, algorithm 2 [4/4] [UUUU]

md1 : active raid1 sdd2[3] sdc2[2] sdb2[1] sda2[0]
      2097088 blocks [4/4] [UUUU]

md0 : active raid1 sdd1[3] sdc1[2] sdb1[1] sda1[0]
      2490176 blocks [4/4] [UUUU]

unused devices: <none>
root@NAS:~# lvm pvs
  PV         VG     Fmt  Attr PSize  PFree
  /dev/md2   vg1000 lvm2 a--  10.91t    0
  /dev/md3   vg1000 lvm2 a--  10.90t    0
root@NAS:~# lvm vgs
  VG     #PV #LV #SN Attr   VSize  VFree
  vg1000   2   1   0 wz--n- 21.81t    0
root@NAS:~# lvm lvs
  LV   VG     Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  lv   vg1000 -wi-ao---- 21.81t
root@NAS:~#

SHR을 사용하므로 12TB 디스크에는 교체하기 전 디스크(6TB 디스크)와의 차이(6TB)만큼 추가적인 파티션이 생성됩니다. 결국 6TB 크기의 파티션이 두 개 생성됩니다.

앞쪽의 6TB 파티션 4개는 raid6 방식의 12TB 공간(md2)이 되고, 뒤쪽의 6TB 파티션 4개도 raid6 방식의 12TB 공간(md3)이 됩니다. 두 개의 12TB 공간은 lvm을 사용해서 합쳐지고 최종적으로 24TB 크기의 공간(스토리지 풀)이 됩니다.

앞쪽의 6TB 파티션. recovery. 수리 중...

앞쪽의 6TB 파티션으로 만든 공간(md2)은 mdstat 파일에서 “recovery”로, 저장소 관리자에서 “수리”로 표기됩니다.

root@NAS:~# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1]
md2 : active raid6 sdd5[4] sdc5[7] sdb5[6] sda5[5]
      11711382912 blocks super 1.2 level 6, 64k chunk, algorithm 2 [4/3] [UUU_]
      [>....................]  recovery =  0.0% (4242112/5855691456) finish=666.6min speed=146279K/sec

md1 : active raid1 sdd2[3] sdc2[2] sdb2[1] sda2[0]
      2097088 blocks [4/4] [UUUU]

md0 : active raid1 sdd1[3] sdc1[2] sdb1[1] sda1[0]
      2490176 blocks [4/4] [UUUU]

unused devices: <none>
root@NAS:~#
수리중...
뒤쪽의 6TB 파티션. resync. 최적화 중...

뒤쪽의 6TB 파티션으로 만든 공간(md3)은 mdstat 파일에서 “resync”로, 저장소 관리자에서 “최적화”로 표기됩니다. 최적화가 시작되면 곧바로 스토리지 풀의 크기와 볼륨의 크기가 확장됩니다.

root@NAS:~# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1] 
md3 : active raid6 sdd6[3] sdc6[2] sdb6[1] sda6[0]
      11704908672 blocks super 1.2 level 6, 64k chunk, algorithm 2 [4/4] [UUUU]
      [==================>..]  resync = 93.9% (5495792896/5852454336) finish=84.1min speed=70648K/sec
      
md2 : active raid6 sdd5[4] sdc5[7] sdb5[6] sda5[5]
      11711382912 blocks super 1.2 level 6, 64k chunk, algorithm 2 [4/4] [UUUU]
      
md1 : active raid1 sdd2[3] sdc2[2] sdb2[1] sda2[0]
      2097088 blocks [4/4] [UUUU]
      
md0 : active raid1 sdd1[3] sdc1[2] sdb1[1] sda1[0]
      2490176 blocks [4/4] [UUUU]
      
unused devices: <none>
root@NAS:~#
최적화 중...
12TB 디스크의 처리량

앞쪽의 6TB 파티션으로 만든 공간(md2)에는 지금까지의 데이터가 들어 있습니다. 디스크를 교체하면 새 디스크에 그 데이터를 기록해야 하므로 읽기와 쓰기가 동시에 발생합니다. 만약 사용자가 데이터를 사용하면(볼륨을 사용하면) 디스크가 해야할 일이 늘어나므로 읽기, 쓰기 속도가 떨어집니다.

뒤쪽의 6TB 파티션으로 만든 공간(md3)에는 아무 데이터가 들어 있지 않습니다. 나스에 새 디스크를 장착하고 raid6 볼륨을 생성하는 경우와 마찬가지로 쓰기는 발생하지 않고 읽기만 발생합니다.

수리하는 도중에 4번 디스크의 처리량 그래프
디스크의 처리량 기록
⑥ 2023/03/07 11:34:49	SYSTEM	System successfully optimized [Storage Pool 1].
⑤ 2023/03/07 00:47:53	userXXX	System successfully repaired [Storage Pool 1] with drive [Drive 4].
⑤ 2023/03/06 13:25:22	userXXX	System started to repair [Storage Pool 1] with [Drive 4].
⑤ 2023/03/06 13:18:04	SYSTEM	Storage Pool [1] degraded [3/4 of drives remaining]. Please repair it.
⑤ 2023/03/06 13:18:03	userXXX	Drive (SN:WD-WX11D29LXXXX) has been deactivated.

④ 2023/03/04 03:07:15	userXXX	System successfully repaired [Storage Pool 1] with drive [Drive 3].
④ 2023/03/03 11:48:00	userXXX	System started to repair [Storage Pool 1] with [Drive 3].
④ 2023/03/03 11:43:10	SYSTEM	Storage Pool [1] degraded [3/4 of drives remaining]. Please repair it.
④ 2023/03/03 11:43:08	userXXX	Drive (SN:WD-WX21D290XXXX) has been deactivated.

③ 2023/03/03 05:59:01	userXXX	System successfully repaired [Storage Pool 1] with drive [Drive 2].
③ 2023/03/02 14:26:12	userXXX	System started to repair [Storage Pool 1] with [Drive 2].
③ 2023/03/02 14:23:55	SYSTEM	Storage Pool [1] degraded [3/4 of drives remaining]. Please repair it.
③ 2023/03/02 14:23:54	userXXX	Drive (SN:WD-WX31D96RXXXX) has been deactivated.

② 2023/03/01 08:42:20	userXXX	Update was complete.

① 2023/03/01 07:06:49	userXXX	System successfully repaired [Storage Pool 1] with disk [드라이브 1].
① 2023/02/28 15:27:46	SYSTEM	System successfully checked consistency of System Volume [Root].
① 2023/02/28 15:27:16	SYSTEM	System successfully checked consistency of System Volume [Swap].
① 2023/02/28 15:26:50	userXXX	System starts to repair [Storage Pool 1] with disk [드라이브 1].
① 2023/02/28 15:21:25	SYSTEM	Storage Pool [1] was degrade [3/4], please repair it.
① 2023/02/28 15:21:23	userXXX	Drive (SN:WD-WX31D96KXXXX) has been deactivated.

디스크를 교체하는 과정은 로그센터에 기록되어 있습니다. “repaired”는 앞쪽의 6TB 파티션을 수리한 기록이고, “optimized”는 뒤쪽의 6TB 파티션을 최적화한 기록입니다.

답글 남기기