ls2021 发表于 2021-9-24 11:22

NAS更换硬盘求助

机器是威联通的NAS,本来是装了块4T的硬盘,空间不够,打算直接加18T的
买了之后插上去,发现不能够把数据转移过去,网上看到帖子说要组raid1,就组了raid1
现在两块硬盘都变成了4TB,并且把其中一块卸载后取下来,再装回去的话,就会花几十个小时重新同步。raid1也没法消除
https://i.bmp.ovh/imgs/2021/09/edfb89e12886dcfb.png
https://i.bmp.ovh/imgs/2021/09/0b9b9d99144cb182.png

Damenly 发表于 2021-9-24 11:32

没用过群晖。。。终端跑下lsblk -f 贴下信息?

moekyo 发表于 2021-9-24 11:33

数据这种东西,不搞清楚就动手了吗

13号 发表于 2021-9-24 11:35

M。
我也是刚加了硬盘,看了下没找到直接clone之类的操作, 就直接命令行rsync同步下新目录去了。
确实费了不少时间

ls2021 发表于 2021-9-24 11:37

Damenly 发表于 2021-9-24 11:32
没用过群晖。。。终端跑下lsblk -f 贴下信息?

没有这个命令
[~] # lsblk -f
-sh: lsblk: command not found
[~] # df
Filesystem                Size      Used Available Use% Mounted on
none                  400.0M    299.7M    100.3M75% /
devtmpfs                  3.8G   12.0K      3.8G   0% /dev
tmpfs                  64.0M      1.7M   62.3M   3% /tmp
tmpfs                     3.8G    160.0K      3.8G   0% /dev/shm
tmpfs                  16.0M         0   16.0M   0% /share
/dev/mmcblk0p5            7.7M   46.0K      7.7M   1% /mnt/boot_config
tmpfs                  16.0M         0   16.0M   0% /mnt/snapshot/export
/dev/md9                493.5M    152.6M    340.8M31% /mnt/HDA_ROOT
cgroup_root               3.8G         0      3.8G   0% /sys/fs/cgroup
/dev/mapper/cachedev1
                        3.5T      3.3T    179.3G95% /share/CACHEDEV1_DATA
/dev/md13               417.0M    391.1M   25.9M94% /mnt/ext
tmpfs                  48.0M   64.0K   47.9M   0% /share/CACHEDEV1_DATA/.samba/lock/msg.lock
tmpfs                  16.0M         0   16.0M   0% /mnt/ext/opt/samba/private/msg.sock
/dev/mapper/cachedev1
                        3.5T      3.3T    179.3G95% /lib/modules/4.14.24-qnap/container-station
tmpfs                   100.0K         0    100.0K   0% /share/CACHEDEV1_DATA/Container/container-station-data/lib/lxd/shmounts
tmpfs                   100.0K         0    100.0K   0% /share/CACHEDEV1_DATA/Container/container-station-data/lib/lxd/devlxd
overlay                   3.5T      3.3T    179.3G95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/e80eb64e477bbf74fb198f33e2d7ae139b7754e384c4d498f0089a5de6166b2d/merged
overlay                   3.5T      3.3T    179.3G95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/1ec283b993194b3c56bf578855a6fbfd834b79fd0af7e0e40c1f2c95009548ae/merged
overlay                   3.5T      3.3T    179.3G95% /share/CACHEDEV1_DATA/.qpkg/container-station/system-docker/overlay2/840b6855c0993090d1f56f20fd29002a4bb88d1cacc159524d028d072fd336a3/merged
overlay                   3.5T      3.3T    179.3G95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/3b87ffd6147e6ba68bf137fa6fc1c5985b04aba315a4b54bde3257d634e3808a/merged
overlay                   3.5T      3.3T    179.3G95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/0357edc6c0c7b440eafa7e5059c4301b0fca989b9b38b4d59e8d4d01fd4c30a0/merged
overlay                   3.5T      3.3T    179.3G95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/371696c22e9df12478dc43c1cf40212b4326459af5f16ae55a79a92366ad216c/merged
hdsfusemnt               16.0M         0   16.0M   0% /share/CACHEDEV1_DATA/.qpkg/HD_Station/share
[~] # mount
none on /new_root type tmpfs (rw,mode=0755,size=409600k)
/proc on /proc type proc (rw)
devpts on /dev/pts type devpts (rw)
sysfs on /sys type sysfs (rw)
tmpfs on /tmp type tmpfs (rw,size=64M)
tmpfs on /dev/shm type tmpfs (rw)
tmpfs on /share type tmpfs (rw,size=16M)
/dev/mmcblk0p5 on /mnt/boot_config type ext2 (rw)
tmpfs on /mnt/snapshot/export type tmpfs (ro)
/dev/md9 on /mnt/HDA_ROOT type ext3 (rw,data=ordered)
cgroup_root on /sys/fs/cgroup type tmpfs (rw)
none on /sys/fs/cgroup/memory type cgroup (rw,memory)
/dev/mapper/cachedev1 on /share/CACHEDEV1_DATA type ext4 (rw,usrjquota=aquota.user,jqfmt=vfsv0,user_xattr,data=ordered,data_err=abort,delalloc,nopriv,nodiscard,noacl)
cpu on /sys/fs/cgroup/cpu type cgroup (rw,cpu)
/dev/md13 on /mnt/ext type ext4 (rw,data=ordered,barrier=1,nodelalloc)
none on /sys/kernel/config type configfs (rw)
tmpfs on /share/CACHEDEV1_DATA/.samba/lock/msg.lock type tmpfs (rw,size=48M)
tmpfs on /mnt/ext/opt/samba/private/msg.sock type tmpfs (rw,size=16M)
nfsd on /proc/fs/nfsd type nfsd (rw)
/share/CACHEDEV1_DATA/.qpkg/container-station/kernel-module on /lib/modules/4.14.24-qnap/container-station type none (rw,bind)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,none,name=systemd)
hdsfusemnt on /share/CACHEDEV1_DATA/.qpkg/HD_Station/share type fuse.hdsfusemnt (rw,nosuid,nodev,allow_other)

ls2021 发表于 2021-9-24 11:41

13号 发表于 2021-9-24 11:35
M。
我也是刚加了硬盘,看了下没找到直接clone之类的操作, 就直接命令行rsync同步下新目录去了。
确实费了 ...

能说一下怎么操作吗?
我电脑只能接一块3.5寸硬盘
现在这个nas,只要缺一个硬盘就会进入降级模式,插上了另一块就会耗费几十个小时开始同步数据
能够把这个raid解除掉吗?

password 发表于 2021-9-24 11:53

本帖最后由 password 于 2021-9-24 11:55 编辑

QNAP居然是自动重建的?群晖拔盘以后不会自动重建,可以直接改成basic移数据的

查了下网上有个方法,供参考,我没用过QNAP,建议你动手前先备份数据
https://forum.qnap.com/viewtopic.php?f=25&t=150513#p732564

downforce 发表于 2021-9-24 12:10

如果电脑上原有的空闲空间不够转移数据的话。18t接在电脑上重建分区和格式化,通过SMB或FTP把nas上的数据拷过来。再把4t也接到电脑上重新分区。把18t的内容拷贝到4t上。把18t插到nas上初始化,然后再把4t里的内容拷过去。

—— 来自 OnePlus GM1910, Android 11上的 S1Next-鹅版 v2.4.4.1

macos 发表于 2021-9-24 12:16

雪影 发表于 2021-9-24 12:24

不可能没办法移,你没创建卷和池而已
我现在就是几个卷和池来回经常移

spiritseven 发表于 2021-9-24 12:24

你新建个存储池啊,不要和4t的组raid1。

—— 来自 HUAWEI NOH-AN00, Android 10上的 S1Next-鹅版 v2.4.4.1

开起 发表于 2021-9-24 16:06

拔下8T,RAID1降级
插回8T,磁盘管理设定为单盘
把降级RAID1里的数据拷到8T里
拆毁RAID1,4T重置为单盘

—— 来自 OnePlus KB2000, Android 11上的 S1Next-鹅版 v2.4.4.1

ls2021 发表于 2021-9-24 17:15

开起 发表于 2021-9-24 16:06
拔下8T,RAID1降级
插回8T,磁盘管理设定为单盘
把降级RAID1里的数据拷到8T里

拔下再插回,就自动开始恢复阵列了
关不掉raid

ls2021 发表于 2021-9-24 17:16

spiritseven 发表于 2021-9-24 12:24
你新建个存储池啊,不要和4t的组raid1。

—— 来自 HUAWEI NOH-AN00, Android 10上的 S1Next-鹅版 v2.4.4. ...

新建不了了,不知道为什么
raid1拆不掉,不管怎么样都拆不掉

ls2021 发表于 2021-9-29 18:26

https://i.bmp.ovh/imgs/2021/09/aeb4cb900e6dc1b8.png
备份Docker里面的数据的时候一直在报错,要紧吗?
Docker里面的容器我会重装的,但是那些容器里面的数据可以备份吗?

卡洛德 发表于 2021-9-29 18:51

aladeen 发表于 2021-9-29 20:54

本帖最后由 aladeen 于 2021-9-29 21:26 编辑

插任意一个盘位都会重建吗?

你换一个盘位插呢?

威联通的官方文档是说插到原来的盘位才会自动重建

恢复处于“降级”状态的 RAID 组

将每个取出的磁盘重新插入原来所在的磁盘架中。

QTS 自动开始重建 RAID 组。RAID 组状态将更改为“Rebuilding”(重建中)。完成重建后,所有受影响的存储池、卷和 LUN 的状态都将恢复正常。

黄金时代 发表于 2021-9-29 21:32

raid1哪有什么拆不掉的,关机,拿到主机上快速格式化。。。装回nas
页: [1]
查看完整版本: NAS更换硬盘求助