NAS更换硬盘求助
机器是威联通的NAS,本来是装了块4T的硬盘,空间不够,打算直接加18T的买了之后插上去,发现不能够把数据转移过去,网上看到帖子说要组raid1,就组了raid1
现在两块硬盘都变成了4TB,并且把其中一块卸载后取下来,再装回去的话,就会花几十个小时重新同步。raid1也没法消除
https://i.bmp.ovh/imgs/2021/09/edfb89e12886dcfb.png
https://i.bmp.ovh/imgs/2021/09/0b9b9d99144cb182.png
没用过群晖。。。终端跑下lsblk -f 贴下信息? 数据这种东西,不搞清楚就动手了吗 M。
我也是刚加了硬盘,看了下没找到直接clone之类的操作, 就直接命令行rsync同步下新目录去了。
确实费了不少时间 Damenly 发表于 2021-9-24 11:32
没用过群晖。。。终端跑下lsblk -f 贴下信息?
没有这个命令
[~] # lsblk -f
-sh: lsblk: command not found
[~] # df
Filesystem Size Used Available Use% Mounted on
none 400.0M 299.7M 100.3M75% /
devtmpfs 3.8G 12.0K 3.8G 0% /dev
tmpfs 64.0M 1.7M 62.3M 3% /tmp
tmpfs 3.8G 160.0K 3.8G 0% /dev/shm
tmpfs 16.0M 0 16.0M 0% /share
/dev/mmcblk0p5 7.7M 46.0K 7.7M 1% /mnt/boot_config
tmpfs 16.0M 0 16.0M 0% /mnt/snapshot/export
/dev/md9 493.5M 152.6M 340.8M31% /mnt/HDA_ROOT
cgroup_root 3.8G 0 3.8G 0% /sys/fs/cgroup
/dev/mapper/cachedev1
3.5T 3.3T 179.3G95% /share/CACHEDEV1_DATA
/dev/md13 417.0M 391.1M 25.9M94% /mnt/ext
tmpfs 48.0M 64.0K 47.9M 0% /share/CACHEDEV1_DATA/.samba/lock/msg.lock
tmpfs 16.0M 0 16.0M 0% /mnt/ext/opt/samba/private/msg.sock
/dev/mapper/cachedev1
3.5T 3.3T 179.3G95% /lib/modules/4.14.24-qnap/container-station
tmpfs 100.0K 0 100.0K 0% /share/CACHEDEV1_DATA/Container/container-station-data/lib/lxd/shmounts
tmpfs 100.0K 0 100.0K 0% /share/CACHEDEV1_DATA/Container/container-station-data/lib/lxd/devlxd
overlay 3.5T 3.3T 179.3G95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/e80eb64e477bbf74fb198f33e2d7ae139b7754e384c4d498f0089a5de6166b2d/merged
overlay 3.5T 3.3T 179.3G95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/1ec283b993194b3c56bf578855a6fbfd834b79fd0af7e0e40c1f2c95009548ae/merged
overlay 3.5T 3.3T 179.3G95% /share/CACHEDEV1_DATA/.qpkg/container-station/system-docker/overlay2/840b6855c0993090d1f56f20fd29002a4bb88d1cacc159524d028d072fd336a3/merged
overlay 3.5T 3.3T 179.3G95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/3b87ffd6147e6ba68bf137fa6fc1c5985b04aba315a4b54bde3257d634e3808a/merged
overlay 3.5T 3.3T 179.3G95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/0357edc6c0c7b440eafa7e5059c4301b0fca989b9b38b4d59e8d4d01fd4c30a0/merged
overlay 3.5T 3.3T 179.3G95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/371696c22e9df12478dc43c1cf40212b4326459af5f16ae55a79a92366ad216c/merged
hdsfusemnt 16.0M 0 16.0M 0% /share/CACHEDEV1_DATA/.qpkg/HD_Station/share
[~] # mount
none on /new_root type tmpfs (rw,mode=0755,size=409600k)
/proc on /proc type proc (rw)
devpts on /dev/pts type devpts (rw)
sysfs on /sys type sysfs (rw)
tmpfs on /tmp type tmpfs (rw,size=64M)
tmpfs on /dev/shm type tmpfs (rw)
tmpfs on /share type tmpfs (rw,size=16M)
/dev/mmcblk0p5 on /mnt/boot_config type ext2 (rw)
tmpfs on /mnt/snapshot/export type tmpfs (ro)
/dev/md9 on /mnt/HDA_ROOT type ext3 (rw,data=ordered)
cgroup_root on /sys/fs/cgroup type tmpfs (rw)
none on /sys/fs/cgroup/memory type cgroup (rw,memory)
/dev/mapper/cachedev1 on /share/CACHEDEV1_DATA type ext4 (rw,usrjquota=aquota.user,jqfmt=vfsv0,user_xattr,data=ordered,data_err=abort,delalloc,nopriv,nodiscard,noacl)
cpu on /sys/fs/cgroup/cpu type cgroup (rw,cpu)
/dev/md13 on /mnt/ext type ext4 (rw,data=ordered,barrier=1,nodelalloc)
none on /sys/kernel/config type configfs (rw)
tmpfs on /share/CACHEDEV1_DATA/.samba/lock/msg.lock type tmpfs (rw,size=48M)
tmpfs on /mnt/ext/opt/samba/private/msg.sock type tmpfs (rw,size=16M)
nfsd on /proc/fs/nfsd type nfsd (rw)
/share/CACHEDEV1_DATA/.qpkg/container-station/kernel-module on /lib/modules/4.14.24-qnap/container-station type none (rw,bind)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,none,name=systemd)
hdsfusemnt on /share/CACHEDEV1_DATA/.qpkg/HD_Station/share type fuse.hdsfusemnt (rw,nosuid,nodev,allow_other) 13号 发表于 2021-9-24 11:35
M。
我也是刚加了硬盘,看了下没找到直接clone之类的操作, 就直接命令行rsync同步下新目录去了。
确实费了 ...
能说一下怎么操作吗?
我电脑只能接一块3.5寸硬盘
现在这个nas,只要缺一个硬盘就会进入降级模式,插上了另一块就会耗费几十个小时开始同步数据
能够把这个raid解除掉吗? 本帖最后由 password 于 2021-9-24 11:55 编辑
QNAP居然是自动重建的?群晖拔盘以后不会自动重建,可以直接改成basic移数据的
查了下网上有个方法,供参考,我没用过QNAP,建议你动手前先备份数据
https://forum.qnap.com/viewtopic.php?f=25&t=150513#p732564 如果电脑上原有的空闲空间不够转移数据的话。18t接在电脑上重建分区和格式化,通过SMB或FTP把nas上的数据拷过来。再把4t也接到电脑上重新分区。把18t的内容拷贝到4t上。把18t插到nas上初始化,然后再把4t里的内容拷过去。
—— 来自 OnePlus GM1910, Android 11上的 S1Next-鹅版 v2.4.4.1 不可能没办法移,你没创建卷和池而已
我现在就是几个卷和池来回经常移 你新建个存储池啊,不要和4t的组raid1。
—— 来自 HUAWEI NOH-AN00, Android 10上的 S1Next-鹅版 v2.4.4.1 拔下8T,RAID1降级
插回8T,磁盘管理设定为单盘
把降级RAID1里的数据拷到8T里
拆毁RAID1,4T重置为单盘
—— 来自 OnePlus KB2000, Android 11上的 S1Next-鹅版 v2.4.4.1 开起 发表于 2021-9-24 16:06
拔下8T,RAID1降级
插回8T,磁盘管理设定为单盘
把降级RAID1里的数据拷到8T里
拔下再插回,就自动开始恢复阵列了
关不掉raid spiritseven 发表于 2021-9-24 12:24
你新建个存储池啊,不要和4t的组raid1。
—— 来自 HUAWEI NOH-AN00, Android 10上的 S1Next-鹅版 v2.4.4. ...
新建不了了,不知道为什么
raid1拆不掉,不管怎么样都拆不掉 https://i.bmp.ovh/imgs/2021/09/aeb4cb900e6dc1b8.png
备份Docker里面的数据的时候一直在报错,要紧吗?
Docker里面的容器我会重装的,但是那些容器里面的数据可以备份吗? 本帖最后由 aladeen 于 2021-9-29 21:26 编辑
插任意一个盘位都会重建吗?
你换一个盘位插呢?
威联通的官方文档是说插到原来的盘位才会自动重建
恢复处于“降级”状态的 RAID 组
将每个取出的磁盘重新插入原来所在的磁盘架中。
QTS 自动开始重建 RAID 组。RAID 组状态将更改为“Rebuilding”(重建中)。完成重建后,所有受影响的存储池、卷和 LUN 的状态都将恢复正常。
raid1哪有什么拆不掉的,关机,拿到主机上快速格式化。。。装回nas
页:
[1]