找回密码
 立即注册
搜索
查看: 2656|回复: 17

[数码] NAS更换硬盘求助

[复制链接]
     
发表于 2021-9-24 11:22 | 显示全部楼层 |阅读模式
机器是威联通的NAS,本来是装了块4T的硬盘,空间不够,打算直接加18T的
买了之后插上去,发现不能够把数据转移过去,网上看到帖子说要组raid1,就组了raid1
现在两块硬盘都变成了4TB,并且把其中一块卸载后取下来,再装回去的话,就会花几十个小时重新同步。raid1也没法消除


回复

使用道具 举报

     
发表于 2021-9-24 11:32 | 显示全部楼层
没用过群晖。。。终端跑下lsblk -f 贴下信息?
回复

使用道具 举报

     
发表于 2021-9-24 11:33 | 显示全部楼层
数据这种东西,不搞清楚就动手了吗
回复

使用道具 举报

     
发表于 2021-9-24 11:35 | 显示全部楼层
M。
我也是刚加了硬盘,看了下没找到直接clone之类的操作, 就直接命令行rsync同步下新目录去了。
确实费了不少时间
回复

使用道具 举报

     
 楼主| 发表于 2021-9-24 11:37 | 显示全部楼层
Damenly 发表于 2021-9-24 11:32
没用过群晖。。。终端跑下lsblk -f 贴下信息?

没有这个命令
  1. [~] # lsblk -f
  2. -sh: lsblk: command not found
  3. [~] # df
  4. Filesystem                Size      Used Available Use% Mounted on
  5. none                    400.0M    299.7M    100.3M  75% /
  6. devtmpfs                  3.8G     12.0K      3.8G   0% /dev
  7. tmpfs                    64.0M      1.7M     62.3M   3% /tmp
  8. tmpfs                     3.8G    160.0K      3.8G   0% /dev/shm
  9. tmpfs                    16.0M         0     16.0M   0% /share
  10. /dev/mmcblk0p5            7.7M     46.0K      7.7M   1% /mnt/boot_config
  11. tmpfs                    16.0M         0     16.0M   0% /mnt/snapshot/export
  12. /dev/md9                493.5M    152.6M    340.8M  31% /mnt/HDA_ROOT
  13. cgroup_root               3.8G         0      3.8G   0% /sys/fs/cgroup
  14. /dev/mapper/cachedev1
  15.                           3.5T      3.3T    179.3G  95% /share/CACHEDEV1_DATA
  16. /dev/md13               417.0M    391.1M     25.9M  94% /mnt/ext
  17. tmpfs                    48.0M     64.0K     47.9M   0% /share/CACHEDEV1_DATA/.samba/lock/msg.lock
  18. tmpfs                    16.0M         0     16.0M   0% /mnt/ext/opt/samba/private/msg.sock
  19. /dev/mapper/cachedev1
  20.                           3.5T      3.3T    179.3G  95% /lib/modules/4.14.24-qnap/container-station
  21. tmpfs                   100.0K         0    100.0K   0% /share/CACHEDEV1_DATA/Container/container-station-data/lib/lxd/shmounts
  22. tmpfs                   100.0K         0    100.0K   0% /share/CACHEDEV1_DATA/Container/container-station-data/lib/lxd/devlxd
  23. overlay                   3.5T      3.3T    179.3G  95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/e80eb64e477bbf74fb198f33e2d7ae139b7754e384c4d498f0089a5de6166b2d/merged
  24. overlay                   3.5T      3.3T    179.3G  95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/1ec283b993194b3c56bf578855a6fbfd834b79fd0af7e0e40c1f2c95009548ae/merged
  25. overlay                   3.5T      3.3T    179.3G  95% /share/CACHEDEV1_DATA/.qpkg/container-station/system-docker/overlay2/840b6855c0993090d1f56f20fd29002a4bb88d1cacc159524d028d072fd336a3/merged
  26. overlay                   3.5T      3.3T    179.3G  95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/3b87ffd6147e6ba68bf137fa6fc1c5985b04aba315a4b54bde3257d634e3808a/merged
  27. overlay                   3.5T      3.3T    179.3G  95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/0357edc6c0c7b440eafa7e5059c4301b0fca989b9b38b4d59e8d4d01fd4c30a0/merged
  28. overlay                   3.5T      3.3T    179.3G  95% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/371696c22e9df12478dc43c1cf40212b4326459af5f16ae55a79a92366ad216c/merged
  29. hdsfusemnt               16.0M         0     16.0M   0% /share/CACHEDEV1_DATA/.qpkg/HD_Station/share
  30. [~] # mount
  31. none on /new_root type tmpfs (rw,mode=0755,size=409600k)
  32. /proc on /proc type proc (rw)
  33. devpts on /dev/pts type devpts (rw)
  34. sysfs on /sys type sysfs (rw)
  35. tmpfs on /tmp type tmpfs (rw,size=64M)
  36. tmpfs on /dev/shm type tmpfs (rw)
  37. tmpfs on /share type tmpfs (rw,size=16M)
  38. /dev/mmcblk0p5 on /mnt/boot_config type ext2 (rw)
  39. tmpfs on /mnt/snapshot/export type tmpfs (ro)
  40. /dev/md9 on /mnt/HDA_ROOT type ext3 (rw,data=ordered)
  41. cgroup_root on /sys/fs/cgroup type tmpfs (rw)
  42. none on /sys/fs/cgroup/memory type cgroup (rw,memory)
  43. /dev/mapper/cachedev1 on /share/CACHEDEV1_DATA type ext4 (rw,usrjquota=aquota.user,jqfmt=vfsv0,user_xattr,data=ordered,data_err=abort,delalloc,nopriv,nodiscard,noacl)
  44. cpu on /sys/fs/cgroup/cpu type cgroup (rw,cpu)
  45. /dev/md13 on /mnt/ext type ext4 (rw,data=ordered,barrier=1,nodelalloc)
  46. none on /sys/kernel/config type configfs (rw)
  47. tmpfs on /share/CACHEDEV1_DATA/.samba/lock/msg.lock type tmpfs (rw,size=48M)
  48. tmpfs on /mnt/ext/opt/samba/private/msg.sock type tmpfs (rw,size=16M)
  49. nfsd on /proc/fs/nfsd type nfsd (rw)
  50. /share/CACHEDEV1_DATA/.qpkg/container-station/kernel-module on /lib/modules/4.14.24-qnap/container-station type none (rw,bind)
  51. cgroup on /sys/fs/cgroup/systemd type cgroup (rw,none,name=systemd)
  52. hdsfusemnt on /share/CACHEDEV1_DATA/.qpkg/HD_Station/share type fuse.hdsfusemnt (rw,nosuid,nodev,allow_other)
复制代码
回复

使用道具 举报

     
 楼主| 发表于 2021-9-24 11:41 | 显示全部楼层
13号 发表于 2021-9-24 11:35
M。
我也是刚加了硬盘,看了下没找到直接clone之类的操作, 就直接命令行rsync同步下新目录去了。
确实费了 ...

能说一下怎么操作吗?
我电脑只能接一块3.5寸硬盘
现在这个nas,只要缺一个硬盘就会进入降级模式,插上了另一块就会耗费几十个小时开始同步数据
能够把这个raid解除掉吗?
回复

使用道具 举报

     
发表于 2021-9-24 11:53 | 显示全部楼层
本帖最后由 password 于 2021-9-24 11:55 编辑

QNAP居然是自动重建的?群晖拔盘以后不会自动重建,可以直接改成basic移数据的

查了下网上有个方法,供参考,我没用过QNAP,建议你动手前先备份数据
https://forum.qnap.com/viewtopic.php?f=25&t=150513#p732564
回复

使用道具 举报

     
发表于 2021-9-24 12:10 来自手机 | 显示全部楼层
如果电脑上原有的空闲空间不够转移数据的话。18t接在电脑上重建分区和格式化,通过SMB或FTP把nas上的数据拷过来。再把4t也接到电脑上重新分区。把18t的内容拷贝到4t上。把18t插到nas上初始化,然后再把4t里的内容拷过去。

—— 来自 OnePlus GM1910, Android 11上的 S1Next-鹅版 v2.4.4.1
回复

使用道具 举报

头像被屏蔽
发表于 2021-9-24 12:16 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2021-9-24 12:24 | 显示全部楼层
不可能没办法移,你没创建卷和池而已
我现在就是几个卷和池来回经常移
回复

使用道具 举报

     
发表于 2021-9-24 12:24 来自手机 | 显示全部楼层
你新建个存储池啊,不要和4t的组raid1。

—— 来自 HUAWEI NOH-AN00, Android 10上的 S1Next-鹅版 v2.4.4.1
回复

使用道具 举报

     
发表于 2021-9-24 16:06 来自手机 | 显示全部楼层
拔下8T,RAID1降级
插回8T,磁盘管理设定为单盘
把降级RAID1里的数据拷到8T里
拆毁RAID1,4T重置为单盘

—— 来自 OnePlus KB2000, Android 11上的 S1Next-鹅版 v2.4.4.1
回复

使用道具 举报

     
 楼主| 发表于 2021-9-24 17:15 | 显示全部楼层
开起 发表于 2021-9-24 16:06
拔下8T,RAID1降级
插回8T,磁盘管理设定为单盘
把降级RAID1里的数据拷到8T里

拔下再插回,就自动开始恢复阵列了
关不掉raid
回复

使用道具 举报

     
 楼主| 发表于 2021-9-24 17:16 | 显示全部楼层
spiritseven 发表于 2021-9-24 12:24
你新建个存储池啊,不要和4t的组raid1。

—— 来自 HUAWEI NOH-AN00, Android 10上的 S1Next-鹅版 v2.4.4. ...

新建不了了,不知道为什么
raid1拆不掉,不管怎么样都拆不掉
回复

使用道具 举报

     
 楼主| 发表于 2021-9-29 18:26 | 显示全部楼层

备份Docker里面的数据的时候一直在报错,要紧吗?
Docker里面的容器我会重装的,但是那些容器里面的数据可以备份吗?
回复

使用道具 举报

头像被屏蔽
     
发表于 2021-9-29 18:51 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

发表于 2021-9-29 20:54 来自手机 | 显示全部楼层
本帖最后由 aladeen 于 2021-9-29 21:26 编辑

插任意一个盘位都会重建吗?

你换一个盘位插呢?

威联通的官方文档是说插到原来的盘位才会自动重建

恢复处于“降级”状态的 RAID 组

将每个取出的磁盘重新插入原来所在的磁盘架中。

QTS 自动开始重建 RAID 组。RAID 组状态将更改为“Rebuilding”(重建中)。完成重建后,所有受影响的存储池、卷和 LUN 的状态都将恢复正常。

回复

使用道具 举报

发表于 2021-9-29 21:32 来自手机 | 显示全部楼层
raid1哪有什么拆不掉的,关机,拿到主机上快速格式化。。。装回nas
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2024-11-14 20:40 , Processed in 0.072689 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表