请教一下威联通quts hero zfs单盘扩容
看官网最新的5.1.0版本支持zfs单盘扩容以前一直在观望,看到这个真想拔草了,zfs的压缩重删感觉很不错
有两个问题请教一下
1.如果用512g ssd组raid1做系统盘,到时候能不能先后更换成1t的ssd,把系统盘扩容成1t?
2.如果全部8t的hdd组raid5做存储池,在5.1.0 能不能先后替换成18t(我理解的是替换过程过阵列中由于最小容量8t,所以raid5的容量全都是按8t计算)现在问题是,全部替换后,raid5容量可以按18t计算吗? 楼主,请问下,那ZFS的重复删除功能,我用了怎么没感觉呢?开启了也没看到他扫描重复的照片和word文件这些呢?是我设置上有问题吗? 备份好数据,刷过去试一下,不到一天你就想换回来了。
各种不习惯跟缺点,为了换单一几个功能。
不值得。 fangl2002 发表于 2023-6-18 10:59
楼主,请问下,那ZFS的重复删除功能,我用了怎么没感觉呢?开启了也没看到他扫描重复的照片和word文件这些 ...
zfs的重删 写入的时候来计算的吧,不存在主动扫描的情况 zgpnhhy 发表于 2023-6-18 11:10
备份好数据,刷过去试一下,不到一天你就想换回来了。
各种不习惯跟缺点,为了换单一几个功能。
不值得。 ...
请教下 有什么大的缺点。。
机器还没买,想入手h973ax来着,
感觉威联通的备份功能比群晖强点 做题家 发表于 2023-6-18 11:14
请教下 有什么大的缺点。。
机器还没买,想入手h973ax来着,
感觉威联通的备份功能比群晖强点 ...
例如,
静态卷或者raid0单盘不能迁移到raid1,
读缓存最少要1个硬盘,写缓存要1-2个硬盘,等于配置读写必须要2或者3个硬盘,原来1个硬盘就可以读写。
然后写缓存也有点问题,没有生效。(大概是因为我用的5.1测试版)
最开始出hero的时候用了半年多,后面改回来了,个人使用并没有那么出彩,因为hero针对的是企业用户的功能比较多。 zgpnhhy 发表于 2023-6-18 11:56
例如,
静态卷或者raid0单盘不能迁移到raid1,
读缓存最少要1个硬盘,写缓存要1-2个硬盘,等于配置读写必 ...
不太理解静态卷的意思,但是raid0 不是要两块以上才能构建嘛,raid0的单盘数据应该是不完整的吧,这样改成raid1有什么意义呢
很多nas的写缓存都要求raid1吧,而且hero的zfs写缓存只是缓存了日志?(这个日志是zfs的一些日志吧?具体不太了解)
[傻笑]这些对我来说好像不是什么大问题,我之前就是纠结zfs换硬盘比较麻烦 zgpnhhy 发表于 2023-6-18 11:56
例如,
静态卷或者raid0单盘不能迁移到raid1,
读缓存最少要1个硬盘,写缓存要1-2个硬盘,等于配置读写必 ...
你居然坚持了半年,我2个月就受不了Hero的权限冲突,立马换了普通版,权限问题解决了。 fangl2002 发表于 2023-6-18 14:09
你居然坚持了半年,我2个月就受不了Hero的权限冲突,立马换了普通版,权限问题解决了。 ...
因为8代u换9代u,5.0系统才支持,当初是先出的hero 5.0系统,qts没有5.0
fangl2002 发表于 2023-6-18 14:09
你居然坚持了半年,我2个月就受不了Hero的权限冲突,立马换了普通版,权限问题解决了。 ...
hero的权限冲突5.1.1已经修复了。,,这个问题折磨我很久了 我会出现SMB速度有时候不正常,其他还行,新版docker管理器好评一下 ZFS用相同数量更大的盘更换原来的盘实现扩容,没问题,一次替换一个,全部替换后扩容即可。或者设置为自动扩容。
fangl2002 发表于 2023-6-18 10:59
楼主,请问下,那ZFS的重复删除功能,我用了怎么没感觉呢?开启了也没看到他扫描重复的照片和word文件这些 ...
实时dedup,只对开启后新写入的数据生效,不改变以前数据,需要大量的内存以提高效率。对于用户透明。 fangl2002 发表于 2023-6-18 10:59
楼主,请问下,那ZFS的重复删除功能,我用了怎么没感觉呢?开启了也没看到他扫描重复的照片和word文件这些 ...
[困惑] 如13楼所说 去重在用户层是不可见的 你可以手动复制大文件夹比如iso夹或者视频夹 然后对比池剩余空间。。。
(注意去重需要最少16g内存@hero)
绫目 发表于 2023-9-20 14:44
hero的权限冲突5.1.1已经修复了。,,这个问题折磨我很久了
我已经用了很久的QTS系统了,不想在折磨自己了,修复就修复了吧,给后面的兄弟福利了,我就算了。 cabala 发表于 2023-9-20 14:50
实时dedup,只对开启后新写入的数据生效,不改变以前数据,需要大量的内存以提高效率。对于用户透明。 ...
请教:我现在有大量图片需要去重,但是是以前的图片。怎么使用去重来把以前的图片筛选一遍呢? 本帖最后由 cabala 于 2023-9-20 17:23 编辑
fangl2002 发表于 2023-9-20 16:43
请教:我现在有大量图片需要去重,但是是以前的图片。怎么使用去重来把以前的图片筛选一遍呢? ...
ZFS的去重可能和你想要的不一样,打开dedup后,把所有文件复制一遍,然后所有文件都在,但是相同的文件后台只占用一遍空间 你如果需要删除重复文件的话,没有任何文件系统可以实现,这也不是文件系统应该做的事,自己找个重复文件删除的工具就行了。
cabala 发表于 2023-9-20 17:24
你如果需要删除重复文件的话,没有任何文件系统可以实现,这也不是文件系统应该做的事,自己找个重复文件删 ...
哦,懂了,谢谢,还是需要自己删除重复的才行啊~~~ 本帖最后由 ONEChoy 于 2023-9-20 19:04 编辑
cabala 发表于 2023-9-20 17:18
ZFS的去重可能和你想要的不一样,打开dedup后,把所有文件复制一遍,然后所有文件都在,但是相同的文件后 ...
你说这个以文件为单位的是早期技术叫做ShadowCopy 类似于差异备份或者说文件级快照 TimeMachine也是用这个。。。
ZFS的去重是数据块级别 只保留原件不保留副本 各种云用的就是这种技术进阶版 使用者本人和使用者之间都是不可感知的。。。
(比如说一个文件占用10个数据块a-j 拷贝了1份理应占用20个数据块 但池里实际只有10个数据块在
然后其中一份文件改名 就有2份不同header的数据块a 和9个数据块b-j 总共11个数据块在池里) fangl2002 发表于 2023-9-20 18:41
哦,懂了,谢谢,还是需要自己删除重复的才行啊~~~
如果你是想整理或者filing 那花时间手动是无法避免了。。。
但是如果单纯想节省池空间的话 全部拷一遍删掉旧的就可以了 同一张照片就算改了文件名也会去重 数据块单位默认是4K。。。
页:
[1]