shyily 发表于 2023-12-4 10:40

群晖的重复数据删除功能有用吗?你们都打开了吗?

本帖最后由 shyily 于 2023-12-4 13:00 编辑

群晖型号是423+,DSM7.2.1。前两天加了块M2新硬盘,创建存储空间时提示有个重复数据删除功能。后来官网查了一下,说是“由于重复数据删除会移除重复的数据块,可能会造成部分数据不连续,影响读写性能。”不知道这个功能你们都开了没?
另外我原来有一块Intel的S4520 SSD创建的存储空间,没有显示这个功能,不知道是硬盘不支持还是已经存在的存储空间不能开启这个功能?


lovetree1225 发表于 2023-12-4 10:43

同样423+ 4块银河18T

二手烟 发表于 2023-12-4 10:52

用过一次,还好重复的是电影。

shyily 发表于 2023-12-4 10:58

lovetree1225 发表于 2023-12-4 10:43
同样423+ 4块银河18T

我是资料放在S4520里,影视之类的在HC550里,分开了。

shyily 发表于 2023-12-4 10:59

二手烟 发表于 2023-12-4 10:52
用过一次,还好重复的是电影。

NAS里也要不了太强的硬盘性能吧,牺牲点性能换取空间我觉得也是个不错的办法

lovetree1225 发表于 2023-12-4 11:33

不想去搞这些 就是放照片和做家庭影视库 年纪大了 不想搞明白其他功能了[偷笑]

dcl2009 发表于 2023-12-4 11:39

跟truenas里面的zfs一样的效果?

我现在群晖里面mounttruenas 里面的NFS用,truenas开去重和压缩,效果挺不错

高子 发表于 2023-12-4 12:18

群晖也支持去重了?

什么原理啊,比如我A文件夹里有1 2 3 4 5文件,B文件夹里有2 4 6 7 8文件,存储的时候就是1 2 3 4 5 6 7 8文件,那我复制出来A或者B文件夹的时候,得到还是1 2 3 4 5或者2 4 6 7 8文件么?

BONBONBON 发表于 2023-12-4 12:28

没看到这个功能

七尺大汉 发表于 2023-12-4 12:34

貌似是固态盘专属。
我感觉没啥大的意思。

bxhaai 发表于 2023-12-4 12:34

用过,因为我之前几块硬盘的数据合并到一块大容量盘,有些数据是重复的,筛选出来还是手动删比较稳妥

yguomin 发表于 2023-12-4 12:36

压缩去重这不是高端存储才有的功能么?[狂笑]

huihuige 发表于 2023-12-4 12:42

我这试了
我记得官网问了
好像是不是自动的
我这有几个重复的文件
他是不会自动删除的

shyily 发表于 2023-12-4 13:01

huihuige 发表于 2023-12-4 12:42
我这试了
我记得官网问了
好像是不是自动的


可以设置自动的呀,我传图片了,你看看

shyily 发表于 2023-12-4 13:02

dcl2009 发表于 2023-12-4 11:39
跟truenas里面的zfs一样的效果?

我现在群晖里面mounttruenas 里面的NFS用,truenas开去重和压缩,效果 ...

不知道啥原理

圆圆的小土豆 发表于 2023-12-4 13:31

高子 发表于 2023-12-4 12:18
群晖也支持去重了?

什么原理啊,比如我A文件夹里有1 2 3 4 5文件,B文件夹里有2 4 6 7 8文件,存储的时候 ...

类似Linux的软连接,只要文件Hash一样,只保留一份数据,不重复占用空间,底层都指向一个文件。

tide~ 发表于 2023-12-4 13:48

同名文件(同hash)只留一个,具有不同文件夹属性;这个好理解;
问题是这是存在NAS层的某记录文件里的;一旦取出这块硬盘,放win环境下的磁盘扫描,会不会报交叉链接错误,就再也没法恢复了?

roubaozi1 发表于 2023-12-4 13:55

“由于重复数据删除会移除重复的数据块,可能会造成部分数据不连续,影响读写性能。”这句话已经说的很明白了,块级别的重删,不是文件级别的做个软连接这么简单

YsHaNg 发表于 2023-12-4 20:01

tide~ 发表于 2023-12-4 05:48
同名文件(同hash)只留一个,具有不同文件夹属性;这个好理解;
问题是这是存在NAS层的某记录文件里的;一旦 ...

新点内核的Linux box没问题 为啥要放windows上扫

moveable 发表于 2023-12-4 22:39

赛门铁克备份里用过这个功能,能节省超过一半的备份空间。

netlzh 发表于 2023-12-4 22:46

真没注意过这功能,消除重复数据块是个什么逻辑?重复文件我能明白。

chin39 发表于 2023-12-4 23:24

块级的去重,盲猜用的bees https://btrfs.readthedocs.io/en/latest/Deduplication.html
页: [1]
查看完整版本: 群晖的重复数据删除功能有用吗?你们都打开了吗?