块级的去重,盲猜用的bees https://btrfs.readthedocs.io/en/latest/Deduplication.html |
真没注意过这功能,消除重复数据块是个什么逻辑?重复文件我能明白。 |
赛门铁克备份里用过这个功能,能节省超过一半的备份空间。 |
tide~ 发表于 2023-12-4 05:48 新点内核的Linux box没问题 为啥要放windows上扫 |
“由于重复数据删除会移除重复的数据块,可能会造成部分数据不连续,影响读写性能。”这句话已经说的很明白了,块级别的重删,不是文件级别的做个软连接这么简单 |
同名文件(同hash)只留一个,具有不同文件夹属性;这个好理解; 问题是这是存在NAS层的某记录文件里的;一旦取出这块硬盘,放win环境下的磁盘扫描,会不会报交叉链接错误,就再也没法恢复了? |
高子 发表于 2023-12-4 12:18 类似Linux的软连接,只要文件Hash一样,只保留一份数据,不重复占用空间,底层都指向一个文件。 |
dcl2009 发表于 2023-12-4 11:39 不知道啥原理 |
huihuige 发表于 2023-12-4 12:42 可以设置自动的呀,我传图片了,你看看 |
我这试了 我记得官网问了 好像是不是自动的 我这有几个重复的文件 他是不会自动删除的 |
压缩去重这不是高端存储才有的功能么?![]() |
用过,因为我之前几块硬盘的数据合并到一块大容量盘,有些数据是重复的,筛选出来还是手动删比较稳妥 |
貌似是固态盘专属。 我感觉没啥大的意思。 |
没看到这个功能 |
群晖也支持去重了? 什么原理啊,比如我A文件夹里有1 2 3 4 5文件,B文件夹里有2 4 6 7 8文件,存储的时候就是1 2 3 4 5 6 7 8文件,那我复制出来A或者B文件夹的时候,得到还是1 2 3 4 5或者2 4 6 7 8文件么? |
跟truenas里面的zfs一样的效果? 我现在群晖里面mount truenas 里面的NFS用,truenas开去重和压缩,效果挺不错 |
不想去搞这些 就是放照片和做家庭影视库 年纪大了 不想搞明白其他功能了![]() |
二手烟 发表于 2023-12-4 10:52 NAS里也要不了太强的硬盘性能吧,牺牲点性能换取空间我觉得也是个不错的办法 |
lovetree1225 发表于 2023-12-4 10:43 我是资料放在S4520里,影视之类的在HC550里,分开了。 |
用过一次,还好重复的是电影。 |
同样423+ 4块银河18T |
Archiver|手机版|小黑屋|Chiphell
( 沪ICP备12027953号-5 )310112100042806
GMT+8, 2025-6-6 15:55 , Processed in 0.013043 second(s), 9 queries , Gzip On, Redis On.
Powered by Discuz! X3.5 Licensed
© 2007-2024 Chiphell.com All rights reserved.