|
一直以来都有疑问 ZFS DDT表里的数据块是按啥分割的最近有闲心就自己试验了一把
DDT-sha256-zap-duplicate: 16 entries, size 4480 on disk, 1024 in core
DDT-sha256-zap-unique: 2198 entries, size 13396 on disk, 2974 in core
实验之前的数据 重复块和不重复块分别是16个和2198个
将recordsize调整到1M,然后复制了一个接近12M的文件进数据集
DDT-sha256-zap-duplicate: 16 entries, size 4480 on disk, 1024 in core
DDT-sha256-zap-unique: 2210 entries, size 13323 on disk, 2958 in core
2210 - 2198 = 12,不重复块增加了12个,正好和recordsize大小一致,删除这个文件复原块,然后将recordsize调整到512K
然后又把这个文件复制进数据集
DDT-sha256-zap-duplicate: 16 entries, size 4480 on disk, 1024 in core
DDT-sha256-zap-unique: 2222 entries, size 13251 on disk, 2942 in core
2222-2198 = 24,正好增加了一倍
结论:重复数据删除块大小按照recordsize大小分割,越大的块重复概率就越小,压缩则相反,块越大 压缩采样越多 压缩率越高,所以一般来说 只开压缩就好 |
|