找回密码
 加入我们
搜索
      
楼主: Baishui

[NAS] pve 超融合 ceph性能问题

[复制链接]
发表于 2023-12-22 08:06 | 显示全部楼层
这里问技术问题啊,还不如问g-p-t
发表于 2023-12-22 08:27 | 显示全部楼层
ceph可能的性能瓶颈太多了,从硬件到文件系统再到网络,任何一层出问题都会造成性能损失,不是熟悉系统的人最好别折腾这个。
发表于 2023-12-22 10:04 | 显示全部楼层
Baishui 发表于 2023-12-21 23:28
对于4节点7 nvme 7 osd的架构有什么优化建议吗?ceph 版本17.2.6

感觉你这配置不均衡,正常的三副本架构至少是3节点9osd,或者3节点6osd跑两副本试试,副本数越多,写惩罚越大,如果你的硬件和网络没问题,这么小的集群不用考虑优化,默认配置就能跑得很好了
 楼主| 发表于 2024-3-3 21:26 | 显示全部楼层
本帖最后由 Baishui 于 2024-3-3 21:44 编辑
terryhux 发表于 2023-12-21 22:59
ceph性能没问题的,我在16年生产上ceph用到现在7年了,经历过多家不同公司,最大规模1.5PB,以前跑云计算 ...


吞吐

吞吐

iops

iops


25G内网,5节点,9块儿nvme盘的ceph集群,rbd挂载到pve win10虚拟机中的性能如图。。单线程随机读写惨不忍睹。linux 虚拟机下fio测结果类似
发表于 2024-4-30 08:37 | 显示全部楼层
我也测试了,3台dell 730xd,256G内存,每台服务器9块HDD+nvme做WAL和DB,万兆互联,读写性能简直不能看,就是100MB/S这样
发表于 2024-4-30 08:38 | 显示全部楼层
现在用ZFS,proxmox ha容灾,性能赶赶的,就是有点费内存
发表于 2024-4-30 10:41 | 显示全部楼层
分布式本来性能就不强,大型数据中心能用起来纯属他们机器够多,抵消了冗余带来的性能损失
发表于 2024-7-11 10:52 | 显示全部楼层
edelweiss_cxk 发表于 2024-4-30 08:38
现在用ZFS,proxmox ha容灾,性能赶赶的,就是有点费内存

ZFS 的HA容灾是用的复制吗?
发表于 2024-7-11 11:31 | 显示全部楼层
又不是70块盘,就弄个普通的ZFS或者SMB得了
发表于 2024-8-26 21:43 | 显示全部楼层
xustrive 发表于 2024-7-11 10:52
ZFS 的HA容灾是用的复制吗?

应该是的
发表于 2024-8-28 15:15 | 显示全部楼层
老莱他们好像也不是用的pve的ceph
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-29 19:18 , Processed in 0.011341 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表