fkpwolf 发表于 2023-12-22 08:06

这里问技术问题啊,还不如问g-p-t

阿崔 发表于 2023-12-22 08:27

ceph可能的性能瓶颈太多了,从硬件到文件系统再到网络,任何一层出问题都会造成性能损失,不是熟悉系统的人最好别折腾这个。

terryhux 发表于 2023-12-22 10:04

Baishui 发表于 2023-12-21 23:28
对于4节点7 nvme 7 osd的架构有什么优化建议吗?ceph 版本17.2.6

感觉你这配置不均衡,正常的三副本架构至少是3节点9osd,或者3节点6osd跑两副本试试,副本数越多,写惩罚越大,如果你的硬件和网络没问题,这么小的集群不用考虑优化,默认配置就能跑得很好了

Baishui 发表于 2024-3-3 21:26

本帖最后由 Baishui 于 2024-3-3 21:44 编辑

terryhux 发表于 2023-12-21 22:59
ceph性能没问题的,我在16年生产上ceph用到现在7年了,经历过多家不同公司,最大规模1.5PB,以前跑云计算 ...




25G内网,5节点,9块儿nvme盘的ceph集群,rbd挂载到pve win10虚拟机中的性能如图。。单线程随机读写惨不忍睹。linux 虚拟机下fio测结果类似

edelweiss_cxk 发表于 2024-4-30 08:37

我也测试了,3台dell 730xd,256G内存,每台服务器9块HDD+nvme做WAL和DB,万兆互联,读写性能简直不能看,就是100MB/S这样

edelweiss_cxk 发表于 2024-4-30 08:38

现在用ZFS,proxmox ha容灾,性能赶赶的,就是有点费内存

QSG 发表于 2024-4-30 10:41

分布式本来性能就不强,大型数据中心能用起来纯属他们机器够多,抵消了冗余带来的性能损失

xustrive 发表于 2024-7-11 10:52

edelweiss_cxk 发表于 2024-4-30 08:38
现在用ZFS,proxmox ha容灾,性能赶赶的,就是有点费内存

ZFS 的HA容灾是用的复制吗?

赫敏 发表于 2024-7-11 11:31

又不是70块盘,就弄个普通的ZFS或者SMB得了

edelweiss_cxk 发表于 2024-8-26 21:43

xustrive 发表于 2024-7-11 10:52
ZFS 的HA容灾是用的复制吗?

应该是的

Johnsnow-s 发表于 2024-8-28 15:15

老莱他们好像也不是用的pve的ceph
页: 1 [2]
查看完整版本: pve 超融合 ceph性能问题