发表评论取消回复
相关阅读
相关 ceph集群提示pgs: 100.000% pgs unknown的一个解决办法
ceph集群提示pgs: 100.000% pgs unknown的一个解决办法 2018年11月05日 14:36:10 帮我起个网名 阅读数 1607更多 分类专栏
相关 ceph 统计pg的priamry osd 数量
root@pve:~\ ceph pg dump | grep active+clean | egrep "\\\[0," | wc -l dumped all
相关 ceph 查看是否在恢复_CEPH系列之概念理解:常见的pg状态
![7b0bbe90ef76804f7c143e58d74c11e8.png][] ceph常见的pg状态 creating (创建中) PG 正在被创建,
相关 ceph 调整 PG 平衡 集群数据分布自动进行调整
ceph 调整 PG 平衡 集群数据分布自动进行调整 ceph 调整 PG 平衡 crush-compat 模式 调整完成 关闭自动平衡 ce
相关 Centos6下解决Ceph pgs不一致问题
今天查看ceph状态,提示如下信息 [root@ceph-osd-3 ~] ceph -s cluster 9d717e10-a708-
相关 Ceph-智能分布CRUSH之Object与PG与OSD
Ceph CRUSH算法(Controlled Replication Under ScalableHashing)一种基于为随机控制数据分布、复制的算法。 基本原理:
相关 ceph学习之pool
pool是ceph存储数据时的逻辑分区,它起到namespace的作用。其他分布式存储系统,比如Mogilefs、Couchbase、Swift都有pool的概念,只是叫法不同
相关 ceph学习之PG
PG的计算公式: 整个集群PG的计算公式 Total PGs = ((Total_number_of_OSD 100) / max_replication_cou
相关 ceph故障:too many PGs per OSD
原文:http://www.linuxidc.com/Linux/2017-04/142518.htm 背景 集群状态报错,如下: ceph -s
还没有评论,来说两句吧...