发表评论取消回复
相关阅读
相关 ceph osd 迁移方案
说明 参考 [ceph mon 扩容缩容步骤][ceph mon] [ceph mgr 在线迁移 (扩容 缩容)][ceph mgr _ _] 目标 >
相关 ceph_osd_down时间和osd_donw后数据同步完成时间查看
文章目录 前提准备 查看osd\_down时间 登录上新down的存储服务器 查看down的时间 服务器down
相关 ceph 删除 osd
ceph --version ceph version 12.2.13 luminous (stable) ceph osd tree 0
相关 ceph osd down
ceph --version ceph version 12.2.13 luminous (stable) ceph osd tree 3
相关 ceph osd 修复备忘
目的 > 修复故障osd 现象 检测方法 磁盘检测 > 可以通过下面命令获取当前 ceph 磁盘与 osd 对应信息 > 命令行只显示本地磁盘及对应的
相关 ceph 添加/删除OSD(ceph.conf)
之前有篇Blog记录的是通过ceph-deploy进行osd的添加以及删除操作,这里记录的是通过ceph源码安装后,通过配置ceph配置文件,而进行ceph的osd
相关 Ceph删除/添加故障OSD(ceph-deploy)
今天osd.5起不来,发现是硬盘的问题 [root@ceph-osd-1 ceph-cluster] ceph osd tree id weight
相关 ceph osd full 解决方法
操作环境 openstack icehouse ceph giant 问题描述 今日查看ceph状态的时候,提示以下信息 [root@ceph-osd
相关 手动部署 ceph osd (luminous 版)
环境 参考 手动部署 ceph 环境说明 (luminous 版) 目标 > 1. /dev/sdm 作为系统盘 1. /dev/sdn 作为 journa
相关 ceph故障:too many PGs per OSD
原文:http://www.linuxidc.com/Linux/2017-04/142518.htm 背景 集群状态报错,如下: ceph -s
还没有评论,来说两句吧...