【Distributed】分布式Ceph存储系统之相关应用
文章目录
- 一、创建 CephFS 文件系统 MDS 接口
- 服务端操作
- 1.1 在管理节点创建 mds 服务
- 1.2 查看各个节点的 mds 服务
- 1.3 创建存储池,启用 ceph 文件系统
- 1.4 查看mds状态
- 1.5 创建用户
- 客户端操作
- 2.1 客户端要在 public 网络内
- 2.2 在客户端创建工作目录
- 2.3 在 ceph 的管理节点给客户端拷贝文件
- 2.4 在客户端安装 ceph 软件包
- 2.5 在客户端制作秘钥文件
- 2.6 客户端挂载
- 方式一:基于内核
- 方式二:基于 fuse 工具
- 二、创建 Ceph 块存储系统 RBD 接口
- 创建一个名为 rbd-demo 的专门用于 RBD 的存储池
- 将存储池转换为 RBD 模式
- 初始化存储池
- 创建镜像
- 镜像管理
- 5.1 查看镜像的详细信息
- 5.2 修改镜像大小
- 5.3 删除镜像
- Linux客户端使用
- 6.1 管理节点操作
- 6.2 linux客户端操作
- 快照管理
- 7.1 在客户端写入文件
- 7.2 在管理节点对镜像创建快照
- 7.3 列出指定镜像所有快照
- 7.4 回滚镜像到指定
- 7.5 限制镜像可创建快照数
- 7.6 删除快照
- 7.7 快照分层
- 7.8 快照展平
- 镜像的导出导入
- 8.1 导出镜像
- 8.2 导入镜像
- 三、创建 Ceph 对象存储系统 RGW 接口
- 对象存储概念
- 创建 RGW 接口
- 2.1 管理节点创建守护进程
- 2.2 开启 http+https ,更改监听端口
- 2.3 创建 RadosGW 账户
- 2.4 S3 接口访问测试
- 四、OSD 故障模拟与恢复
- 模拟 OSD 故障
- 将坏掉的 osd 踢出集群
- 方法一
- 方法二
- 把原来坏掉的 osd 修复后重新加入集群
一、创建 CephFS 文件系统 MDS 接口
1. 服务端操作
1.1 在管理节点创建 mds 服务
cd /etc/ceph
ceph-deploy mds create node01 node02 node03
1.2 查看各个节点的 mds 服务
ssh root@node01 systemctl status ceph-mds@node01
ssh root@node02 systemctl status ceph-mds@node02
ssh root@node03 systemctl status ceph-mds@node03
1.3 创建存储池,启用 ceph 文件系统
ceph 文件系统至少需要两个 rados 池,一个用于存储数据,一个用于存储元数据。此时数据池就类似于文件系统的共享目录。
ceph osd pool create cephfs_data 128 #创建数据Pool
ceph osd pool create cephfs_metadata 128 #创建元数据Pool
#创建 cephfs,命令格式:ceph fs new <FS_NAME> <CEPHFS_METADATA_NAME> <CEPHFS_DATA_NAME>
ceph fs new mycephfs cephfs_metadata cephfs_data #启用ceph,元数据Pool在前,数据Pool在后
ceph fs ls #查看cephfs
1.4 查看mds状态
一个up,其余两个待命,目前的工作的是node01上的mds服务
ceph -s
mds: mycephfs:1 {
0=node01=up:active} 2 up:standby
ceph mds stat
mycephfs:1 {
0=node01=up:active} 2 up:standby
1.5 创建用户
语法格式:ceph fs authorize <fs_name> client.<client_id> <path-in-cephfs> rw
#账户为 client.zhangsan,用户 name 为 zhangsan,zhangsan 对ceph文件系统的 / 根目录(注意不是操作系统的根目录)有读写权限
ceph fs authorize mycephfs client.zhangsan / rw | tee /etc/ceph/zhangsan.keyring
# 账户为 client.lisi,用户 name 为 lisi,lisi 对文件系统的 / 根目录只有读权限,对文件系统的根目录的子目录 /test 有读写权限
ceph fs authorize mycephfs client.lisi / r /test rw | tee /etc/ceph/lisi.keyring
2. 客户端操作
2.1 客户端要在 public 网络内
2.2 在客户端创建工作目录
mkdir /etc/ceph
2.3 在 ceph 的管理节点给客户端拷贝文件
#拷贝的文件分别是 ceph 的配置文件 ceph.conf 和账号的秘钥环文件 zhangsan.keyring、lisi.keyring
scp ceph.conf zhangsan.keyring lisi.keyring root@client:/etc/ceph
2.4 在客户端安装 ceph 软件包
cd /opt
wget https://download.ceph.com/rpm-nautilus/el7/noarch/ceph-release-1-1.el7.noarch.rpm --no-check-certificate
rpm -ivh ceph-release-1-1.el7.noarch.rpm
yum install -y ceph
2.5 在客户端制作秘钥文件
cd /etc/ceph
ceph-authtool -n client.zhangsan -p zhangsan.keyring > zhangsan.key #把 zhangsan 用户的秘钥导出到 zhangsan.keyl
ceph-authtool -n client.lisi -p lisi.keyring > lisi.key #把 lisi 用户的秘钥导出到 lisi.key
2.6 客户端挂载
方式一:基于内核
语法格式:
mount -t ceph node01:6789,node02:6789,node03:6789:/ <本地挂载点目录> -o name=<用户名>,secret=<秘钥>
mount -t ceph node01:6789,node02:6789,node03:6789:/ <本地挂载点目录> -o name=<用户名>,secretfile=<秘钥文件>
示例一:
mkdir -p /data/zhangsan
mount -t ceph node01:6789,node02:6789,node03:6789:/ /data/zhangsan -o name=zhangsan,secretfile=/etc/ceph/zhangsan.key
示例二:
mkdir -p
还没有评论,来说两句吧...