Ceph 集群部署:使用 cephadm 快速搭建生产环境
cephadm 是 Ceph 官方推荐的部署工具,使用容器化方式管理 Ceph 集群。它简化了部署流程,支持滚动升级,并且与 Ceph 版本紧密集成。
本文将详细介绍如何使用 cephadm 从零开始部署一个生产级的 Ceph 集群。
一、环境准备
1.1 硬件要求
| 节点类型 | 数量 | CPU | 内存 | 磁盘 |
|---|---|---|---|---|
| 管理节点 | 1 | 4 核 | 8GB | 100GB SSD |
| MON/MGR 节点 | 3 | 4 核 | 16GB | 100GB SSD |
| OSD 节点 | 3+ | 8 核 | 32GB+ | 数据盘×N |
网络要求:
- 前端网络(客户端访问):10GbE+
- 后端网络(数据复制):10GbE+(可与前端共用)
- 节点间延迟:< 10ms
1.2 系统要求
- 操作系统:Ubuntu 20.04/22.04、Rocky Linux 8/9、CentOS Stream 8/9
- Docker/Podman:Docker 20.10+ 或 Podman 4.0+
- Python:Python 3.6+
- 时间同步:所有节点配置 NTP/Chrony
二、前置配置
2.1 配置主机名解析
2.2 配置 SSH 免密登录
2.3 安装 Docker
2.4 配置时间同步
三、部署 Ceph 集群
3.1 下载 cephadm
3.2 引导集群
参数说明:
--mon-ip:MON 节点 IP 地址--dashboard-password-noprompt:自动生成 Dashboard 密码--cluster-network:后端存储网络(可选)
3.3 添加其他节点
四、部署 OSD 存储
4.1 查看可用磁盘
五、创建存储池
5.1 创建副本存储池
六、集群验证
6.1 检查集群健康
6.2 测试 RBD 存储
6.3 访问 Dashboard
浏览器访问 https://ceph-node1:8443,用户名:admin,密码查看 /etc/ceph/ceph.client.admin.keyring
七、日常运维命令
八、常见问题
8.1 OSD 无法启动
检查:磁盘是否被其他进程占用、是否有分区表
8.2 Dashboard 无法访问
总结
通过本文,你应该已经成功部署了一个生产级的 Ceph 集群:
- ✅ 完成环境准备和前置配置
- ✅ 使用 cephadm 引导集群
- ✅ 添加节点和部署 OSD
- ✅ 配置 Dashboard 和管理服务
- ✅ 创建存储池并验证功能
下一步:配置 RBD 块存储、部署 RGW 对象存储网关、搭建 CephFS 文件系统
🔗 相关链接
下一篇将介绍 Ceph RBD 块存储:从创建到 Kubernetes 集成,敬请期待!
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。





