当前位置:首页 > 物理机 > 正文

物理机使用ceph

机使用Ceph时,需部署集群并配置OSD、MON等组件,支持块/对象/文件存储,适配多品牌服务器及硬盘方案

是关于在物理机上使用Ceph的详细介绍:

硬件准备与规划

  1. 机器选型:建议采用多品牌混合部署策略(如Huashan Technologies R4900 G2、Sugon I620-G20和浪潮SA5212M5),确保不同型号服务器的兼容性,典型配置包括双路Intel® Xeon® CPU E5-2650 v4处理器、大容量内存以及多样化的硬盘组合。

  2. 磁盘管理方案

    • 系统盘:统一采用RAID 1模式保障操作系统可靠性。
    • 数据盘:若RAID卡支持单盘RAID 0则优先启用以提升性能;否则保持为独立卷,避免将多个数据盘捆绑成单一逻辑单元,这种设计既保证IO隔离性,又便于后续扩容维护。
  3. 角色分配示例
    | 主机名 | IP地址 | 磁盘配置 | 承担角色 |
    |————————–|—————-|—————————————-|———————————–|
    | cephtest001 | 10.3.176.10 | 系统盘/dev/sda;数据盘/dev/sdb-sdd | ceph-deploy,monitor,mgr,mds,osd |
    | cephtest002 | 10.3.176.16 | 系统盘/dev/sda;数据盘/dev/sdb-sdf | monitor,mgr,mds,osd |
    | cephtest003 | 10.3.176.44 | 系统盘/dev/sda;数据盘/dev/sdb-sdg | monitor,mgr,mds,osd |

基础环境搭建

  1. 网络配置

    物理机使用ceph  第1张

    • DNS解析:在内网环境中需手动配置/etc/resolv.conf,添加内部DNS服务器地址,同时备份原配置文件防止回滚失败,通过修改NetworkManager.conf实现持久化设置,最终重启服务使变更生效。
    • 主机名映射:编辑/etc/hosts文件建立IP与hostname的对应关系,并使用SCP工具同步至所有节点,确保跨节点通信正常。
  2. 无密码SSH互通:基于ssh-keygen生成RSA密钥对,执行ssh-copy-id命令将公钥注入到其他节点的授权列表,实现root用户免密登录,该步骤可显著简化后续自动化部署流程。

  3. 时间同步:安装Chrony组件构建主从式NTP服务体系,客户端指向NTP服务器进行时钟校准,避免因时间差导致的集群脑裂问题。

Ceph核心组件部署

  1. 存储池创建:根据业务需求选择RBD(块设备)、CephFS(文件系统)或RGW(对象网关),物理机场景常用RBD镜像作为虚拟磁盘挂载给业务主机使用。

  2. PG与OSD映射机制:Ceph通过CRUSH算法自动计算数据分布位置,当写入数据时,先切片为多个Object,再经Hash运算归属到特定PG,最后按副本策略分散至不同OSD,此过程确保高并发下的负载均衡与故障域隔离。

  3. 监控调优:定期检查集群状态ceph -s,关注健康度、OSD利用率及PG状态,若出现瓶颈,可通过调整osd_pool_default_pg_num参数优化恢复速度。

高级应用场景扩展

  1. iSCSI网关集成:对于需要兼容传统SCSI协议的场景,可部署iSCSI目标服务,该方案特别适用于Windows客户端或BIOS级引导需求,通过TCP/IP网络将RBD映像暴露为SCSI设备,LIO模块结合TCMU技术实现用户态与内核态的数据交互,既保留Ceph的分布式特性,又提供标准化块存储接口。

  2. 云物理机动态扩容:针对裸金属服务器的数据盘在线扩展难题,可采用Ceph RBD动态调整策略,相较于本地磁盘受限于硬件更换流程,RBD支持在线扩容且不受RAID模式约束,极大简化运维复杂度。

以下是相关问答FAQs:

  1. Q: 为什么物理机的系统盘推荐使用RAID 1而不是更高级的RAID级别?
    A: 因为系统盘对稳定性要求高于性能需求,RAID 1通过镜像实现冗余,在单盘故障时能快速切换,而更高级的RAID(如RAID 5/6)虽然存储效率高但重建时间长,可能影响系统启动。

  2. Q: Ceph集群至少需要几个Monitor节点?如何保证高可用?
    A: 官方推荐至少3个Monitor节点形成法定人数(quorum),通过Paxos算法保持状态一致,当部分节点失效时,剩余节点仍可维持选举机制正常运行,确保集群元数据的可靠性

0