当前位置: 首页 > news >正文

在一台机器上搭建一体化 Ceph 存储集群

概述

Ceph 是一个开源的软件定义存储平台,它在单个分布式计算机集群上实现对象存储,并提供对象级、块级和文件级存储的三合一接口。Ceph 存储集群由 Ceph 监视器、Ceph 管理器、Ceph 元数据服务器和 OSD 组成,它们协同工作来存储和复制数据,供应用程序、Ceph 用户和 Ceph 客户端使用。Ceph 还提供了使用 PostgreSQL 来利用网络存储的选项。

在这篇文章中,我将指导你通过一个简单的过程在单台机器上搭建一个一体化的 Ceph 存储集群,这样你就可以使用这个设置来运行简单的与存储相关的实验性开发或测试。

搭建 Ceph 存储集群

一个可用于生产环境的 Ceph 存储集群应该包含所有必要的组件以正确管理存储,但这篇博客文章旨在提供一个简单的设置,让开发人员能够快速体验网络存储集群。

搭建基础环境

在本节中,我使用了一台在 VirtualBox 上运行的 CentOS 7 虚拟机,并添加了三个虚拟硬盘(VHD)。这台虚拟机的存储设置如下图所示:
img1.png

登录到 CentOS 后,通过运行以下命令添加一个名为 ceph 的新用户:

$ sudo useradd -d /home/ceph -m ceph
$ sudo passwd ceph
$ echo "ceph ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/ceph
$ sudo chmod 0440 /etc/sudoers.d/ceph
$ su - ceph

然后使用以下命令安装基本软件包。Docker 用作容器,NTP 用于同步时钟:

$ sudo yum update
$ sudo yum install lvm2 docker ntp ntpdate ntp-doc python3

检查状态,确保 Docker 和 NTPD 都正常运行:

$ sudo systemctl status ntpd
$ sudo systemctl status docker

搭建集群监视器

有许多工具可用于管理 Ceph 存储集群,但我们将使用简单的 cephadm 作为我们的管理工具。

首先,切换到主目录并通过以下命令下载 cephadm:

$ cd ~
$ curl --silent --remote-name --location https://github.com/ceph/ceph/raw/octopus/src/cephadm/cephadm
$ chmod +x cephadm

接下来,添加 Octopus 版本的仓库并安装 cephadm:

$ sudo ./cephadm add-repo --release octopus
$ sudo ./cephadm install

现在,使用 cephadm 引导程序在 Ceph 存储集群中设置第一个监视器守护进程。将 192.168.0.134 替换为你实际的服务器 IP 地址。我们将使用简单的用户名和密码 admin/password 来简化设置,否则 cephadm 会生成一个随机密码,并要求你在首次登录时更改它。

$ sudo ./cephadm bootstrap --mon-ip 192.168.0.134 --dashboard-password-noupdate --initial-dashboard-user admin --initial-dashboard-password password

如果一切顺利运行,你应该会看到类似以下的一些消息。

Ceph Dashboard is now available at:URL: https://localhost.localdomain:8443/User: adminPassword: passwordYou can access the Ceph CLI with:sudo ./cephadm shell --fsid 1117491a-ca74-11ed-87fc-080027a1115e -c /etc/ceph/ceph.conf -k /etc/ceph/ceph.client.admin.keyringPlease consider enabling telemetry to help improve Ceph:ceph telemetry onFor more information see:https://docs.ceph.com/docs/master/mgr/telemetry/

设置好集群监视器后,使用 Web 浏览器登录并检查当前状态。通常会显示如下所示的仪表板:
img2.png

你也可以安装一些常用工具,通过命令行检查 Ceph 存储集群:

$ sudo cephadm install ceph-common

然后,使用以下命令检查状态,你应该会看到类似以下的输出:

$ sudo ceph statuscluster:id:     1117491a-ca74-11ed-87fc-080027a1115ehealth: HEALTH_WARNOSD count 0 < osd_pool_default_size 3services:mon: 1 daemons, quorum localhost.localdomain (age 9m)mgr: localhost.localdomain.trwhwk(active, since 8m)osd: 0 osds: 0 up, 0 indata:pools:   0 pools, 0 pgsobjects: 0 objects, 0 Busage:   0 B used, 0 B / 0 B availpgs:

搭建对象存储设备

如你在 ceph status 中所见,我们的这个集群中只有一个监视器在运行,但有 0 个 osd(对象存储设备)。在向这个存储集群添加对象存储设备之前,让我们使用 lsblk 检查当前的磁盘状态。

$ lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda               8:0    0   80G  0 disk
├─sda1            8:1    0    1G  0 part /boot
└─sda2            8:2    0   79G  0 part├─centos-root 253:0    0 49.8G  0 lvm  /├─centos-swap 253:1    0    5G  0 lvm  [SWAP]└─centos-home 253:2    0 24.3G  0 lvm  /home
sdb               8:16   0   30G  0 disk
sdc               8:32   0   30G  0 disk
sdd               8:48   0   30G  0 disk
sr0              11:0    1 1024M  0 rom

上面是 lsblk 命令的输出,它显示了系统当前的磁盘状态。它列出了所有可用的块设备,包括它们的名称、主要和次要设备编号、大小、类型以及挂载点(如果有的话)。在这种情况下,我们可以看到有三个额外的磁盘(sdb、sdc 和 sdd)尚未被使用。

接下来,让我们使用 Ceph 设备管理命令检查这三个磁盘是否可以添加。

$ sudo ceph orch device ls
Hostname               Path      Type  Serial               Size   Health   Ident  Fault  Available
localhost.localdomain  /dev/sdb  hdd   VBc50561fa-4658471a  32.2G  Unknown  N/A    N/A    Yes
localhost.localdomain  /dev/sdc  hdd   VBc775712c-0dbb8b17  32.2G  Unknown  N/A    N/A    Yes
localhost.localdomain  /dev/sdd  hdd   VB4dfb0df0-a8f28653  32.2G  Unknown  N/A    N/A    Yes

这三个磁盘在“Available”列中都显示为“是”,表明我们可以将它们添加到存储集群中。要将这些设备添加到集群中,我们需要运行以下命令:

$ sudo ceph orch apply osd --all-available-devices
Scheduled osd.all-available-devices update...

输出表明设备正在处理中,这可能需要一些时间。请等待几秒钟或几分钟,然后检查 ceph 集群状态。

$ sudo ceph statuscluster:id:     1117491a-ca74-11ed-87fc-080027a1115ehealth: HEALTH_OKservices:mon: 1 daemons, quorum localhost.localdomain (age 12m)mgr: localhost.localdomain.trwhwk(active, since 11m)osd: 3 osds: 3 up (since 20s), 3 in (since 20s); 1 remapped pgsdata:pools:   1 pools, 1 pgsobjects: 0 objects, 0 Busage:   3.0 GiB used, 87 GiB / 90 GiB availpgs:     1 active+undersized+remappedprogress:Rebalancing after osd.1 marked in (18s)[............................]

现在我们可以看到,3 个 OSD 已添加到这个 Ceph 存储集群中。如果我们再次运行“lsblk”命令,应该会看到类似以下的输出,表明 sdb、sdc 和 sdd 现在正被 Ceph 存储集群使用。

$ lsblk
NAME                                                                                                  MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                                                                                                     8:0    0   80G  0 disk
├─sda1                                                                                                  8:1    0    1G  0 part /boot
└─sda2                                                                                                  8:2    0   79G  0 part├─centos-root                                                                                       253:0    0 49.8G  0 lvm  /├─centos-swap                                                                                       253:1    0    5G  0 lvm  [SWAP]└─centos-home                                                                                       253:2    0 24.3G  0 lvm  /home
sdb                                                                                                     8:16   0   30G  0 disk
└─ceph--7062ccde--bf6b--4252--ba0a--a66e02c0839d-osd--block--5ca780b0--b4a3--49c3--b58d--3aba26b88d14 253:3    0   30G  0 lvm
sdc                                                                                                     8:32   0   30G  0 disk
└─ceph--c38c357f--71ef--4641--acd4--8cb7bdf53520-osd--block--ae0bc25d--299e--45f0--af4f--890263970f1d 253:4    0   30G  0 lvm
sdd                                                                                                     8:48   0   30G  0 disk
└─ceph--debbc90a--860a--4e8f--9e93--a3c6e48e7994-osd--block--ccd3d288--f87f--4fa3--983a--102d838ea2a1 253:5    0   30G  0 lvm
sr0

如果你的 Ceph 存储集群的健康状态仍然处于 HEALTH_WARN 状态,你可以尝试运行本文中描述的命令来解决该问题。

解决问题后,你的 ceph 存储集群应该处于 HEALTH_OK 状态。

$ sudo ceph statuscluster:id:     1117491a-ca74-11ed-87fc-080027a1115ehealth: HEALTH_OKservices:mon: 1 daemons, quorum localhost.localdomain (age 17m)mgr: localhost.localdomain.trwhwk(active, since 16m)osd: 3 osds: 3 up (since 5m), 3 in (since 5m)data:pools:   1 pools, 1 pgsobjects: 0 objects, 0 Busage:   3.0 GiB used, 87 GiB / 90 GiB availpgs:     1 active+clean

本地测试 Ceph 存储集群

搭建 Ceph 存储集群主要是为了网络存储场景,但我们稍后会考虑块、对象和文件系统的不同访问网络场景。在这里,我们将创建一个 Cephfs 文件系统,将其本地挂载,并执行一个简单的测试。

要创建 Cephfs 文件系统,请运行以下命令并进行验证:

$ sudo ceph fs volume create cephfs
$ sudo ceph fs volume ls
[{"name": "cephfs"}
]

要在本地挂载 cephfs 文件系统,

  1. 通过运行以下命令为 cephfs 创建一个密钥:
$ sudo ceph fs authorize cephfs client.user / rw | sudo tee /etc/ceph/ceph.client.user.keyring
[client.user]key = AQCcFR5kLAgrERAAdfgLAUqdGvRxghJrLUkBMw==

此命令将创建一个密钥并将其写入密钥环文件。

  1. 通过运行以下命令挂载 cephfs 文件系统:
$ sudo mount -t ceph :/ /media/cephfs -o name=user,secret=AQCcFR5kLAgrERAAdfgLAUqdGvRxghJrLUkBMw==

此命令将把 cephfs 文件系统挂载到 /media/cephfs 目录。

  1. 通过运行以下命令将挂载目录的所有权更改为 ceph:ceph:
$ sudo chown -R ceph:ceph /media/cephfs/
  1. 在挂载目录中创建一个文件并验证其内容:
$ echo "hello ceph storage cluster" > /media/cephfs/hello.txt
$ cat /media/cephfs/hello.txt
hello ceph storage cluster

此时,你可以尝试使用类似以下的一些命令在另一台 CentOS 机器上挂载这个 Ceph 存储集群。不过,我们将在下一篇博客文章中讨论这个主题。

ssh ceph@192.168.0.134 'sudo ceph-authtool -p /etc/ceph/ceph.client.admin.keyring' > client.admin.key
sudo mount -t ceph 192.168.0.134:/ /mnt/cephfs -o name=admin,secretfile=client.admin.key

总结

在这篇博客文章中,我们介绍了在单个虚拟机上搭建简单的 Ceph 存储集群并在 Cephfs 存储集群上执行基本测试的过程。我们创建了一个 Ceph 用户,设置了 Ceph 监视器和管理器,添加了对象存储设备,并创建了一个 Cephfs 文件系统。然后我们在本地挂载了 Cephfs 文件系统,创建了一个文件,并读取其内容以验证挂载是否成功。在未来的文章中,我们将探索更高级的用例,例如使用 Cephfs 文件系统在一体化 Ceph 存储集群上运行 PostgreSQL。

http://www.hskmm.com/?act=detail&tid=35920

相关文章:

  • byte,short,int,Long,char数据类型复习
  • 垃圾回收器总览
  • 软件工程第三次作业——结对项目
  • 2025年硅锰合金厂家推荐排行榜,硅锰合金颗粒,硅锰合金粉,高纯度硅锰合金材料源头厂家深度解析
  • PyCharm下载安装教程及激活步骤(附安装包)超详细保姆级教程
  • Windows下利用 Python OCR 识别电子发票(增值税专用发票)(使用 GhostScript 和 Tesseract )
  • 垃圾回收算法
  • 2025年臭氧检测仪厂家权威推荐榜:在线式/固定式/便携式/手持式/工业臭氧检测仪专业选购指南
  • 2025年拖鞋机厂家权威推荐榜:酒店拖鞋生产线,全自动拖鞋机,一次性拖鞋机,酒店一次性拖鞋机器专业选购指南
  • 生成式 AI 重构内容创作:从辅助工具到智能工厂 - 实践
  • 2025年不锈钢酸洗钝化液厂家推荐排行榜:环保型不锈钢清洗钝化液,不锈钢管酸洗钝化处理,不锈钢清洗剂专业选购指南
  • 达梦8加密函数是什么怎么调用,达梦数据库加密算法
  • 基于Windows,Docker用法
  • 厨房电子秤方案:厨房秤常规的功能有那些?
  • npx和npm exec有什么区别
  • MySQL 死锁 怎么处理?
  • MyBatis 的 @SelectProvider 是一个强大的注解,用于动态生成 SQL 语句
  • 跨境客服系统如何保障国际数据传输安全?
  • 物联网短信收发速成:10分钟用SMS库上手实战
  • 2025年耳机插座厂家权威推荐榜:DC防水耳机插座,专业防水防尘设计,耐用稳定性能卓越之选
  • 2025年10月18日,工信部人才交流中心PostgreSQL认证考试完成!
  • 2025年CNC加工厂家权威推荐榜:CNC精密加工/加工中心CNC/cnc电脑锣加工/铝板cnc加工/精密CNC加工源头企业综合评测
  • Yolo11分类模型
  • 市面上的开源 AI 智能体平台使用体验
  • 简支梁在荷载作用下的变形计算
  • 2025年真空烧结炉厂家权威推荐榜单:高效节能、智能温控、工业窑炉设备优质供应商精选
  • 基于 tar.gz 的自定义 安装InfluxDB
  • 2025年移动泵车厂家推荐排行榜,防汛泵车,水泵机组,应急排水泵车,柴油机泵车公司精选
  • Oracle 触发器
  • 2025年铁氟龙高温线厂家推荐排行榜,铁氟龙/极细铁氟龙/UL10064铁氟龙/UL1332铁氟龙/UL1867铁氟龙公司推荐