Ceph Luminous安装指南
環(huán)境說明
按以上表格所示,設置各臺服務器的主機名。
hostnamectl set-hostname 主機名
以下操作需要在所有節(jié)點執(zhí)行。
停止防火墻
systemctl disable firewalld
systemctl stop firewalld
禁止selinux.
vim /etc/selinux/config
配置為disabled
配置/etc/hosts
10.0.0.230 admin
10.0.0.231 node231
10.0.0.232 node232
10.0.0.233 node233
10.0.0.234 client
更換yum源為國內阿里云
http://blog.csdn.net/chenhaifeng2016/article/details/78864541
添加ceph安裝源
vim /etc/yum.repos.d/ceph.repo
[Ceph] name=Ceph packages for $basearch baseurl=http://mirrors.aliyun.com/ceph/rpm-luminous/el7/$basearch enabled=1 gpgcheck=1 type=rpm-md gpgkey=https://download.ceph.com/keys/release.asc[Ceph-noarch] name=Ceph noarch packages baseurl=http://mirrors.aliyun.com/ceph/rpm-luminous/el7/noarch enabled=1 gpgcheck=1 type=rpm-md gpgkey=https://download.ceph.com/keys/release.asc[ceph-source] name=Ceph source packages baseurl=http://mirrors.aliyun.com/ceph/rpm-luminous/el7/SRPMS enabled=1 gpgcheck=1 type=rpm-md gpgkey=https://download.ceph.com/keys/release.asc安裝ntp
yum install ntp
systemctl enable ntpd
systemctl start ntpd
查看ntp狀態(tài)
ntpq -p
重啟所有節(jié)點
shutdown -r now 或者reboot
以下操作只需在admin節(jié)點運行
配置ssh免密登錄?
ssh-keygen?
ssh-copy-id admin
ssh-copy-id node231
ssh-copy-id node232
ssh-copy-id node233
ssh-copy-id client
安裝ceph-deploy
yum install ceph-deploy
創(chuàng)建配置文件目錄
mkdir -p /etc/ceph
cd /etc/ceph
創(chuàng)建一個ceph集群
cepy-deploy new node231
在所有節(jié)點上安裝ceph二進制軟件包
ceph-deploy admin node231 node232 node233 client
ceph -v或ceph version
創(chuàng)建一個Ceph MON
ceph-deploy mon create-initial
創(chuàng)建Ceph OSD
ceph-deploy disk list node231
ceph-deploy disk zap node231:vdb
ceph-deploy disk zap node232:vdb
ceph-deploy disk zap node233:vdb
ceph-deploy --overwrite-conf osd create node231:vdb ceph-deploy --overwrite-conf osd create node232:vdb ceph-deploy --overwrite-conf osd create node233:vdb編輯文件/etc/ceph/ceph.conf添加以下內容 public_network = 10.0.0.0/24
拷貝配置文件到各個節(jié)點 ceph-deploy admin client node231 node232 node233
創(chuàng)建MON ceph-deploy --overwrite-conf mon create node231 ceph-deploy --overwrite-conf admin node231
ceph-deploy --overwrite-conf mon create node232 ceph-deploy --overwrite-conf admin node232
ceph-deploy --overwrite-conf mon create node233 ceph-deploy --overwrite-conf admin node233
這個時候在3個節(jié)點分別建立了MON和OSD. 查看一下狀態(tài)
有3個MON, 3個OSD, 但是cluster的狀態(tài)是HEALTH_WARN, 原因為是no active mgr, 接下來創(chuàng)建Ceph MGR
ceph-deploy mgr create node231 ceph-deploy mgr create node232 ceph-deploy mgr create node233
到這一步,ceph集群已經(jīng)安裝完成。
接下來測試一下塊存儲, 以下操作在client節(jié)點進行。
創(chuàng)建一個新的存儲池,而不是使用默認的rbd ceph osd pool create test 128
創(chuàng)建一個塊 rbd create --size 10G disk01 --pool test
查看rbd
查看塊的特性 rbd info --pool test disk01
由于內核不支持,需要禁止一些特性,只保留layering
rbd --pool test feature disable disk01 exclusive-lock, object-map, fast-diff, deep-flatten
映射塊disk01到本地
rbd map --pool test disk01
格式化塊設備
mkfs.ext4 /dev/rbd0
把rbd0掛載到本地目錄
mount /dev/rbd0 /mnt
這個時候查看集群狀態(tài), 集群的狀態(tài)是HEALTH_WARN
執(zhí)行ceph health detail
根據(jù)提示信息執(zhí)行ceph osd pool application enable test rbd
集群狀態(tài)正常了。
總結
以上是生活随笔為你收集整理的Ceph Luminous安装指南的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 区块链 HyperLedger Fabr
- 下一篇: devstack安装OpenStack