Redhat Ha Cluster -(转)
生活随笔
收集整理的這篇文章主要介紹了
Redhat Ha Cluster -(转)
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
Redhat Ha Cluster
LinuxUla ??2009-06-25 23:50一 集群概念1 集群:集群是一組協(xié)同工作的服務(wù)實(shí)體,用來(lái)提供比單一服務(wù)實(shí)體更具擴(kuò)展性以及可用性的服務(wù)平臺(tái)。
2 集群的可擴(kuò)展性:可以動(dòng)態(tài)的加入新的服務(wù)節(jié)點(diǎn)來(lái)提高集群的綜合性能,而不需要停掉集群提供的服務(wù)。
3 集群的高可用性:集群實(shí)體通過內(nèi)部服務(wù)節(jié)點(diǎn)的冗余方式來(lái)避免客戶端訪問時(shí)出現(xiàn)out of service的狀況。也就是說(shuō),集群中同一服務(wù)可以由多個(gè)服務(wù)節(jié)點(diǎn)提供,當(dāng)部分節(jié)點(diǎn)失效后,其他服務(wù)可以接管服務(wù)。
4 集群的實(shí)體地址:是客戶端訪問集群實(shí)體獲取服務(wù)的唯一入口。
5 負(fù)載均衡:指集群中的分發(fā)設(shè)備將用戶的請(qǐng)求比較均衡的分發(fā)給集群實(shí)體中各個(gè)服務(wù)節(jié)點(diǎn)的計(jì)算、存儲(chǔ)、以及網(wǎng)絡(luò)資源。
6 負(fù)載均衡器:負(fù)責(zé)提供負(fù)載均衡的設(shè)備。其一般具備如下功能:
1)維護(hù)集群地址
2 )負(fù)責(zé)管理各個(gè)服務(wù)節(jié)點(diǎn)的加入和退出
3 )集群地址向內(nèi)部服務(wù)節(jié)點(diǎn)地址的轉(zhuǎn)換
7 錯(cuò)誤恢復(fù):指集群中的某個(gè)或者某些服務(wù)節(jié)點(diǎn)不能正常工作或者提供服務(wù)時(shí),其他服務(wù)節(jié)點(diǎn)可以資源透明的完成原有任務(wù)。
8 HA集群:高可用性集群,通過特殊的軟件將獨(dú)立的node連接起來(lái),組成一個(gè)能夠提供故障切換的集群。它保證了在多種故障中,關(guān)鍵性服務(wù)的可用性、可靠性、以及數(shù)據(jù)的完整性。主要應(yīng)用與文件服務(wù),WEB服務(wù),數(shù)據(jù)庫(kù)服務(wù)等關(guān)鍵應(yīng)用中。
9 LB集群:負(fù)載均衡集群,在LB服務(wù)器上使用專門的路由算法,將數(shù)據(jù)包分散到多個(gè)真實(shí)服務(wù)器上進(jìn)行處理,從而達(dá)到網(wǎng)絡(luò)服務(wù)的負(fù)載均衡的作用。主要運(yùn)用于公共WEB服務(wù),FTP服務(wù),數(shù)據(jù)庫(kù)服務(wù)等高負(fù)載的服務(wù)中。
10 集群技術(shù)的優(yōu)勢(shì):低成本,高可用,高擴(kuò)展,高資源利用率。
二 HA 高可用集群
1 HA集群的三種方式:對(duì)稱,主從,多機(jī)。
1)對(duì)稱方式:包括2臺(tái)服務(wù)器以及至少1個(gè)服務(wù),2臺(tái)服務(wù)器都運(yùn)行服務(wù),哪臺(tái)先起則在哪臺(tái)上啟動(dòng)服務(wù),當(dāng)一臺(tái)失效時(shí),服務(wù)遷移至另外一臺(tái)上,當(dāng)失效機(jī)恢復(fù)正常時(shí),服務(wù)不會(huì)遷回至該機(jī)。
2)主從方式:包括2臺(tái)服務(wù)器以及至少1個(gè)服務(wù),其中權(quán)重較高的服務(wù)器運(yùn)行服務(wù),另外一臺(tái)作為備份服務(wù)器,并且監(jiān)視Master 的狀態(tài),當(dāng)Master發(fā)生故障時(shí),服務(wù)會(huì)切換至Slave服務(wù)器;當(dāng)Master恢復(fù)正常,服務(wù)遷回至Master。
3)多機(jī)方式:2臺(tái)以上服務(wù)器以及至少1個(gè)服務(wù)的對(duì)稱方式或者主從方式。
2 HA的基本組成
1)Service:是HA集群中提供的特定資源。
2)Node:HA集群中實(shí)際運(yùn)行服務(wù)提供特定資源的服務(wù)器。
3)Failover Domain:HA集群中所有提供特定資源的成員服務(wù)器的集合。
4)Hearbeat:通過網(wǎng)絡(luò)數(shù)據(jù)包來(lái)監(jiān)視服務(wù)器狀態(tài)的方法。
5)ShareStorage:共享存儲(chǔ)來(lái)儲(chǔ)存HA集群所需的數(shù)據(jù)。
6)單一故障點(diǎn):HA集群中可能出現(xiàn)故障的單個(gè)設(shè)備。
7)仲裁:判斷服務(wù)器及其服務(wù)是否運(yùn)行正常
8)服務(wù)失效轉(zhuǎn)移:當(dāng)node出現(xiàn)硬件或者服務(wù)失效時(shí),應(yīng)相應(yīng)的服務(wù)遷移至失效域中的其他節(jié)點(diǎn)
9)Watchdog:定時(shí)向各節(jié)點(diǎn)發(fā)送信息,來(lái)確定節(jié)點(diǎn)或者節(jié)點(diǎn)上的服務(wù)的運(yùn)行狀態(tài)
10)可編程的電源控制器:由外部控制的電源控制器,連接各節(jié)點(diǎn),當(dāng)某臺(tái)節(jié)點(diǎn)死鎖時(shí),可以通過其他成員服務(wù)器或者設(shè)備強(qiáng)行關(guān)閉該節(jié)點(diǎn)的電源。
三 使用qdisk以及組播方式作仲裁的基于Web的RedHat Ha 高可用集群的配置
1 硬件環(huán)境
node1:192.168.0.1
node2:192.168.0.2
node3:192.168.0.3
fence:192.168.0.4
所有設(shè)備在uplooking.com內(nèi)網(wǎng)中
所有主機(jī)都運(yùn)行在RHEL5U3 OS 上,并開啟ssh服務(wù),關(guān)閉selinux,方便操作
step1
在fence上編輯/etc/hosts文件,聲明所有節(jié)點(diǎn)以及fence
vi /etc/hosts??
192.168.0.1 node1.uplooking.com node1
192.168.0.2 node2.uplooking.com node2
192.168.0.4 fence.uplooking.com fence
這里先不將node3 加入進(jìn)來(lái),在配置完3臺(tái)的集群后,再動(dòng)態(tài)的將node3 加入,體現(xiàn)集群技術(shù)的高擴(kuò)展性。
step2
將fence 上的hosts 文件,復(fù)制給node1和node2
for i in node1 node2;do scp /etc/hosts $i:/etc;done
(可以將fence的公鑰復(fù)制給各個(gè)node,這樣在scp時(shí)就不需要頻繁輸入密碼了)
step3
設(shè)置各節(jié)點(diǎn)的主機(jī)名
for i in node1 node2 fence;do hostname $i;done
要想重啟后仍舊使用該主機(jī)名,修改/etc/sysconfig/network 文件
step4
在各臺(tái)機(jī)器上yum 安裝Clustering 套件;使用本地yum源
for i in node1 node2 fence;do ssh $i yum groupinstall -y Clustering;done
在這里可以將node3 的集群套件也安裝上,
ssh 192.168.0.3 yum groupinstall -y Clustering
step5
安裝完成后,取消各節(jié)點(diǎn)開機(jī)啟動(dòng)RHCS
for i in node1 node2 fence;do chkconfig cman off;done
for i in node1 node2 fence;do chkconfig rgmanager off;done
for i in node1 node2; do chkconfig httpd off;done 我們將通過集群由rgmanager 運(yùn)行httod 服務(wù)
也在192.168.0.3上進(jìn)行該操作
step6
使用圖形化工具system-config-cluster 來(lái)生成我們的cluster.conf xml配置文件
1)執(zhí)行system-config-cluster 命令
2)選擇create new configuration 選項(xiàng)來(lái)生成一個(gè)新的配置文件
3)為我們的集群起一個(gè)響亮的名字,在 Choose a name for the cluster 下的文本框內(nèi)輸入
4)選擇 custom configure multicast ;輸入一個(gè)組播地址;該值的區(qū)間為[225.0.0.1,234.255.255.255]
這里先使用組播方式來(lái)確定成員服務(wù)器的狀態(tài),qdisk 在node3 加入后再行配置
5) 選中左邊的fence devices ,點(diǎn)擊右下角的add a fence device ;在下拉菜單中選擇global network block device ;在name 文本框中輸入你想要的名字,例如fence_dev ;在servers 中輸入你在/etc/hosts文件中聲明的fence 主機(jī)的主機(jī)名或者ip 。這里選擇gnbd 因?yàn)槲覀儧]有真正的fence 柵設(shè)備,只能用軟件來(lái)模擬。
6)選中左邊的cluster nodes ,點(diǎn)擊右邊的add a cluster node ;出現(xiàn)對(duì)話框后,輸入我們?cè)趆osts文件中聲明過的節(jié)點(diǎn)名,node1 ;quorum votes 為仲裁權(quán)重,不輸入它,Muticast interface 為接收組播的接口,選擇eth0 。重復(fù)該動(dòng)作設(shè)置node2 和 fence。
7)在左邊選擇我們?cè)O(shè)置的節(jié)點(diǎn)名node1 ;點(diǎn)擊右邊的 manage fencing? for this node ;之后點(diǎn)擊 add a new fence level ;選擇點(diǎn)擊后出現(xiàn)的fence-level-1 ;點(diǎn)擊add a new fence to this level ;將fence_dev 配置給它。
8)選中左邊的failover domains ;點(diǎn)擊右邊的create a failover ;為失效域取一個(gè)名字;例如failover_httpd ;然后在下拉菜中將node1 node2 加入失效域。右邊的restrict failover to this domains members 意為在該失效域的node中輪替;另外個(gè)選項(xiàng)prioritized list 允許你使用adjust priority 箭頭來(lái)設(shè)置nodes 的優(yōu)先級(jí)。
9)選中左邊的resources ;點(diǎn)擊右邊的create a resource ;在下拉菜單中選擇ip adress 為我們的集群配置一個(gè)浮動(dòng)ip ;該ip 是訪問我們集群的唯一入口;設(shè)置一個(gè)沒人用的內(nèi)網(wǎng)ip吧;如192.168.0.11(假設(shè)沒有人在使用它);ok 后繼續(xù)在下拉菜單中選擇script ;使用腳本方式來(lái)啟動(dòng)我們的httpd 服務(wù);name 中輸入你想要的名字;例如apache ;在file(with path) 中輸入/etc/init.d/httpd 。
10)選中左邊的services ;點(diǎn)擊create a service ;輸入我們的服務(wù)名字;例如apache_ha ;接下來(lái)點(diǎn)擊左下角的add a shared resource to this service ;將我們剛才設(shè)置的ip 以及httpd 資源配置給它。并且在右上角選擇我們剛才配置的失效域;在autostart this service 上打勾,并且選擇relcate為我們的切換方式。
11)在左上角的file 中選擇save ;保存我們的配置文件;默認(rèn)在/etc/cluster/cluster.conf
step7
將fence 上的/etc/cluster/cluster.conf 分發(fā)給各個(gè)node ;
for i in node1 node2;do scp -r /etc/cluster $i:/etc;done
step8?
在各個(gè)node 上啟動(dòng)cluster 服務(wù)
fence?
service cman start
gnbd_serv(若沒有安裝gnbd ;使用yum install gnbd* 安裝上它)
node1?
service cman start
service rgmanager start
node2?
/etc/init.d/cman start
/etc/init.d/rgmanager start
step9
若所有服務(wù)順利啟動(dòng)成功;可以用如下方法測(cè)試:
clustat 查看當(dāng)前狀態(tài),發(fā)現(xiàn)httpd 正運(yùn)行在node2 上;
ssh node2 "echo b > /proc/sysrq-trigger" 使用該命令干掉他,或者可以拔網(wǎng)線,拔電源,砸機(jī)器都可以;
在使用clustat 查看狀態(tài),可以看到服務(wù)運(yùn)行到了node1 ,并且node2 offline了
step10
將node3 動(dòng)態(tài)的加入進(jìn)我們現(xiàn)有的集群中:
1)將干掉的node2 重新加入到集群中
service cman start
service rgmanager start
2) 在hosts 文件中聲明node3
vi /etc/hosts
192.168.0.3 node3.uplooking.com node3
3) 將hosts 文件分發(fā)給各個(gè)node
for i in node1 node2 node3 ;do scp /etc/hosts $:/etc;done
4) 設(shè)置node3 的hostname
ssh node3 hostname node3
5) 編輯/etc/cluster/cluster.conf
a 修改 version
b 復(fù)制node1 或者node 2 的配置語(yǔ)句
c 將復(fù)制的配置語(yǔ)句中node1 或者 node2 部分 修改為 node3
d 在failover domain 的配置部分加入node3 節(jié)點(diǎn)的配置
e 保存退出
6)ccs_tool update /etc/cluster/cluster.conf
改命令用于更新集群中各節(jié)點(diǎn)的配置文件,使其同步到相同的版本
7)將配置文件拷貝給node3?
scp -r /etc/cluster node3:/etc
8)在node3 上啟動(dòng)服務(wù)
service cman start
service rgmanager start
ip add list
不出意外使用clustat 可以發(fā)現(xiàn)node3 加入了集群
9)我們可以使用命令來(lái)遷移當(dāng)前服務(wù)
clusvcadm -r apache_ha -m node3
將httpd 服務(wù)遷移到 node3
10)要將node3 T出集群,我們需要將配置文件中node3 的部分全部刪除;并且ccs_tool update 配置文件;
node3 將被打上標(biāo)記聲明已被T出集群
step 11
設(shè)置qdisk 仲裁投票機(jī)制。
在擁有3個(gè)相同權(quán)重的節(jié)點(diǎn)以后,集群中的2個(gè)節(jié)點(diǎn)當(dāng)機(jī),另外一個(gè)節(jié)點(diǎn)活著的時(shí)候,使用組播方式投票,集群會(huì)信任死掉的2個(gè)節(jié)點(diǎn)的投票,因?yàn)?臺(tái)存活節(jié)點(diǎn)的權(quán)重加1,無(wú)法大于所有權(quán)重之和的一半,就會(huì)把存活著的node 也干掉,從而導(dǎo)致了整個(gè)集群的癱瘓。
因 此我們需要使用qdisk 的方式投票,qidsk使用探針來(lái)證明節(jié)點(diǎn)是否有投票的權(quán)利,若節(jié)點(diǎn)已死,就根本沒有資格來(lái)投票,從而保證了2臺(tái)服務(wù)器死掉后,另外一臺(tái)能正常運(yùn)行的狀 況。1臺(tái)存活節(jié)點(diǎn)的權(quán)重與qdisk權(quán)重之和整除2加1,大于所有權(quán)重之和的一半,就可以使節(jié)點(diǎn)存活下來(lái)。
1)使用system-config-cluster 來(lái)生成qdisk 的配置文件段;
a 執(zhí)行命令system-config-cluster
b 選擇create new configuration 選項(xiàng)來(lái)生成一個(gè)新的配置文件
c 選中 use a quorum disk
d 如下配置
? interval? 1? 每隔1秒發(fā)起投票
? tko 3 擊倒次數(shù)
? vote 2? qdisk 的權(quán)重?
? minimun 1 node 最小的權(quán)重
? device 不配置 qdisk 的設(shè)備名
? label qdisk1 qdisk 的label 名
? program ping -c2 -s2 192.168.0.254(網(wǎng)關(guān))
? score 1? 探測(cè)1次
? interval 2 每隔2秒探測(cè)1次
2)將配置文件另存為一個(gè)路徑;例如/root
3)將配置文件中的qdisk 配置語(yǔ)句復(fù)制到/etc/cluster/cluster.conf
4)ccs_tool update /etc/cluster/cluster.conf
5)在fence 上劃分一個(gè)分區(qū)作為qdisk 的設(shè)備
a fdisk /dev/sda ;分出20M的分區(qū)
b partprobe
c fdisk -l 查看分區(qū)名;假設(shè)為 /dev/sda7
6)在fence 上安裝iscsi 導(dǎo)出工具
yum install scsi-target-utils
7)配置并到導(dǎo)出iscsi 為qdisk 設(shè)備
vi /etc/tgtd/target.conf
<target iqn.2009-06.com.uplooking.fence:qdisk>
back-store /dev/sda7?
<\target>
8)service tgtd start
9)在各個(gè)節(jié)點(diǎn)上安裝啟動(dòng)端
for i in node1 node2 node3;do ssh $i? yum install -y iscsi-initiator;done?
安裝完成后啟動(dòng)服務(wù)
for i in node1 node2 node3;do ssh $i? service iscsi start;done
10)在1個(gè)節(jié)點(diǎn)上發(fā)現(xiàn)并且掛接qdisk
ssh node1 iscsiadm -m discovery -t sendtargets -p 192.168.0.4:3260
ssh node1 iscsiadm -m node -T iqn.2009-06.com.uplooking.fence:qdisk
11)在任意一臺(tái)節(jié)點(diǎn)上格式化qdisk
ssh node1 mkqdisk -c /dev/sdb -l qdisk1
/dev/sdb 為本地掛接qdisk 的設(shè)備,qdisk1 為我們先前配置的qdisk 的label 名
12)在另外兩臺(tái)節(jié)點(diǎn)上發(fā)現(xiàn)并且掛接qdisk
for i in node1 node2 node3 ; do ssh $i iscsiadm -m discovery -t sendtargets -p 192.168.0.4:3260;done
for i in node1 node2 node3 ; do ssh $i iscsiadm -m node -T iqn.2009-06.com.uplooking.fence:qdisk;done
13)在各個(gè)節(jié)點(diǎn)上啟動(dòng)qdisk 服務(wù)
for i in node1 node2 node3 ; do ssh $i service qdiskd start;done
如果順利,使用clustat 命令可以查看到qdisk 加入了集群,并且處于online 狀態(tài)。
14)測(cè)試掛掉2 臺(tái)服務(wù)節(jié)點(diǎn),可以看到我們的集群在掛掉2臺(tái)節(jié)點(diǎn)以后,剩下的唯一節(jié)點(diǎn)仍然堅(jiān)挺。
四 使用共享存儲(chǔ)的mysql-HA 集群
使用共享存儲(chǔ)可以使各個(gè)節(jié)點(diǎn)的數(shù)據(jù)同步,但是使用ext3文件系統(tǒng),經(jīng)常會(huì)在同讀寫同一個(gè)文件的時(shí)候,使數(shù)據(jù)文件發(fā)生損壞;因此我們使用gfs2全球文件系統(tǒng),可以很好的解決因?yàn)橥x寫的問題。
根據(jù)以上qdisk以及組播方式作仲裁的基于Web的RedHat Ha 高可用集群為基礎(chǔ),我們將其修改為mysql的共享存儲(chǔ)集群。
step1
將storage 加入到正在運(yùn)行的集群中去
1) 修改/etc/hosts文件
在任意的一臺(tái)節(jié)點(diǎn)上修改/etc/hosts 文件
vim /etc/hosts
192.168.0.5 storage.uplooking.com storage
scp /etc/hosts storage:/etc/
2)修改配置文件
在任意一臺(tái)節(jié)點(diǎn)上修改/etc/cluster/cluster.conf
vi /etc/cluster/cluster.conf
a 修改 version
b 復(fù)制node1 的配置語(yǔ)句為storage的配置語(yǔ)句
c 將其中的node1修改為storage
d 修改資源與服務(wù)部分將httpd 修改為mysqld
因?yàn)閟otarage 只是用來(lái)做存儲(chǔ)用的,因此不用將它加入沖突域中。
修改完成后,ccs_tool update /etc/cluster/cluster.conf
3)在storage 上啟動(dòng)服務(wù)
service cman start
成功后應(yīng)該可以看到storage 節(jié)點(diǎn)已經(jīng)online 狀態(tài)。
step2
在storage 上導(dǎo)出共享設(shè)備
1) 使用gnbd 方式來(lái)導(dǎo)出共享設(shè)備
a 首先在storage上分出3個(gè)1g 的分區(qū)
fdisk /dev/sda
3個(gè)分區(qū)分別為 /dev/sda8 /dev/sda9 /dev/sda10
b 啟動(dòng)gnbd_serv
gnbd_serv
若沒有該命令,那么yum instll "Cluster Storage",安裝上
c 使用gnbd_export 命令來(lái)導(dǎo)出共享設(shè)備
gnbd_export -d /dev/sda8 -e gnbd1
gnbd_export -d /dev/sda9 -e gnbd2
gnbd_export -d /dev/sda10 -e gnbd3
可以使用gnbd _export -L 來(lái)查看共享設(shè)備
2) 使用iscsi 方式來(lái)導(dǎo)出共享設(shè)備
a 下載 iscsi-target 源代碼包
b 安裝它,make && make install
c 修改配置文件
vi /etc/ietd.conf
Target iqn.2009-06.com.uplooking.storage:share_ha
Lun 0 Path=/dev/sda8,Type=blockio
Lun 1 Path=/dev/sda9,Type=blockio
Lun 2 Path=/dev/sda10,Type=blockio
d /etc/init.d/iscsi-target start
step3 在節(jié)點(diǎn)上導(dǎo)入共享設(shè)備
1) 導(dǎo)入gnbd共享存儲(chǔ)
以node1 為例,其余相同
a 首先需要掛接gnbd 模塊
modprobe gnbd
b 使用gnbd_import 來(lái)導(dǎo)入gnbd 設(shè)備
gnbd_import -i storage
導(dǎo)入好了以后 可以使用gnbd_import -l 來(lái)查看導(dǎo)入的設(shè)備
2)導(dǎo)入iscsi共享設(shè)備
以node1為例,其余相同
a 安裝iscsi 的導(dǎo)出端
yum install iscsi-initiator
b 啟動(dòng)iscsi 的服務(wù)
service iscsi start
c 發(fā)現(xiàn)并導(dǎo)入設(shè)備
iscsiadm -m discovery -t sendtargets -p 192.168.0.5:3260
iscsiadm -m node -T iqn iqn.2009-06.com.uplooking.storage:share_ha
step 4
配置clvm 來(lái)滿足gfs 文件系統(tǒng)的動(dòng)態(tài)擴(kuò)展
1)打開lvm2 對(duì)clvmd 的支持
for i in node1 node 2 node3 fence storage ;do lvmconf --enable-cluster;done
也可以通過配置文件的方式來(lái)修改
?vi /etc/lvm/lvm.conf
?locking_type=3
2)在所有節(jié)點(diǎn)設(shè)備上啟用clvmd
for i in node1 node2 node3 fence storage;do service clvmd start
3) 在節(jié)點(diǎn)上創(chuàng)建pv vg lv
因?yàn)槭枪蚕泶鎯?chǔ),因此只需要在一個(gè)節(jié)點(diǎn)做此操作即可,我們?cè)趎ode1 上創(chuàng)建它
a 創(chuàng)建pv
pvcreate /dev/gnbd/gnbd1
pvcreate /dev/gnbd/gnbd2
pvcreate /dev/gnbd/gnbd3
b 創(chuàng)建vg
vgcreate cvg0 /dev/gnbd/gnbd1 /dev/gnbd/gnbd2 /dev/gnbd/gnbd3
c 創(chuàng)建lv
lvcreat -L 2G cvg0 -n clv0?
創(chuàng)建完畢后應(yīng)該在其他節(jié)點(diǎn)上也可以看到創(chuàng)建的lv,如果沒有,重啟下clvmd;service clvmd restart
iscsi 步驟同gnbd 就是/dev/下的設(shè)備名不一樣
step5?
創(chuàng)建gfs 集群文件系統(tǒng)
mkfs.gfs2 -b 4096 -p lock_dlm -t mysql_ha:gfs1 -j 3 /dev/cvg0/clv0
-b 指定塊大小
-p 指定鎖類型
-t 集群名:文件系統(tǒng)名
-j 可接入節(jié)點(diǎn)數(shù),可以通過gfs_jadd 動(dòng)態(tài)添加
step6
1)掛接gfs
for i in node1 node2 node3 ;do mount /dev/cvg0/clv0 /var/lib/mysql;done
2)測(cè)試同讀寫
node1
while true ;do echo node1 >> /var/lib/mysql/file;sleep1;done
node2
while true ;do echo node2 >> /var/lib/mysql/file;sleep1;done
node3
tail -f /var/lib/mysql/file
可以看到node1 node2 交替寫入,并沒有因?yàn)槎喙?jié)點(diǎn)同時(shí)寫入而損耗。
注:
1 mysql 的啟動(dòng)腳本需要修改才能在ha中切換,修改如下
status mysqld > /dev/null >&1
?????????? if [ $? -eq 3 ];then
?????????????????? return 0
?????????? fi
將以上部分加在stop()函數(shù)的起始位置。
2 gfs 節(jié)點(diǎn)的添加
1)首先擴(kuò)容clvm
lvextend -L +512M /dev/cvg0/clv0
2)gfs_jadd -j 2 /var/lib/mysql
3)gfs_grow /var/lib/mysql
固定順序
總結(jié)
以上是生活随笔為你收集整理的Redhat Ha Cluster -(转)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 倒数日app怎么设置在桌面上
- 下一篇: RAC集群时间同步服务