日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Oracle 11gR2 GI日常管理手册

發布時間:2024/1/17 编程问答 39 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Oracle 11gR2 GI日常管理手册 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Oracle 11gR2 GI日常管理手冊

目 錄
1 文檔簡介 4
1.1 編寫目的 4
1.2 適用范圍 4
1.3 名詞解釋 4
1.4 格式約定 4
1.5 特別說明 4
2 在集群中增加新節點 5
2.1 新節點機器安裝環境準備 5
2.1.1 新節點機器與網絡存儲的連接 5
2.1.2 新節點機器信息 5
2.1.3 存儲信息 5
2.1.4 軟件版本 6
2.2 安裝前配置 6
2.2.1 配置存儲 6
2.2.2 創建用戶和組 7
2.2.3 檢查硬件要求 7
2.2.4 檢查網絡配置 7
2.2.5 檢查內核版本及軟件包 8
2.2.6 設置內核參數 8
2.2.7 修改root用戶的umask及PATH變量 8
2.2.8 安裝cvuqdisk RPM包 8
2.2.9 配置SSH無密碼登陸 8
2.2.10 配置Shell Limits 8
2.2.11 檢查selinux配置 8
2.2.12 檢查NTP時間同步 8
2.2.13 配置OCR和VOTE Disk 8
2.2.14 使用CVU進行安裝前檢查 8
2.3 安裝及配置ASM Lib 9
2.3.1 安裝ASMLib軟件包 9
2.3.2 配置ASMLib 9
2.3.3 掃描ASM Disk Groups 10
2.4 擴展CRS Home到新節點 10
2.4.1 在CRS Home運行addNode.sh腳本 10
2.4.2 在新節點上運行root.sh腳本加入集群 10
2.4.3 修改新節點上數據庫啟動腳本的的權限 13
2.5 擴展Oracle Home到新節點 13
2.5.1 新節點上的環境配置 13
2.5.2 使用CVU進行安裝前檢查 13
2.5.3 在Oracle Home運行addNode.sh腳本 14
2.5.4 在新節點上運行root.sh腳本 14
2.5.5 同步新節點上的oratab文件 14
2.6 擴展資源組的切換域到新節點 15
2.6.1 修改Serverpool成員 15
2.6.2 資源組切換測試 15
3 在集群中刪除節點 16
3.1 數據庫切換或下線回收 16
3.1.1 數據庫切換 16
3.1.2 數據庫下線回收 16
3.2 從Oracle Home中刪除節點 16
3.2.1 從Oracle Home中刪除節點 16
3.3 從CRS Home中刪除節點 17
3.3.1 從cluster中刪除節點 17
3.3.2 已刪除節點機器下線 19
4 參考文檔 19
4.1 Oracle Clusterware Administration and Deployment Guide 11g Release 2 19

?
1 文檔簡介
1.1 編寫目的
為Linux數據庫平臺集群軟件Oracle 11gR2 Grid Infrastructure的日常管理提供參考。

1.2 適用范圍
該文檔的閱讀對象為基礎架構管理部系統組、存儲組、項目組等相關人員。

1.3 名詞解釋
序號 術語/縮略語 全稱和說明
1 GI Grid Infrastructure的簡稱,Oracle公司的集群和存儲管理軟件的統稱,包含集群軟件Clusterware和存儲管理軟件ASM。
2 CRS Clusterware的簡稱,Oracle公司的集群管理軟件。
3 ASM Automatic Storage Management的簡稱,Oracle公司的存儲管理軟件。

1.4 格式約定
以“#”開頭代表root用戶;
以“$”開頭代表普通用戶;
以“>”開頭代表DB用戶;
以“SQL>”開頭代表sqlplus命令;
以“灰色底紋”標注的為命令或輸入字符;
以“斜體”標注的為配置文件內容;

“所有節點”表示集群中的所有機器;
“主節點”表示“節點一”,集群中的第一臺機器(下面的cnsh230244)。

1.5 特別說明
1、下面的步驟以在二節點(cnsh230244、cnsh230245)集群中新增節點(cnsh230246)和刪除節點(cnsh230246)為范例,目的的要詳述的操作方法,除方法以外的許多東西會與實際環境存在不同,如存儲LUN的數量及大小、用戶名、目錄名等,實際配置過程中,請嚴格按照《Oracle 11gR2 集群管理規范.docx》來執行。

2、另本文肯定存在一些錯漏的地方,請及時提出并修正,大家共同不斷進行完善。

2 在集群中增加新節點
2.1 新節點機器安裝環境準備
2.1.1 新節點機器與網絡存儲的連接

  • 機器連接主網
    按照機器標裝規則,使用雙網卡鏈路連接到新節點要加入集群的主網。
  • 機器連接心跳網
    使用雙網卡鏈路連接到新節點要加入集群的心跳網絡。
  • 機器連接SAN存儲
    1)按照機器標裝規則,使用雙HBA卡鏈路連接到新節點要加入集群的SAN存儲;
  • 2)將集群中所有的共享LUN擴展到新節點上,使用新節點也可以訪問所有的共享LUN。

    2.1.2 新節點機器信息
    注:cnsh230244、cnsh230245為集群中原有的節點,cnsh230246為要加入集群的新節點。

  • 硬件及OS
    主機名 機器型號 OS版本 內核版本
  • cnsh230244 HP DL585 G6 RHEL5.4 X86_64 2.6.18-164.9.1.el5
    cnsh230245 HP DL585 G6 RHEL5.4 X86_64 2.6.18-164.9.1.el5
    cnsh230246 HP DL585 G6 RHEL5.4 X86_64 2.6.18-164.9.1.el5

  • IP信息
    主機名 主網IP 節點VIP 心跳網IP SCAN IP
  • cnsh230244 10.31.9.124 10.31.9.247 1.1.2.1 10.31.9.254
    cnsh230245 10.31.9.147 10.31.9.248 1.1.2.2
    cnsh230246 10.31.9.152 10.31.9.249 1.1.2.3

    2.1.3 存儲信息

  • SAN存儲
    共享主機 LUN大小(GB) 數量 用途 要求
  • cnsh230244
    cnsh230245
    cnsh230246 1 3 OCRVD_DG 3個LUN在不同的RAID組中

    25 2 ACFS_DG 存儲采用RAID5或RAID10均可 50 4 DATA_DG 存儲采用RAID10 50 4 FRA_DG 存儲采用RAID5或RAID10均可

    注:將集群中所有共享的LUN擴展到新節點。

  • 本地存儲
    主機名 LV大小(GB) 數量 用途 Mount點 說明
  • cnsh230244 20 1 LVgrid /oracle_grid 用以安裝Grid Infrastructure

    100 1 LVdata /data01 臨時用以存放安裝介質

    cnsh230245 20 1 LVgrid /oracle_grid 用以安裝Grid Infrastructure

    100 1 LVdata /data01 臨時用以存放安裝介質

    cnsh230246 20 1 LVgrid /oracle_grid 用以安裝Grid Infrastructure

    100 1 LVdata /data01 臨時用以存放安裝介質

    2.1.4 軟件版本

  • OS Kernel版本
    2.6.18-164.9.1.el5 x86_64
  • ASM Lib版本
    ASMLib-2.6.18-164.9.1.el5-2.0.5-1.el5.x86_64
  • 安裝介質:
    在sa上的“/data01/oracle/ASMLib-2.6.18-164.9.1.el5-2.0.5-1.el5.x86_64”目錄。

  • Grid Infrastructure版本
    11.2.0.2.0
  • 2.2 安裝前配置
    2.2.1 配置存儲

  • 配置本地存儲
    參看《Oracle 11gR2 GI基本安裝手冊.docx》中的“3.1.1 配置本地存儲”。
  • 配置SAN存儲
    該部分由存儲組進行實施。
  • 配置DM Multipath多鏈路軟件,修改好/etc/multipath.conf配置文件,使新節點看到的LUN信息與原集群中的節點一致。

    2.2.2 創建用戶和組

  • 創建GI用戶和DB用戶
    1)參看《Oracle 11gR2 GI基本安裝手冊.docx》中的“3.3 創建用戶和組”,建立Grid用戶,注意UID和GID需要與其它節點保持一致;
  • 2)參看原集群中的節點,建立所有的Oracle數據庫用戶,注意UID和GID需要與其它節點保持一致。

  • 設置用戶環境變量
    1)使用grid用戶登陸原集群中節點一,將$HOME目錄下的.bash_profile復制到新節點上覆蓋同名文件;
  • 2)分別使用各個Oracle用戶登陸原集群中節點一,將各個Oracle數據庫用戶$HOME目錄下的.bash_profile復制到新節點上覆蓋同名文件。

    2.2.3 檢查硬件要求
    參看“3.4 檢查硬件要求”。

    2.2.4 檢查網絡配置
    1)主網及心跳網配置如下:
    主機名 主網網卡 主網IP 心跳網網卡 心跳網IP
    cnsh230246 bond0 10.31.9.152/24 bond1 1.1.2.3/24

    2)修改原集群中所有節點hosts文件配置,增加新節點IP相關(紅色)的行:
    注意:IP與主機名之間必須使用空格,不使用TAB鍵!

    vim /etc/hosts

    127.0.0.1 localhost.localdomain localhost
    10.31.9.124 cnsh230244
    10.31.9.147 cnsh230245
    10.31.9.152 cnsh230246

    1.1.2.1 cnsh230244-priv
    1.1.2.2 cnsh230245-priv
    1.1.2.3 cnsh230246-priv

    10.31.9.247 cnsh230244-vip
    10.31.9.248 cnsh230245-vip
    10.31.9.249 cnsh230246-vip
    10.31.9.254 clusterware01-scan

    3)將修改后的hosts文件復制到新節點上,覆蓋同名文件。

    4)檢查所有節點上的nsswitch.conf配置,這一行應該如下:

    cat /etc/nsswitch.conf | grep ^hosts

    hosts: files dns

    2.2.5 檢查內核版本及軟件包
    參看《Oracle 11gR2 GI基本安裝手冊.docx》中的“3.6 檢查內核版本及軟件包”。

    2.2.6 設置內核參數
    參看《Oracle 11gR2 GI基本安裝手冊.docx》中的“3.7 設置內核參數”。

    2.2.7 修改root用戶的umask及PATH變量
    參看《Oracle 11gR2 GI基本安裝手冊.docx》中的“3.8 修改root用戶的umask及PATH變量”。

    2.2.8 安裝cvuqdisk RPM包
    參看《Oracle 11gR2 GI基本安裝手冊.docx》中的“3.9 安裝cvuqdisk RPM包”。

    2.2.9 配置SSH無密碼登陸

  • 配置GI用戶無密碼登陸
    1)使用grid用戶登陸原集群中節點一,將$HOME目錄下的.ssh目錄復制到新節點grid用戶的$HOME目錄中;
  • 2)測試驗證所有節點兩兩之間grid用戶都能夠無密碼登陸。

  • 配置所有DB用戶無密碼登陸
    1)分別使用各個DB用戶登陸原集群中節點一,將$HOME目錄下的.ssh目錄復制到新節點對應DB用戶的$HOME目錄中;
  • 2)測試驗證所有節點兩兩之間各個DB用戶都能夠無密碼登陸。

    2.2.10 配置Shell Limits
    參看《Oracle 11gR2 GI基本安裝手冊.docx》中的“3.11 配置Shell Limits”。

    2.2.11 檢查selinux配置
    參看《Oracle 11gR2 GI基本安裝手冊.docx》中的“3.12 檢查selinux配置”。

    2.2.12 檢查NTP時間同步
    參看《Oracle 11gR2 GI基本安裝手冊.docx》中的“3.13 檢查NTP時間同步”。

    2.2.13 配置OCR和VOTE Disk
    OCR及VOTE Disk已經在集群建立時配置好,無需配置。

    2.2.14 使用CVU進行安裝前檢查
    1)使用grid用戶登陸節點一,運行:
    $ cluvfy stage -pre nodeadd -n cnsh230246 -verbose

    2)檢查的結果有如下兩處是failed的,不用理會。
    注:其余的都應該是passed,WARNING可以忽略。

    Checking for multiple users with UID value 0
    PRVF-4132 : Multiple users "root,ada,paxf" with UID "0" exist on "cnsh230246".
    Result: Check for multiple users with UID value 0 failed

    Checking Oracle Cluster Voting Disk configuration...
    ERROR:
    PRVF-5449 : Check of Voting Disk location "ORCL:OCRVD_DISK01(ORCL:OCRVD_DISK01)" failed on the following nodes:

    cnsh230246:No such file or directory

    ERROR:
    PRVF-5449 : Check of Voting Disk location "ORCL:OCRVD_DISK02(ORCL:OCRVD_DISK02)" failed on the following nodes:

    cnsh230246:No such file or directory

    ERROR:
    PRVF-5449 : Check of Voting Disk location "ORCL:OCRVD_DISK03(ORCL:OCRVD_DISK03)" failed on the following nodes:

    cnsh230246:No such file or directory

    PRVF-5431 : Oracle Cluster Voting Disk configuration check failed

    2.3 安裝及配置ASM Lib
    2.3.1 安裝ASMLib軟件包
    參看《Oracle 11gR2 GI基本安裝手冊.docx》中的“4.1 安裝ASMLib軟件包”。

    2.3.2 配置ASMLib
    1)配置ASM,在新節點上操作:

    /etc/init.d/oracleasm configure

    Configuring the Oracle ASM library driver.

    This will configure the on-boot properties of the Oracle ASM library

  • The following questions will determine whether the driver is
  • on boot and what permissions it will have. The current values
  • will be shown in brackets ('[]'). Hitting without typing an
    answer will keep that current value. Ctrl-C will abort.

    Default user to own the driver interface []: grid
    Default group to own the driver interface []: asmadmin
    Start Oracle ASM library driver on boot (y/n) [n]: y
    Scan for Oracle ASM disks on boot (y/n) [y]: y
    Writing Oracle ASM library driver configuration: done
    Initializing the Oracle ASMLib driver: [ OK ]
    Scanning the system for Oracle ASMLib disks: [ OK ]

    2)修改/etc/sysconfig/oracleasm,在新節點上操作:
    找到以下這二行并修改為:
    ORACLEASM_SCANORDER="dm"
    ORACLEASM_SCANEXCLUDE="sd"

    2.3.3 掃描ASM Disk Groups
    1)重啟新節點;
    2)在新節點上查看ASM Disks,應該與原集群中的其它節點一致:

    oracleasm listdisks

    OCRVD_DISK01
    OCRVD_DISK02
    OCRVD_DISK03
    DATA_DISK03
    DATA_DISK04
    DATA_DISK05
    DATA_DISK06
    FRA_DISK01
    FRA_DISK02
    FRA_DISK03
    FRA_DISK04
    FRA_DISK05
    FRA_DISK06
    ACFS_DISK01
    ACFS_DISK02
    DATA_DISK01
    DATA_DISK02

    2.4 擴展CRS Home到新節點
    2.4.1 在CRS Home運行addNode.sh腳本
    1)驗證所有節點上root用戶的umask為022;

    2)使用grid用戶登陸節點一,運行addNode.sh腳本:
    $ export IGNORE_PREADDNODE_CHECKS=Y
    $ cd $ORACLE_HOME/oui/bin
    $ ./addNode.sh -silent \
    "CLUSTER_NEW_NODES={cnsh230246}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={cnsh230246-vip}"

    2.4.2 在新節點上運行root.sh腳本加入集群

    1)在新節點上使用root運行如下腳本,將cnsh230246添加到cluster中:

    /oracle_grid/app/oraInventory/orainstRoot.sh

    /oracle_grid/11.2.0/grid/root.sh

    2)檢查集群的狀態,新節點cnsh230246成功加入集群:

    $ crsctl stat res -t

    NAME TARGET STATE SERVER STATE_DETAILS

    Local Resources

    ora.ACFS_DG.dg

    ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245OFFLINE OFFLINE cnsh230246

    ora.DATA_DG.dg

    ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245OFFLINE OFFLINE cnsh230246

    ora.FRA_DG.dg

    ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245OFFLINE OFFLINE cnsh230246

    ora.LISTENER.lsnr

    ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245ONLINE ONLINE cnsh230246

    ora.OCRVD_DG.dg

    ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245ONLINE ONLINE cnsh230246

    ora.acfs_dg.testdb11_lv.acfs

    ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245OFFLINE OFFLINE cnsh230246

    ora.asm

    ONLINE ONLINE cnsh230244 StartedONLINE ONLINE cnsh230245 StartedONLINE ONLINE cnsh230246 Started

    ora.eons

    ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245ONLINE ONLINE cnsh230246

    ora.gsd

    OFFLINE OFFLINE cnsh230244OFFLINE OFFLINE cnsh230245OFFLINE OFFLINE cnsh230246

    ora.net1.network

    ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245ONLINE ONLINE cnsh230246

    ora.ons

    ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245ONLINE ONLINE cnsh230246

    ora.registry.acfs

    ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245ONLINE ONLINE cnsh230246

    Cluster Resources

    ora.LISTENER_SCAN1.lsnr

    1 ONLINE ONLINE cnsh230244

    ora.cnsh230244.vip

    1 ONLINE ONLINE cnsh230244

    ora.cnsh230245.vip

    1 ONLINE ONLINE cnsh230245

    ora.cnsh230246.vip

    1 ONLINE ONLINE cnsh230246

    ora.oc4j

    1 OFFLINE OFFLINE

    ora.scan1.vip

    1 ONLINE ONLINE cnsh230244

    testdb11

    1 ONLINE ONLINE cnsh230244

    testdb11.db

    1 ONLINE ONLINE cnsh230244

    testdb11.head

    1 ONLINE ONLINE cnsh230244

    testdb11.lsnr

    1 ONLINE ONLINE cnsh230244

    testdb11.vip

    1 ONLINE ONLINE cnsh230244

    3)上面顯示有幾個資源沒有Online,手工進行啟動:
    $ crsctl start res ora.ACFS_DG.dg -n cnsh230246
    CRS-2672: Attempting to start 'ora.ACFS_DG.dg' on 'cnsh230246'
    CRS-2676: Start of 'ora.ACFS_DG.dg' on 'cnsh230246' succeeded

    $ crsctl start res ora.DATA_DG.dg -n cnsh230246
    CRS-2672: Attempting to start 'ora.DATA_DG.dg' on 'cnsh230246'
    CRS-2676: Start of 'ora.DATA_DG.dg' on 'cnsh230246' succeeded

    $ crsctl start res ora.FRA_DG.dg -n cnsh230246
    CRS-2672: Attempting to start 'ora.FRA_DG.dg' on 'cnsh230246'
    CRS-2676: Start of 'ora.FRA_DG.dg' on 'cnsh230246' succeeded

    $ crsctl start res ora.acfs_dg.testdb11_lv.acfs -n cnsh230246
    CRS-2672: Attempting to start 'ora.acfs_dg.testdb11_lv.acfs' on 'cnsh230246'
    CRS-2676: Start of 'ora.acfs_dg.testdb11_lv.acfs' on 'cnsh230246' succeeded

    2.4.3 修改新節點上數據庫啟動腳本的的權限
    1)使用root用戶登陸新節點,修改各個DB啟動腳本目錄的權限:

    chown -R :oinstall /oracle_grid/11.2.0/grid/crs/public/

    chmod -R 755 /oracle_grid/11.2.0/grid/crs/public/

    2.5 擴展Oracle Home到新節點
    注:如果有多套Oracle軟件,則需要分別將其擴展到新節點。下面以testdb11數據庫為例。

    2.5.1 新節點上的環境配置
    1)創建用戶和組:
    在“2.2.2 創建用戶和組”已經創建了新節點的DB用戶,不用再實施。

    2)配置SSH無密碼登陸:
    在“2.2.9 配置SSH無密碼登陸”已經配置過新節點的GI及所有DB用戶無密碼登陸,不用再實施。

    3)設置環境變量:
    在“2.2.2 創建用戶和組”已經配置過新節點所有DB用戶的環境變量,不用再實施。

    4)檢查確認DB Home已經掛載:

    df -h

    ……
    /dev/asm/testdb11_lv-2

    10G 4.6G 5.5G 46% /paic/hq/testdb11/data

    2.5.2 使用CVU進行安裝前檢查

    1)使用ostestdb11用戶登陸節點一,保證安裝前檢查成功:
    $ cd $ORACLE_HOME/oui/bin
    $ export SRVM_TRACE=false
    $ cluvfy stage -pre nodeadd -n cnsh230246 -verbose

    Performing pre-checks for node addition

    Checking node reachability...
    Check: Node reachability from node "cnsh230244"
    Destination Node Reachable?
    ------------------------------------ ------------------------
    cnsh230246 yes
    Result: Node reachability check passed from node "cnsh230244"

    Checking user equivalence...
    Check: User equivalence for user "ostestdb11"
    Node Name Comment
    ------------------------------------ ------------------------
    cnsh230246 passed
    Result: User equivalence check passed for user "ostestdb11"

    WARNING:
    Node "cnsh230246" already appears to be part of cluster

    Pre-check for node addition was successful.

    2.5.3 在Oracle Home運行addNode.sh腳本
    1)使用ostestdb11用戶登陸節點一,運行addNode.sh腳本:
    $ export IGNORE_PREADDNODE_CHECKS=Y
    $ cd $ORACLE_HOME/oui/bin
    $ ./addNode.sh -silent "CLUSTER_NEW_NODES={cnsh230246}"

    2.5.4 在新節點上運行root.sh腳本
    1)使用root用戶登陸新節點(cnsh230246),運行root.sh腳本:

    /paic/hq/testdb11/data/app/oracle/product/11.2.0/root.sh

    Running Oracle 11g root script...

    The following environment variables are set as:

    ORACLE_OWNER= ostestdb11 ORACLE_HOME= /paic/hq/testdb11/data/app/oracle/product/11.2.0

    Enter the full pathname of the local bin directory: [/usr/local/bin]:
    The contents of "dbhome" have not changed. No need to overwrite.
    The contents of "oraenv" have not changed. No need to overwrite.
    The contents of "coraenv" have not changed. No need to overwrite.

    Entries will be added to the /etc/oratab file as needed by
    Database Configuration Assistant when a database is created
    Finished running generic part of root script.
    Now product-specific root actions will be performed.
    Finished product-specific root actions.

    2.5.5 同步新節點上的oratab文件
    1)在節點一上的/etc/oratab文件中找到該DB的相關行,復制并添加到新節點的/etc/oratab文件中:
    testdb11:/paic/hq/testdb11/data/app/oracle/product/11.2.0:N # line added by Agent

    2.6 擴展資源組的切換域到新節點
    注:根據實際需求進行serverpool設置,下面只是作為操作范例。

    2.6.1 修改Serverpool成員

    1)使用ostestdb11用戶登陸任一節點,在serverpool中新增節點cnsh230246:
    $ crsctl modify serverpool testdb11_sp -attr "PARENT_POOLS=Generic, \
    SERVER_NAMES=cnsh230244 cnsh230245 cnsh230246"

    2.6.2 資源組切換測試
    1)資源組運行在cnsh230244上:

    $ crsctl stat res -w "NAME st testdb11" -t

    NAME TARGET STATE SERVER STATE_DETAILS

    Cluster Resources

    testdb11

    1 ONLINE ONLINE cnsh230244

    testdb11.db

    1 ONLINE ONLINE cnsh230244

    testdb11.head

    1 ONLINE ONLINE cnsh230244

    testdb11.lsnr

    1 ONLINE ONLINE cnsh230244

    testdb11.vip

    1 ONLINE ONLINE cnsh230244

    2)將資源組切換到cnsh230246上:
    $ crsctl relocate res testdb11 -n cnsh230246 -f

    3)資源組成功切換到cnsh230246上:

    $ crsctl stat res -w "NAME st testdb11" -t

    NAME TARGET STATE SERVER STATE_DETAILS

    Cluster Resources

    testdb11

    1 ONLINE ONLINE cnsh230246

    testdb11.db

    1 ONLINE ONLINE cnsh230246

    testdb11.head

    1 ONLINE ONLINE cnsh230246

    testdb11.lsnr

    1 ONLINE ONLINE cnsh230246

    testdb11.vip

    1 ONLINE ONLINE cnsh230246

    3 在集群中刪除節點
    3.1 數據庫切換或下線回收
    3.1.1 數據庫切換
    1)如果要刪除節點上的數據庫要保留在其它節點上運行,則需要查看所有運行在該節點上的數據庫,切換到其它節點上運行:
    $ crsctl relocate res testdb11 -f

    2)修改serverpool設置,使數據庫不再運行在該節點上,使用grid用戶登陸節點一操作:
    $ crsctl stat serverpool
    NAME=Free
    ACTIVE_SERVERS=
    NAME=Generic
    ACTIVE_SERVERS=cnsh230244 cnsh230245 cnsh230246
    NAME=testdb11_sp
    ACTIVE_SERVERS=cnsh230244 cnsh230245 cnsh230246

    $ crsctl modify serverpool testdb11_sp -attr "PARENT_POOLS=Generic, \
    SERVER_NAMES=cnsh230244 cnsh230245"

    $ crsctl stat serverpool
    NAME=Free
    ACTIVE_SERVERS=cnsh230246
    NAME=Generic
    ACTIVE_SERVERS=cnsh230244 cnsh230245
    NAME=testdb11_sp
    ACTIVE_SERVERS=cnsh230244 cnsh230245

    3.1.2 數據庫下線回收
    如果要刪除節點上的數據庫是要下線的,則需要:
    1)在CRS中刪除數據庫的相關資源;
    2)使用dbca刪除數據庫;
    3)刪除該數據庫的RAC軟件;
    4)刪除其它相關的資源(硬件、存儲等),并按流程下線;

    3.2 從Oracle Home中刪除節點
    注:如果有多套Oracle軟件,則需要分別對各個Oracle Home進行刪除節點操作。
    下面以testdb11數據庫為例。
    3.2.1 從Oracle Home中刪除節點
    1)使用ostestdb11用戶登陸要刪除節點(cnsh230246),更新Inventory:
    $ cd $ORACLE_HOME/oui/bin
    $ ./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME \
    "CLUSTER_NODES={cnsh230246}" -local
    注:CLUSTER_NODES參數為要刪除的節點名。

    Starting Oracle Universal Installer...

    Checking swap space: must be greater than 500 MB. Actual 17407 MB Passed
    The inventory pointer is located at /etc/oraInst.loc
    The inventory is located at /oracle_grid/app/oraInventory/
    'UpdateNodeList' was successful.

    2)使用ostestdb11用戶登陸要刪除節點(cnsh230246),運行detachHome:
    $ cd $ORACLE_HOME/oui/bin
    $ ./runInstaller -detachHome ORACLE_HOME=$ORACLE_HOME
    Starting Oracle Universal Installer...

    Checking swap space: must be greater than 500 MB. Actual 17407 MB Passed
    The inventory pointer is located at /etc/oraInst.loc
    The inventory is located at /oracle_grid/app/oraInventory/
    'DetachHome' was successful.

    3)使用ostestdb11用戶登陸其它任一節點上,更新inventory:
    $ cd $ORACLE_HOME/oui/bin
    $ ./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME \
    "CLUSTER_NODES={cnsh230244,cnsh230245}"
    注:CLUSTER_NODES參數為剩余的所有節點名,多個主機名之間應該使用逗號隔開。

    Starting Oracle Universal Installer...

    Checking swap space: must be greater than 500 MB. Actual 17407 MB Passed
    The inventory pointer is located at /etc/oraInst.loc
    The inventory is located at /oracle_grid/app/oraInventory/
    'UpdateNodeList' was successful.

    3.3 從CRS Home中刪除節點
    3.3.1 從cluster中刪除節點
    1)使用root登陸要刪除節點(cnsh230246),運行rootcrs.pl腳本:

    cd /oracle_grid/11.2.0/grid/crs/install/

    ./rootcrs.pl -deconfig -force

    2)使用root登陸其它非刪除的節點,運行如下命令從cluster中刪除節點:

    crsctl delete node -n cnsh230246

    CRS-4661: Node cnsh230246 successfully deleted.

    以下第3)、4)可以直接使用編寫的腳本執行

    3)使用grid用戶登陸要刪除節點(cnsh230246),運行如下命令:
    $ cd $ORACLE_HOME/oui/bin
    $ ./runInstaller -updateNodeList ORACLE_HOME=/oracle_grid/11.2.0/grid \
    "CLUSTER_NODES={cnsh230246}" -local
    注:CLUSTER_NODES參數為要刪除的節點名。

    Starting Oracle Universal Installer...

    Checking swap space: must be greater than 500 MB. Actual 17407 MB Passed
    The inventory pointer is located at /etc/oraInst.loc
    The inventory is located at /oracle_grid/app/oraInventory/
    'UpdateNodeList' was successful.

    4)使用grid用戶登陸要刪除節點(cnsh230246),運行如下命令:
    $ cd $ORACLE_HOME/deinstall
    $ ./deinstall -local

    注:腳本運行期間會詢問關于VIP的設置,直接回車確認即可。直到下面的詢問輸入“y”回車:
    Do you want to continue (y - yes, n - no)? [n]: y

    注:期間需要按類似如下的提示在被刪除節點上執行命令,完成后按回車:

    ---------------------------------------->

    The deconfig command below can be executed in parallel on all the remote nodes. Execute the command on the local node after the execution completes on all the remote nodes.

    Run the following command as the root user or the administrator on node "cnsh230246".

    /tmp/deinstall2010-10-29_03-31-49PM/perl/bin/perl -I/tmp/deinstall2010-10-29_03-31-49PM/perl/lib -I/tmp/deinstall2010-10-29_03-31-49PM/crs/install /tmp/deinstall2010-10-29_03-31-49PM/crs/install/rootcrs.pl -force -deconfig -paramfile "/tmp/deinstall2010-10-29_03-31-49PM/response/deinstall_Ora11g_gridinfrahome1.rsp"

    Press Enter after you finish running the above commands

    <----------------------------------------

    注:使用root在新窗口中登陸要刪除節點(cnsh230246):

    /tmp/deinstall2010-10-29_03-31-49PM/perl/bin/perl -I/tmp/deinstall2010-10-29_03-31-49PM/perl/lib -I/tmp/deinstall2010-10-29_03-31-49PM/crs/install /tmp/deinstall2010-10-29_03-31-49PM/crs/install/rootcrs.pl -force -deconfig -paramfile "/tmp/deinstall2010-10-29_03-31-49PM/response/deinstall_Ora11g_gridinfrahome1.rsp"

    5)使用grid登陸其它非刪除的任一節點,更新cluster節點列表:
    $ cd $ORACLE_HOME/oui/bin
    $ ./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME \
    "CLUSTER_NODES={cnsh230244,cnsh230245}" CRS=TRUE
    注:CLUSTER_NODES參數為剩余的所有節點名,多個主機名之間應該使用逗號隔開。

    Starting Oracle Universal Installer...

    Checking swap space: must be greater than 500 MB. Actual 17407 MB Passed
    The inventory pointer is located at /etc/oraInst.loc
    The inventory is located at /oracle_grid/app/oraInventory/

    6)使用grid登陸其它非刪除的節點(cnsh230244),檢查節點是否在cluster中已被刪除:
    $ cd $ORACLE_HOME/oui/bin
    $ cluvfy stage -post nodedel -n cnsh230246 -verbose

    Performing post-checks for node removal

    Checking CRS integrity...
    The Oracle clusterware is healthy on node "cnsh230244"
    The Oracle clusterware is healthy on node "cnsh230245"

    CRS integrity check passed

    Result:
    Node removal check passed

    Post-check for node removal was successful.

    3.3.2 已刪除節點機器下線
    按正常的流程進行存儲回收、機器下線。

    4 參考文檔
    4.1 Oracle Clusterware Administration and Deployment Guide 11g Release 2

    總結

    以上是生活随笔為你收集整理的Oracle 11gR2 GI日常管理手册的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。