日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

ceph

發布時間:2025/3/21 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 ceph 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

分布式文件系統

  • 分布式文件系統(Distributed File System)是指文件系統管理的物理存儲資源不一定直接連接在本地節點上,而是通過計算機網絡與節點相連
  • 分布式文件系統的設計基于客戶機/服務器模式

常用的分布式文件系統

  • Lustre
  • Hadoop
  • FastDFS
  • Ceph
  • GlusterFS

什么是Ceph

  • Ceph是一個分布式文件系統
  • 具有高擴展,高可用,高性能的特點
  • Ceph可以提供對象存儲,塊存儲,文件系統存儲
  • 塊存儲(iscsi)客戶端多了一個磁盤,文件系統(NFS)客戶端直接mount
  • Ceph可以提供PB級別的存儲空間(PB→TB→GB),1024G*1024G=1058576G
  • 軟件定義存儲(Software Defined Storage)作為存儲行業的一大發展趨勢,已經越來越受到市場的認可

    鏈接在此!

Ceph組件

  • OSDs 存儲設備
  • Monitors 集群監控軟件
  • RadosGateway(RGW) 對象存儲網關
  • MDSs 存放文件系統的元數據(對象存儲和 塊存儲不需要該組件)
  • Client ceph客戶端

實驗準備

問題
準備四臺KVM虛擬機,其三臺作為存儲集群節點, 一臺安裝為客戶端,實現如下功能:

  • 創建1臺客戶端虛擬機
  • 創建3臺存儲集群虛擬機
  • 配置主機名、IP地址、YUM源
  • 修改所有主機的主機名
  • 配置無密碼SSH連接
    – 配置NTP時間同步
  • 創建虛擬機磁盤

實驗拓撲圖

  • 1臺客戶端虛擬機
  • 3臺存儲集群虛擬機

    所有主機的主機名及對應的IP地址如表-1所示。
    注意:所有主機基本系統光盤的YUM源必須提前配置好。

步驟

1)物理機為所有節點配置yum源服務器。所有主機都要做!!!
提示:前提ceph.iso已經掛載好才可以進行下一步!!

[root@node1 ~]# vim /etc/yum.repos.d/ceph.repo [MON] name=mon baseurl=file:///media/MON gpgcheck=0 [OSD] name=osd baseurl=file:///media/OSD gpgcheck=0 [Tools] name=tools baseurl=file:///media/Tools gpgcheck=0 [root@node1 ~]# yum repolist 已加載插件:fastestmirror Loading mirror speeds from cached hostfile 源標識 源名稱 狀態 !MON mon 41 !OSD osd 28 !Tools tools 33 !centos centos 9,911 repolist: 10,013
  • SSH免密登錄,配置無密碼連接(包括自己遠程自己也不需要密碼),在node1操作。
  • [root@node1 ~]# ssh-keygen #一路回車 [root@node1 ~]# for i in 10 11 12 13 > do > ssh-copy-id 192.168.4.$i > done ############################################################# 測試: [root@node1 ~]# ssh 192.168.4.10 Last login: Thu Feb 6 00:17:09 2020 from 192.168.4.1 [root@client ~]# exit 登出 Connection to 192.168.4.10 closed. [root@node1 ~]# ssh 192.168.4.12 Last login: Wed Feb 5 23:21:36 2020 from 192.168.4.1 [root@node2 ~]# exit 登出 Connection to 192.168.4.12 closed. [root@node1 ~]# ssh 192.168.4.13 Last login: Wed Feb 5 23:25:45 2020 from 192.168.4.1 [root@node3 ~]# exit 登出 Connection to 192.168.4.13 closed. [root@node1 ~]# ssh 192.168.4.11 Last login: Thu Feb 6 00:18:12 2020 from 192.168.4.1 [root@node1 ~]# exit 登出 Connection to 192.168.4.11 closed. 確保每臺計算機遠程都不需要密碼

    3)修改/etc/hosts并同步到所有主機。
    警告:/etc/hosts解析的域名必須與本機主機名一致!!!!

    [root@node1 ~]# vim /etc/hosts 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.4.10 client 192.168.4.11 node1 192.168.4.12 node2 192.168.4.13 node3 [root@node1 ~]# for i in client node2 node3 > do > scp /etc/hosts $i:/etc > done ########################################################### 測試:此時,每臺計算機的hosts解析中都有client,node1,node2,node3 [root@node2 ~]# cat /etc/hosts 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.4.10 client 192.168.4.11 node1 192.168.4.12 node2 192.168.4.13 node3

    4)配置NTP時間同步(client做時間服務器,所有node節點與client時間同步)

    [root@client ~]# vim /etc/chrony.conf26 allow 192.168.4.0/1629 local stratum 10 [root@client ~]# systemctl restart chronyd [root@client ~]# firewall-cmd --set-default-zone=trusted success [root@client ~]# vim /etc/sysconfig/selinux 7 SELINUX=permissive [root@client ~]# setenforce 0所有node節點與client同步時間 [root@node1 ~]# vim /etc/chrony.conf3 server 192.168.4.10 iburst [root@node1 ~]# for i in node1 node2 node3 > do > scp /etc/chrony.conf $i:/etc > ssh $i "systemctl restart chronyd" > done chrony.conf 100% 991 1.1MB/s 00:00 chrony.conf 100% 991 1.1MB/s 00:00 chrony.conf 100% 991 962.8KB/s [root@node1 ~]# chronyc sources -V #快速測試時間同步,*表示已經同步 210 Number of sources = 1 MS Name/IP address Stratum Poll Reach LastRx Last sample =============================================================================== ^* client 10 10 377 609 -12us[ -18us] +/- 150us

    5)打開VMware,給除了client的每臺虛擬機添加兩塊磁盤(20G)

    一路下一步,最后呈現的效果如下:

    添加完后,重啟虛擬機,使用lsblk查看是否添加成功

    部署ceph集群

    問題
    部署Ceph集群服務器,實現以下目標:

    • 安裝部署工具ceph-deploy
    • 創建ceph集群
    • 準備日志磁盤分區
    • 創建OSD存儲空間
    • 查看ceph狀態,驗證

    步驟

    • 步驟一:安裝部署軟件ceph-deploy

    1)在node1安裝部署工具,學習工具的語法格式。

    [root@node1 ~]# yum -y install ceph-deploy #一定要在有ssh密鑰的主機上安裝 [root@node1 ~]# mkdir ceph-cluster #但凡執行ceph-cluster腳本,必須在該目錄下,否則會出錯 [root@node1 ~]# cd ceph-cluster
    • 步驟二:部署Ceph集群

    1)給所有節點安裝ceph相關軟件包。

    [root@node1 ceph-cluster]# for i in node1 node2 node3> do > ssh $i "yum -y install ceph-mon ceph-osd ceph-mds ceph-radosgw" > done

    部署mon集群,一定要確保 在ceph-cluster目錄下!!!

    首先關閉所有節點的防火墻和selinux [root@node1 ceph-cluster]# firewall-cmd --set-default-zone=trusted success [root@node1 ceph-cluster]# vim /etc/sysconfig/selinux 7 SELINUX=permissive [root@node1 ceph-cluster]# setenforce 0 ############################################################ [root@node1 ceph-cluster]# pwd /root/ceph-cluster

    2)創建Ceph集群配置,在ceph-cluster目錄下生成Ceph配置文件。
    在ceph.conf配置文件中定義monitor主機是誰。

    [root@node1 ceph-cluster]# ceph-deploy new node1 node2 node3#測試所有node節點的狀態,創建了ceph的配置文件ceph.conf(在當前目錄下) [root@node1 ceph-cluster]# ls ceph.conf ceph-deploy-ceph.log ceph.mon.keyring ################################### [root@node1 ceph-cluster]# ls /etc/ceph/ rbdmap #/etc/ceph目錄是啟動ceph需要讀取配置文件的地方

    3)初始化所有節點的mon服務,也就是啟動mon服務(主機名解析必須對)。

    [root@node1 ceph-cluster]# ceph-deploy mon create-initial #把當前目錄下的ceph配置文件遠程拷貝到目標主機(node1 node2 node3)放到/etc/ceph目錄,并且啟動ceph-mon服務(服務名為ceph-mon@主機名) ############################################################# 查看狀態: [root@node1 ceph-cluster]# systemctl status ceph-mon@node1 #確認mon服務是否已經啟動 [root@node1 ceph-cluster]# ceph -scluster 3b2ca6aa-8018-42c4-8bfe-05902cd313ddhealth HEALTH_ERR64 pgs are stuck inactive for more than 300 seconds64 pgs stuck inactiveno osdsmonmap e2: 3 mons at {node1=192.168.4.11:6789/0,node2=192.168.4.12:6789/0,node3=192.168.4.13:6789/0} #6789為起完服務后monitior的端口號election epoch 8, quorum 0,1,2 node1,node2,node3osdmap e1: 0 osds: 0 up, 0 inflags sortbitwisepgmap v2: 64 pgs, 1 pools, 0 bytes data, 0 objects0 kB used, 0 kB / 0 kB avail64 creating

    常見錯誤及解決方法(非必要操作,有錯誤可以參考):
    如果提示如下錯誤信息:

    [node1][ERROR ] admin_socket: exception getting command descriptions: [Error 2] No such file or directory

    解決方案如下(在node1操作):
    先檢查自己的命令是否是在ceph-cluster目錄下執行的!!!!如果確認是在該目錄下執行的create-initial命令,依然報錯,可以使用如下方式修復。

    [root@node1 ceph-cluster]# vim ceph.conf #文件最后追加以下內容 public_network = 192.168.4.0/24

    修改后重新推送配置文件:

    [root@node1 ceph-cluster]# ceph-deploy --overwrite-conf config push node1 node2 node3
    • 步驟三:創建OSD
      每臺虛擬機都添加了 兩塊磁盤(/dev/sdb、/dev/sdc)
      sdb用來做緩存盤,sdc做數據盤

    讀寫操作 緩存 數據
    client<-------->ceph集群[sdb]<-------->[sdc] 硬盤分為傳統磁盤和固態盤
    傳統磁盤:性能較低,容量大
    固態盤(SSD):容量很小,性能很好 可以使用固態盤做緩存盤,磁盤做數據盤

    假設每個磁盤是20G,最終我們的ceph集群提供60G的容量(不考慮冗余備份)
    node1 [sdb]+[sdc]=20G #sdb為緩存盤,只能臨時讀寫數據,不能算作容量內
    node2 [sdb]+[sdc]=20G
    node3 [sdb]+[sdc]=20G

    1)把所有磁盤初始化(格式化,僅在node1操作)

    [root@node1 ~]# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 20G 0 disk ├─sda1 8:1 0 1G 0 part /boot └─sda2 8:2 0 19G 0 part ├─centos-root 253:0 0 17G 0 lvm /└─centos-swap 253:1 0 2G 0 lvm [SWAP] sdb 8:16 0 20G 0 disk sdc 8:32 0 20G 0 disk sr0 11:0 1 284M 0 rom /media sr1 11:1 1 8.8G 0 rom /mnt [root@node1 ~]# cd ceph-cluster/ [root@node1 ceph-cluster]# ceph-deploy disk zap node1:sdb node1:sdc #相當于遠程加for循環,寫幾個參數就循環幾次 [root@node1 ceph-cluster]# ceph-deploy disk zap node2:sdb node2:sdc [root@node1 ceph-cluster]# ceph-deploy disk zap node3:sdb node3:sdc ######################################################## 也可以直接一次性初始化 [root@node1 ceph-cluster]# ceph-deploy disk zap node1:sdb node1:sdc node2:sdb node2:sdc node3:sdb node3:sdc

    2)啟動OSD服務,共享這些磁盤

    [root@node1 ceph-cluster]# ceph-deploy osd create node1:sdc:/dev/sdb //遠程node1啟動osd服務,把/dev/sdc共享給用戶,/dev/sdb做為緩存盤 并且把sdc掛載到了/var/lib/ceph/xxx目錄 [root@node1 ceph-cluster]# ceph-deploy osd create node2:sdc:/dev/sdb [root@node1 ceph-cluster]# ceph-deploy osd create node3:sdc:/dev/sdb ######################################################### 也可以一次性遠程多臺主機 [root@node1 ceph-cluster]# ceph-deploy osd create node1:sdc:/dev/sdb node2:sdc:/dev/sdb node3:sdc:/dev/sdb
    • 常見錯誤及解決方法(非必須操作)。

    使用osd create創建OSD存儲空間時,如提示下面的錯誤提示:

    [ceph_deploy][ERROR ] RuntimeError: bootstrap-osd keyring not found; run 'gatherkeys'

    可以使用如下命令修復文件,重新配置ceph的密鑰文件:

    [root@node1 ceph-cluster]# ceph-deploy gatherkeys node1 node2 node3

    3)驗證測試,檢查集群狀態:

    [root@node1 ceph-cluster]# ceph -scluster 3b2ca6aa-8018-42c4-8bfe-05902cd313ddhealth HEALTH_OKmonmap e2: 3 mons at {node1=192.168.4.11:6789/0,node2=192.168.4.12:6789/0,node3=192.168.4.13:6789/0}election epoch 14, quorum 0,1,2 node1,node2,node3osdmap e14: 3 osds: 3 up, 3 inflags sortbitwisepgmap v28: 64 pgs, 1 pools, 0 bytes data, 0 objects100 MB used, 61306 MB / 61406 MB avail64 active+clean 此時可以看到,有三個osd,容量為60G,狀態為OK

    驗證是否掛載成功

    [root@node1 ceph-cluster]# df -h 文件系統 容量 已用 可用 已用% 掛載點 /dev/mapper/centos-root 17G 1.4G 16G 8% / devtmpfs 224M 0 224M 0% /dev tmpfs 236M 0 236M 0% /dev/shm tmpfs 236M 5.6M 230M 3% /run tmpfs 236M 0 236M 0% /sys/fs/cgroup /dev/sr0 284M 284M 0 100% /media /dev/sr1 8.8G 8.8G 0 100% /mnt /dev/sda1 1014M 142M 873M 14% /boot tmpfs 48M 0 48M 0% /run/user/0 /dev/sdc1 20G 34M 20G 1% /var/lib/ceph/osd/ceph-0 可以看到/dev/sdc已經掛載到ceph集群中了 [root@node1 ceph-cluster]# systemctl status ceph-osd@0.service #服務已經成功啟動,OSD的服務名稱ceph-osd@數字(可以在@后tab) ● ceph-osd@0.service - Ceph object storage daemonLoaded: loaded (/usr/lib/systemd/system/ceph-osd@.service; enabled; vendor preset: disabled)Active: active (running) since 四 2020-02-06 18:49:43 CST; 40min agoMain PID: 1973 (ceph-osd) [root@node1 ceph-cluster]# ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY -1 0.05846 root default -2 0.01949 host node1 0 0.01949 osd.0 up 1.00000 1.00000 -3 0.01949 host node2 1 0.01949 osd.1 up 1.00000 1.00000 -4 0.01949 host node3 2 0.01949 osd.2 up 1.00000 1.00000

    2)常見錯誤(非必須操作)。
    如果查看狀態包含如下信息:

    health: HEALTH_WARNclock skew detected on node2, node3…

    clock skew表示時間不同步,解決辦法:請先將所有主機的時間都使用NTP時間同步!!!
    Ceph要求所有主機時差不能超過0.05s,否則就會提示WARN。
    如果狀態還是失敗,可以嘗試執行如下命令,重啟ceph服務:

    [root@node1 ~]# systemctl restart ceph\*.service ceph\*.target

    Ceph塊存儲

    • 單機塊設備
      1.光盤
      2.磁盤
    • 分布式塊存儲
      1.ceph
      2.cinder

    什么是塊存儲

    • ceph塊設備也叫做RADOS塊設備 RADOS block device : RBD
    • RBD驅動已經很好地集成在了linux內核中
    • RBD提供了企業功能,如快照,COW克隆等
    • RBD還支持內存緩存,從而能夠大大的提高性能
    • Linux內核可以直接訪問ceph塊存儲
    • KVM可用于j借助于librbd訪問

    創建Ceph塊存儲

    問題
    使用Ceph集群的塊存儲功能,實現以下目標:

    • 創建塊存儲鏡像

    • 客戶端映射鏡像

    • 創建鏡像快照

    • 使用快照還原數據

    • 使用快照克隆鏡像

    • 刪除快照與鏡像
      步驟

    • 步驟一:創建鏡像

    1)查看存儲池。

    [root@node1 ~]# ceph osd lspools 0 rbd,

    2)創建鏡像、查看鏡像

    [root@node1 ~]# rbd create jacob --image-feature layering --size 5G

    #這里的jacob為創建的鏡像名稱,可以為任意字符。
    #–image-feature參數指定我們創建的鏡像有哪些功能,layering是開啟COW(寫實復制)功能。
    #提示:ceph鏡像支持很多功能,但很多是操作系統不支持的,我們只開啟layering。

    [root@node1 ~]# rbd list #列出所有共享鏡像 jacob [root@node1 ~]# rbd info jacob #列出某個鏡像的詳細信息 rbd image 'jacob':size 5120 MB in 1280 objectsorder 22 (4096 kB objects)block_name_prefix: rbd_data.5e3a2ae8944aformat: 2features: layeringflags:
    • 步驟二:動態調整

    1)擴容容量

    [root@node1 ~]# rbd resize --size 15G jacob Resizing image: 100% complete...done. [root@node1 ~]# rbd info jacob rbd image 'jacob':size 15360 MB in 3840 objectsorder 22 (4096 kB objects)block_name_prefix: rbd_data.5e3a2ae8944aformat: 2features: layeringflags:

    2)縮減容量

    [root@node1 ~]# rbd resize --size 10G jacob rbd: shrinking an image is only allowed with the --allow-shrink flag #此時縮減容量會報錯,如果確認要縮減,添加--allow-shrink選項 [root@node1 ~]# rbd resize --size 10G jacob --allow-shrink Resizing image: 100% complete...done. [root@node1 ~]# rbd info jacob rbd image 'jacob':size 10240 MB in 2560 objectsorder 22 (4096 kB objects)block_name_prefix: rbd_data.5e3a2ae8944aformat: 2features: layeringflags:

    客戶端訪問共享(client做客戶端主機)

    首先確保客戶端的yum源已經加載 [root@client ~]# yum repolist 已加載插件:fastestmirror Loading mirror speeds from cached hostfile 源標識 源名稱 狀態 MON mon 41 OSD osd 28 Tools tools 33 centos centos 9,911 repolist: 10,013 [root@client ~]# yum -y install ceph-common.x86_64 #客戶端需要安裝ceph-common軟件包 [root@client ~]# scp 192.168.4.11:/etc/ceph/ceph.conf /etc/ceph #拷貝配置文件,配置文件中記錄的有ceph集群服務器的IP信息 [root@client ~]# scp node1:/etc/ceph/ceph.client.admin.keyring /etc/ceph #拷貝訪問集群的密鑰文件,有了密鑰才有權限訪問集群 [root@client ~]# lsblk 查看磁盤分布情況 NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 20G 0 disk ├─sda1 8:1 0 1G 0 part /boot └─sda2 8:2 0 19G 0 part ├─centos-root 253:0 0 17G 0 lvm /└─centos-swap 253:1 0 2G 0 lvm [SWAP] sr0 11:0 1 284M 0 rom /media sr1 11:1 1 8.8G 0 rom /mnt [root@client ~]# rbd map jacob #客戶端連接jacob鏡像 /dev/rbd0 [root@client ~]# lsblk #再次查看 ,此時磁盤中多了一個rbd0 NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 20G 0 disk ├─sda1 8:1 0 1G 0 part /boot └─sda2 8:2 0 19G 0 part ├─centos-root 253:0 0 17G 0 lvm /└─centos-swap 253:1 0 2G 0 lvm [SWAP] sr0 11:0 1 284M 0 rom /media sr1 11:1 1 8.8G 0 rom /mnt rbd0 252:0 0 10G 0 disk
    • 步驟三:客戶端進行快照還原數據的實驗:
      快照:寫數據;快照;模擬人為的誤操作;還原快照
      副本:寫數據,可以自動備份3份;刪數據時,刪除3份,主要用來解決單點故障的問題
      1)格式化,掛載,寫數據
    [root@client ~]# mkfs.xfs /dev/rbd0 [root@client ~]# mount /dev/rbd0 /data [root@client ~]# df -h 文件系統 容量 已用 可用 已用% 掛載點 /dev/mapper/centos-root 17G 1.2G 16G 8% / devtmpfs 224M 0 224M 0% /dev tmpfs 236M 0 236M 0% /dev/shm tmpfs 236M 5.6M 230M 3% /run tmpfs 236M 0 236M 0% /sys/fs/cgroup /dev/sr0 284M 284M 0 100% /media /dev/sda1 1014M 142M 873M 14% /boot /dev/sr1 8.8G 8.8G 0 100% /mnt tmpfs 48M 0 48M 0% /run/user/0 /dev/rbd0 10G 33M 10G 1% /data [root@client ~]# echo "abc hello world" > /data/test.txt
    • 步驟四:回到node集群,創建快照
    [root@node1 ~]# rbd snap ls jacob #默認該鏡像沒有快照 [root@node1~]# rbd snap create jacob --snap jacob-snap1 #給jacob鏡像創建快照,快照名為jacob-snap1 [root@node1 ~]# rbd snap ls jacob SNAPID NAME SIZE 4 jacob-snap1 10240 MB

    到client模擬數據被誤操作刪除(ceph不支持在線還原快照)

    [root@client ~]# ls /data test.txt [root@client ~]# rm -rf /data/test.txt [root@client ~]# umount /data [root@client ~]# ls /data

    到node集群還原快照

    [root@node1 ~]# rbd snap rollback jacob --snap jacob-snap1 Rolling back to snapshot: 100% complete...done.

    客戶端再次掛載訪問共享

    [root@client ~]# mount /dev/rbd0 /data [root@client ~]# ls /data test.txt [root@client ~]# cat /data/test.txt abc hello world
    • 步驟五:創建塊照克隆
    • 使用快照克隆一個新的鏡像盤image
      jacob--------3G數據(快照)--------->創建新的共享
      創建一個新的共享
      1)保護快照(防止快照被誤刪除)
    [root@node1 ~]# rbd snap protect jacob --snap jacob-snap1 #保護快照 [root@node1 ~]# rbd snap rm jacob --snap jacob-snap1 #刪除快照,此時無法刪除,因為做了快照保護 rbd: snapshot 'jacob-snap1' is protected from removal. 2020-02-06 21:56:47.950350 7f10f5b44d80 -1 librbd::Operations: snapshot is protected

    2)克隆快照

    [root@node1 ~]# rbd clone jacob --snap jacob-snap1 jacob-clone --image-feature layering #使用現有jacob鏡像盤的jacob-snap1這個快照,克隆一個新的共享鏡像盤,名稱為jacob-clone [root@node1 ~]# rbd ls jacob jacob-clone

    3)查看克隆鏡像與父鏡像快照之間的關系

    [root@node1 ~]# rbd info jacob rbd image 'jacob':size 10240 MB in 2560 objectsorder 22 (4096 kB objects)block_name_prefix: rbd_data.5e3a2ae8944aformat: 2features: layeringflags: [root@node1 ~]# rbd info jacob-clone rbd image 'jacob-clone':size 10240 MB in 2560 objectsorder 22 (4096 kB objects)block_name_prefix: rbd_data.5e3e2ae8944aformat: 2features: layeringflags: parent: rbd/jacob@jacob-snap1 #克隆鏡像此時顯示有父鏡像overlap: 10240 MB #克隆鏡像很多數據都來自于快照鏈 #如果希望克隆鏡像可以獨立工作,就需要將父快照中的數據,全部拷貝一份,但比較耗時!!! [root@node1 ~]# rbd flatten jacob-clone Image flatten: 100% complete...done. [root@node1 ~]# rbd info jacob-clone rbd image 'jacob-clone':size 10240 MB in 2560 objectsorder 22 (4096 kB objects)block_name_prefix: rbd_data.5e3e2ae8944aformat: 2features: layeringflags: #此時父快照的信息不見了! [root@node1 ~]# rbd snap unprotect jacob --snap jacob-snap1 #取消快照保護 [root@node1 ~]# rbd snap rm jacob --snap jacob-snap1 #刪除快照,此時快照就可以被刪除

    客戶端取消對ceph的掛載實驗

    [root@client ~]# df -h 文件系統 容量 已用 可用 已用% 掛載點 /dev/mapper/centos-root 17G 1.2G 16G 8% / devtmpfs 224M 0 224M 0% /dev tmpfs 236M 0 236M 0% /dev/shm tmpfs 236M 5.6M 230M 3% /run tmpfs 236M 0 236M 0% /sys/fs/cgroup /dev/sr0 284M 284M 0 100% /media /dev/sda1 1014M 142M 873M 14% /boot /dev/sr1 8.8G 8.8G 0 100% /mnt tmpfs 48M 0 48M 0% /run/user/0 /dev/rbd0 10G 33M 10G 1% /data [root@client ~]# umount /data #卸載 [root@client ~]# lsblk #查看,此時,rbd0依然存在 NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 20G 0 disk ├─sda1 8:1 0 1G 0 part /boot └─sda2 8:2 0 19G 0 part ├─centos-root 253:0 0 17G 0 lvm /└─centos-swap 253:1 0 2G 0 lvm [SWAP] sr0 11:0 1 284M 0 rom /media sr1 11:1 1 8.8G 0 rom /mnt rbd0 252:0 0 10G 0 disk [root@client ~]# rbd showmapped id pool image snap device 0 rbd jacob - /dev/rbd0 [root@client ~]# rbd unmap /dev/rbd0 #也可以寫rbd unmap jacob [root@client ~]# lsblk #此時,rbd0不存在了 NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 20G 0 disk ├─sda1 8:1 0 1G 0 part /boot └─sda2 8:2 0 19G 0 part ├─centos-root 253:0 0 17G 0 lvm /└─centos-swap 253:1 0 2G 0 lvm [SWAP] sr0 11:0 1 284M 0 rom /media sr1 11:1 1 8.8G 0 rom /mnt [root@client ~]# rbd map jacob-clone /dev/rbd0 [root@client ~]# mount /dev/rbd0 /data [root@client ~]# ls /data test.txt [root@client ~]# umount /data [root@client ~]# rbd unmap /dev/rbd0

    Ceph文件系統存儲

    什么是CephFS

    • 分布式文件系統(Distributed File System)是指文件系統管理的物理存儲資源不一定直接連接在本地節點上,而是通過計算機網絡與節點相連
    • CephFS使用Ceph集群提供與POSIX兼容的文件系統
    • 允許 Linux直接將Ceph存儲mount到本地

    什么是元數據

    • 元數據(Metadata)
    • 任何文件系統中的數據分為數據和元數據
    • 數據是指普通文件中的實際數據
    • 而元數據指用來描述一個文件特征的系統數據
    • 比如:訪問權限、文件擁有者以及文件數據塊的分布信息(inode…)等
    • 所以CephFS必須要有MDSs節點

    ceph集群支持塊共享,文件系統共享,對象存儲共享
    塊共享(同一時間僅可以同一個客戶端訪問)

    iscsi服務 server[掛載]格式化 mount 寫數據10個文件
    desktop 掛載 mount 寫10個文件
    server 再次訪問 看到20個文件
    文件系統共享
    NFS(/common)
    desktop (mount) 寫數據,讀數據
    node1 (mount) 寫數據,讀數據

    Ceph 集群支持塊共享、文件系統共享、對象存儲共享 塊共享(同一時間僅可以一個客戶端訪問) 塊(沒有格式化) 文件系統(格式化,NFS,fat32,ext4,xfs文件系統) 硬盤沒有格式化,就相當于一幢空的大廈
    假設一塊硬盤此時有100G,將硬盤分為inode區域和block兩個區域 inode block
    2G 98G 再將inode區域的空間劃分為每塊256字節,block區域空間劃分為每塊4k的字節
    寫數據時,數據會被寫入到block中(4M的文件,會占用多個block)
    block中存數據,inode中存儲元數據(metadata)【元數據是數據的數據,描述數據的數據,比如一個文件,有文件名,時間,權限,大小…類似于描述信息,同時還記錄文件數據的地址】

    Ceph文件系統實驗

    問題
    實現Ceph文件系統的功能。具體實現有以下功能:

    • 部署MDSs節點
    • 創建Ceph文件系統
    • 客戶端掛載文件系統
      方案
      使用現有的虛擬機進行操作

      步驟
    • 1).ceph提供文件系統共享的實驗:(使用node3做ceph-mds服務,操作指令在node1執行)
    [root@node1 ~]# cd ceph-cluster/ [root@node1 ceph-cluster]# ceph-deploy mds create node3 ####################################################################### 此時: 【node1】/root/ceph-cluster/ceph.conf 【node3】/etc/ceph/ceph.conf 文件內容要一毛一樣![root@node1 ceph-cluster]# cat ceph.conf [global] fsid = 3b2ca6aa-8018-42c4-8bfe-05902cd313dd mon_initial_members = node1, node2, node3 mon_host = 192.168.4.11,192.168.4.12,192.168.4.13 auth_cluster_required = cephx auth_service_required = cephx auth_client_required = cephx [root@node3 ~]# cat /etc/ceph/ceph.conf [global] fsid = 3b2ca6aa-8018-42c4-8bfe-05902cd313dd mon_initial_members = node1, node2, node3 mon_host = 192.168.4.11,192.168.4.12,192.168.4.13 auth_cluster_required = cephx auth_service_required = cephx auth_client_required = cephxconfig file /etc/ceph/ceph.conf exist with different content 有文件,但內容不一致,可以加--overwrite-conf選項在node3查看,此時ceph-mds服務已經啟動 [root@node3 ~]# systemctl status ceph-mds@node3.service ● ceph-mds@node3.service - Ceph metadata server daemonLoaded: loaded (/usr/lib/systemd/system/ceph-mds@.service; enabled; vendor preset: disabled)Active: active (running) since 五 2020-02-07 18:13:49 CST; 9min ago
    • 2).創建存儲池
    [root@node1 ~]# ceph osd pool create cephfs_data 128 pool 'cephfs_data' created #創建存儲池,對應128個PG [root@node1 ceph-cluster]# ceph osd pool create cephfs_metadata 128 pool 'cephfs_metadata' created #創建存儲池,對應128個PG #cephfs_metadata做inode ,cephfs_data做block [root@node1 ceph-cluster]# ceph osd lspools #查看 0 rbd,1 cephfs_data,2 cephfs_metadata,

    • 3)創建文件系統
    [root@node1 ceph-cluster]# ceph fs new myfs1 cephfs_metadata cephfs_data #創建一個文件系統,這個文件系統由inode和block組成,cephfs_metadata做inode,存元數據,cephfs_data做block,存數據,文件系統名稱是myfs1 [root@node1 ceph-cluster]# ceph fs ls #查看文件系統 name: myfs1, metadata pool: cephfs_metadata, data pools: [cephfs_data ]

    4)客戶端mount訪問

    [root@client ~]# mkdir /cephfs [root@node1 ceph-cluster]# cat /etc/ceph/ceph.client.admin.keyring [client.admin]key = AQCb/TpeWGpVJBAALIlg4tgvgDTbr+Poza3xCw== #查看 /etc/ceph/ceph.client.admin.keyring找用戶名和密碼 [root@client ~]# mount -t ceph 192.168.4.11:6789:/ /cephfs -o name=admin,secret=AQCb/TpeWGpVJBAALIlg4tgvgDTbr+Poza3xCw== #客戶端mount訪問共享,-t訪問的服務類型是ceph(nfs,cifs),服務IP是192.168.4.11,端口號是6789,ceph僅支持一個文件系統共享,只能寫訪問/,把共享掛載到/cephfs目錄,name指定用戶名,secret指定密碼(因為ceph集群需要驗證用戶和密碼才可以訪問) [root@node1 ceph-cluster]# ceph -scluster 3b2ca6aa-8018-42c4-8bfe-05902cd313ddhealth HEALTH_WARNtoo many PGs per OSD (320 > max 300)monmap e2: 3 mons at {node1=192.168.4.11:6789/0,node2=192.168.4.12:6789/0,node3=192.168.4.13:6789/0}election epoch 18, quorum 0,1,2 node1,node2,node3fsmap e5: 1/1/1 up {0=node3=up:active}osdmap e31: 3 osds: 3 up, 3 inflags sortbitwisepgmap v830: 320 pgs, 3 pools, 84386 kB data, 2606 objects362 MB used, 61044 MB / 61406 MB avail320 active+clean

    Ceph對象存儲

    • 對象存儲:
    • 基于kv的存儲,通過API接口訪問,對象存儲中所有的數據都被認為是一個對象?;趯ο蟮拇鎯褪菍ο蟠鎯?/li>
    • 也就是鍵值存儲,通其接口指令,也就是簡單的GET、PUT、DEL和其他擴展,向存儲服務上傳或下載數據
    • 對象存儲中所有數據都被認為是一個對象,所以,任何數據都可以存入對象服務器,如圖片,視頻,音頻等
    • RGW全稱是Rados Gateway
    • RGW是ceph對象存儲網關,用于向客戶端應用呈現存儲頁面,提供RESTful API訪問接口
      運維:部署集群,維護集群,故障排錯
      開發:寫程序,基于程序中的指令連接ceph服務器,上傳下載數據
      百度云盤就屬于對象存儲(不能直接mount,不是在客戶端多一個磁盤)
      百度云盤,客戶端需要下載他的客戶端軟件(網頁也是軟件)

    Ceph對象存儲實驗

    步驟

    • 1)登錄node1使用ceph-deploy運城啟動RGW服務(radosgw)
    [root@node1 ~]# cd ceph-cluster/ [root@node1 ceph-cluster]# ceph-deploy rgw create node3 ... [ceph_deploy.rgw][INFO ] The Ceph Object Gateway (RGW) is now running on host node3 and default port 7480 #起完服務后默認端口7480 [root@node3 ~]# systemctl status ceph-radosgw@rgw.node3.service #查看服務是否已經啟動 ● ceph-radosgw@rgw.node3.service - Ceph rados gatewayLoaded: loaded (/usr/lib/systemd/system/ceph-radosgw@.service; enabled; vendor preset: disabled)Active: active (running) since 五 2020-02-07 19:46:54 CST; 7min ago [root@node3 ~]# ss -nutlp | grep 7480 #也可以查看端口號 tcp LISTEN 0 128 *:7480 *:* users:(("radosgw",pid=2120,fd=27))
    • 2)可以修改配置文件,修改服務的端口(非必須操作)【在node3操作】
    [root@node3 ~]# vim /etc/ceph/ceph.conf 手動輸入三行 [client.rgw.node3] host=node3 rgw_frontends="civetweb port=8000" [root@node3 ~]# systemctl restart ceph-radosgw@rgw.node3.service [root@node3 ~]# ss -nutlp | grep radosgw tcp LISTEN 0 128 *:8000 *:* users:(("radosgw",pid=2556,fd=27))

    總結

    以上是生活随笔為你收集整理的ceph的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    中文字幕在线网址 | 鲁一鲁影院 | 最近免费中文字幕 | 国产精品欧美日韩在线观看 | 香蕉影院在线 | 一区二区三区免费在线观看 | 国内视频| 久久精品在线 | 色婷婷免费视频 | 国内成人精品2018免费看 | 久久在线电影 | 久久99久久99精品免视看婷婷 | 在线观看中文字幕 | 精品久久久久久久久中文字幕 | 97中文字幕 | 欧美色图88 | 亚洲综合日韩在线 | 亚洲精品黄网站 | 欧美成人基地 | 欧美午夜a | 涩五月婷婷 | 久久激情视频免费观看 | 国产精品9999 | 免费日韩一级片 | 成人一级在线 | 久久精品国产一区二区三区 | 深夜免费小视频 | 91污在线观看 | 天天干亚洲 | 色爱区综合激月婷婷 | 亚洲美女在线一区 | 91一区二区三区在线观看 | 久久99精品热在线观看 | 日本精品视频在线播放 | 在线观看成人小视频 | 狠狠色丁香婷婷综合橹88 | 免费a级黄色毛片 | 日韩网站视频 | 亚洲人片在线观看 | 日韩视频一区二区在线观看 | 欧美日韩视频在线 | 99久久这里有精品 | 国产精品久久久一区二区三区网站 | 亚洲激情在线播放 | 国内揄拍国内精品 | 韩国精品福利一区二区三区 | 日日摸日日 | 色伊人网 | 一区二区三区手机在线观看 | 国产三级在线播放 | 欧美日韩在线看 | 久久视频免费看 | 日本特黄特色aaa大片免费 | www.色国产 | 九九热视频在线 | 亚洲一区久久 | 99久免费精品视频在线观看 | 久久精品欧美一区二区三区麻豆 | 国产美女免费观看 | 国产无限资源在线观看 | 久爱精品在线 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 久久免费视频国产 | 美女视频免费精品 | 亚洲韩国一区二区三区 | 狂野欧美激情性xxxx欧美 | 人人射网站 | 中文字幕一区二区三区四区久久 | 国产专区一 | 欧美日本啪啪无遮挡网站 | 91av久久 | 久久精选视频 | 久久综合久久久 | 久久综合色婷婷 | 色婷婷福利视频 | 国产精品国产亚洲精品看不卡15 | 久久69精品 | 黄色avwww| 999精品在线 | 成人午夜电影免费在线观看 | 国产二区精品 | 亚洲欧美经典 | 99视频精品免费视频 | 西西4444www大胆无视频 | 免费av片在线 | 欧美色精品天天在线观看视频 | 天天操夜夜看 | 久在线观看视频 | 成人免费观看完整版电影 | 国产精品不卡在线观看 | 久久99久久99精品 | 久久再线视频 | 国产18精品乱码免费看 | 2019中文字幕网站 | 亚洲成色777777在线观看影院 | 精品黄色片 | 久久日本视频 | 久久激情久久 | 国产一级91 | 亚洲日韩中文字幕 | 国产成人精品一区二区在线观看 | 日韩在线免费不卡 | 特黄一级毛片 | 国产精品福利久久久 | 四虎在线观看精品视频 | 欧美国产精品久久久久久免费 | 美女亚洲精品 | 色在线国产 | 久久视频精品在线观看 | 婷婷激情网站 | 国产一区二区手机在线观看 | 色婷婷中文| 色a网 | 日本中文字幕在线观看 | 人人爽爽人人 | 97人人模人人爽人人喊网 | 精品视频123区在线观看 | 国产成人av电影 | 国产xxxx做受性欧美88 | 91精品久久久久久久99蜜桃 | 911香蕉视频 | 亚洲精品在线电影 | 天天草天天干天天 | 美女网站在线看 | 国产手机视频在线播放 | 日日夜夜免费精品视频 | 国产色拍拍拍拍在线精品 | 欧美另类tv | 久久久午夜剧场 | 99久久久久成人国产免费 | 国产高清一级 | 日本久久91| 中文一区在线观看 | 国产免费午夜 | 人人插人人玩 | 天堂久久电影网 | 亚洲a成人v | 高清在线一区 | 日狠狠| 日本中出在线观看 | 中文字幕在线影院 | 五月婷婷久久丁香 | 欧美色精品天天在线观看视频 | 黄色av电影免费观看 | 在线观看岛国片 | 久久婷婷国产色一区二区三区 | 国产精品午夜av | 欧美大片www | 天天操天天综合网 | 中文字幕久久精品 | 日韩av资源在线观看 | 国产高清在线免费观看 | av色综合网 | 91久久精品日日躁夜夜躁国产 | 欧美日韩国产一区二区三区在线观看 | 国产午夜在线观看 | 四虎国产 | 91视频观看免费 | 午夜视频不卡 | av一级在线 | 91视频在线观看下载 | 国产免费观看视频 | 久久蜜臀一区二区三区av | 一级片免费观看视频 | 欧美激情精品 | 欧美综合久久久 | 国产一级精品绿帽视频 | 日韩精品一区不卡 | 日韩av电影免费在线观看 | 国产一级二级在线观看 | 日韩高清一二区 | 国产在线理论片 | 国产精品99久久免费黑人 | 麻豆久久久久 | 激情久久一区二区三区 | 91精品婷婷国产综合久久蝌蚪 | 婷婷激情综合 | 91av视频播放 | 欧美日一级片 | 丝袜少妇在线 | 久草在线视频中文 | 丁香花五月 | 精品一区 在线 | 久久99久久99精品免观看软件 | 欧美国产日韩激情 | 天堂网av 在线 | 日韩在线不卡视频 | 亚洲午夜精品福利 | 国产又粗又猛又黄视频 | 国产清纯在线 | 久久精品久久综合 | 最近中文字幕在线中文高清版 | www.五月激情.com | 中文免费观看 | 久久综合影音 | 黄色一级动作片 | 日本精品视频免费观看 | 色就色,综合激情 | 中文字幕有码在线 | 日韩精品一区电影 | 国产不卡视频在线播放 | 色网站免费在线观看 | 日本一区二区高清不卡 | 永久免费精品视频 | 亚洲精品456在线播放乱码 | 日韩免费播放 | 97视频在线播放 | 久草视频播放 | 久久精品视频在线免费观看 | 在线性视频日韩欧美 | 黄色网免费 | 在线观看国产一区二区 | 99热最新网址 | 日韩精品第一区 | 日韩精品久久一区二区三区 | 国产精品麻豆免费版 | 免费合欢视频成人app | 韩国av免费观看 | 一区二区欧美在线观看 | 成人av片免费观看app下载 | 免费日韩 精品中文字幕视频在线 | 女女av在线 | 日日夜夜精品视频 | 免费污片| 亚洲天天综合 | 精品久久久久_ | 在线亚洲播放 | 亚洲永久精品一区 | 久久中文字幕在线视频 | 国产在线观看国语版免费 | 国产无遮挡又黄又爽在线观看 | 天天插狠狠干 | 在线日韩精品视频 | 久久国产精品影片 | 日韩精品无 | 国产精品成人久久久久久久 | 91成人蝌蚪| 亚洲女欲精品久久久久久久18 | 中文字幕丝袜一区二区 | 99久久久久久 | 久久高清毛片 | 91 在线视频播放 | 91九色视频在线播放 | 久久久久久国产一区二区三区 | 国产麻豆精品久久 | 免费看的黄色的网站 | 免费国产在线观看 | 日日摸日日添夜夜爽97 | 亚洲爱av| 国产精品午夜久久 | 黄色一及电影 | 精品一二三区 | 久久久久久久电影 | 成人四虎 | 久久久精品高清 | 日韩黄色网络 | 久久99精品久久久久婷婷 | 亚洲视频免费视频 | 在线日韩中文 | 丁香一区二区 | 国产精品久久免费看 | 日韩精品专区在线影院重磅 | 日本h视频在线观看 | 亚洲成人精品 | 超碰夜夜 | 天天干天天操天天搞 | 亚洲精品午夜久久久 | 一区二区三区免费在线观看视频 | 在线中文字幕观看 | 午夜免费在线观看 | 五月婷婷综合色拍 | 久久久久国产一区二区 | 91免费观看视频网站 | 四虎成人在线 | 免费a一级 | 久久99欧美 | 国内精品视频在线 | 欧美一区二区三区在线播放 | 成人欧美一区二区三区黑人麻豆 | 日韩视频区 | 亚洲黄色av网址 | 婷婷丁香在线视频 | 久影院 | 免费在线观看国产精品 | 亚洲精品国偷自产在线99热 | 欧美乱码精品一区二区 | 国产麻豆成人传媒免费观看 | 狠狠色丁香九九婷婷综合五月 | 色网av | www.日本色 | 97高清视频| 国产小视频免费观看 | 九九精品视频在线 | 91男人影院| 四虎www com| 国产精品久久久久久久久久妇女 | 国产专区视频 | 成人亚洲精品久久久久 | 日韩久久精品一区二区三区下载 | 国产麻豆精品一区 | av在线免费网 | www.香蕉视频 | 日韩高清三区 | 婷婷国产一区二区三区 | 亚洲在线免费视频 | 四虎成人免费观看 | 欧美色综合天天久久综合精品 | 六月婷色 | 亚洲成a人片在线观看网站口工 | 国产成人精品综合久久久 | 久草国产精品 | 国产乱老熟视频网88av | 国内精品视频在线播放 | 久久精品99国产精品酒店日本 | 国产拍揄自揄精品视频麻豆 | 97在线看片| 欧美在线1 | av免费在线观 | 成人教育av| 国产精品乱码一区二区视频 | 久久精品—区二区三区 | 色久综合 | 久草视频在线看 | 99久久99久久精品免费 | 国产精品久久久久久久久久久免费看 | 亚洲精品美女久久久久网站 | 国产91在线观 | 福利一区在线视频 | 中文字幕在线观看资源 | 天天艹天天 | 成人av在线观| 亚洲一级理论片 | 亚洲精品456在线播放 | 色噜噜在线观看 | 国产综合视频在线观看 | 九月婷婷人人澡人人添人人爽 | 蜜臀av性久久久久av蜜臀三区 | 天天干夜夜干 | 天天色天天草天天射 | 黄色国产精品 | 成人av在线网 | 超级碰碰碰碰 | 亚洲欧美视频 | 国产96精品 | 天天射天天搞 | 亚洲五月婷婷 | 天天曰天天曰 | 日韩中文字幕在线不卡 | 高清有码中文字幕 | 91在线网址 | 久久国产露脸精品国产 | 少妇性bbb搡bbb爽爽爽欧美 | 91成品人影院 | 狠狠色丁香婷婷综合橹88 | 亚洲色图27p | 插久久| 国产成人精品亚洲 | 一区二区中文字幕在线播放 | 青草视频免费观看 | av片子在线观看 | 中文字幕区 | 成人h在线 | 亚色视频在线观看 | 亚洲一片黄 | 国产一区视频导航 | 五月婷婷毛片 | 最新av网站在线观看 | 爱av在线网 | 久久人人艹 | 免费精品国产va自在自线 | 在线色资源 | 久久高清精品 | 免费在线观看av网站 | 国产精品原创视频 | 激情网综合 | 亚洲视频综合在线 | 欧美在线一级片 | av在线播放网址 | 日韩视频中文 | 天天玩夜夜操 | 中文字幕一区二区在线播放 | 91免费观看 | 999亚洲国产996395 | 久一在线 | 久久在线观看 | 久久免费一 | 美女免费视频网站 | 涩涩伊人 | 中文字幕av播放 | 色天堂在线视频 | 欧美一区中文字幕 | 精品福利视频在线 | 97成人精品区在线播放 | 99婷婷狠狠成为人免费视频 | 久亚洲精品 | 亚洲成年人av| 91九色综合 | 黄色avwww| 亚洲精品三级 | 97天天干| 国产福利一区在线观看 | 国产很黄很色的视频 | 日本中文字幕在线视频 | 波多野结衣一区三区 | 国产精品9999 | 日韩不卡高清 | 亚洲专区免费观看 | 久草在线视频网站 | 亚洲精品视频免费在线 | 日韩av手机在线看 | 顶级欧美色妇4khd | 久草在线视频网站 | 国产精品ⅴa有声小说 | 亚洲精品欧美成人 | 91在线观看黄 | 九九爱免费视频 | 波多野结衣精品 | 色欧美日韩 | 青春草视频在线播放 | 黄色免费观看 | av电影中文 | 草莓视频在线观看免费观看 | 亚洲视频一级 | 免费av看片 | 欧洲av不卡 | 天天插综合 | 国产精品理论片在线观看 | 深爱激情五月网 | 精品1区二区| 91视频免费国产 | 国产精品一区二区三区99 | 欧美精品久久久久久久久老牛影院 | 国产亚洲精品久久久久久久久久 | 伊人资源视频在线 | 色成人亚洲 | 日韩最新理论电影 | 久久久免费网站 | 天天综合成人网 | 欧美极度另类性三渗透 | 国产在线色视频 | 久久伊人91 | 狠狠躁夜夜a产精品视频 | 91视频-88av | 亚洲精品动漫久久久久 | 欧美日韩国产在线观看 | 亚洲精品福利在线 | 婷婷国产精品 | 国产成在线观看免费视频 | 午夜久久福利影院 | 男女拍拍免费视频 | 夜夜夜影院 | 天天天色| 色香蕉在线视频 | 亚洲精品免费视频 | 国产视频97 | 国产午夜精品免费一区二区三区视频 | 免费看黄在线 | 黄色大片入口 | 日韩三级视频在线观看 | 草久久久久久 | 在线国产视频 | 夜色资源站wwwcom | 99久久精品无码一区二区毛片 | 成人毛片一区 | 天天综合视频在线观看 | 久久人人爽人人爽 | 天天插天天色 | 91看片淫黄大片一级在线观看 | 婷婷国产v亚洲v欧美久久 | 在线看成人 | 999亚洲国产996395 | 不卡的av在线播放 | 黄色aaaaa | 国产精品欧美久久 | 狠狠色丁香久久综合网 | 黄色av影院| 天天操天天添天天吹 | 天天鲁天天干天天射 | 在线v| 91视频下载 | www.香蕉视频 | 色999视频| 美女免费网站 | 精品视频9999 | 欧美日一级片 | 欧美久久久久久久久 | 国产在线a不卡 | 一区二区三区日韩精品 | 欧美性色19p | 西西44人体做爰大胆视频 | 91在线精品观看 | 国产视频在线一区二区 | 五月婷婷在线观看视频 | 日韩视频免费看 | 国产女教师精品久久av | 色婷丁香 | 亚洲最大成人网4388xx | 黄色精品国产 | 黄色a视频免费 | 在线不卡a| 99精彩视频在线观看免费 | 国产91精品一区二区绿帽 | 午夜在线免费观看视频 | 狠狠狠狠狠狠 | 国产午夜精品免费一区二区三区视频 | 欧美精品一区二区蜜臀亚洲 | 国产成人高清 | 亚洲另类视频在线 | 午夜免费久久看 | 国产一二三精品 | 91精品国产91久久久久 | 久久av伊人 | 久久久久久毛片 | 91香蕉亚洲精品 | 亚洲精品男人的天堂 | 日女人电影 | 国产综合在线视频 | 日韩中文字幕免费电影 | 在线有码中文字幕 | 亚洲精品456在线播放第一页 | 手机成人在线 | 久久天天拍 | 久久午夜电影院 | 欧美成人影音 | 激情偷乱人伦小说视频在线观看 | 久久99九九99精品 | 日韩av成人 | 国语麻豆| 色网站视频| 国产精品av在线免费观看 | 日精品 | 精品国产精品久久一区免费式 | 91香蕉视频色版 | 日韩欧美精品免费 | av最新资源 | 亚洲少妇久久 | 日韩中文字幕第一页 | 久草a在线 | 成人免费xxx在线观看 | 欧美激情视频一二区 | 色婷婷av在线 | 国产精品中文字幕在线观看 | 五月天亚洲综合 | 久久中文视频 | 亚洲国产精品成人精品 | 国产成人精品一区一区一区 | 综合网成人 | 日韩电影中文字幕在线观看 | 亚洲精品国产麻豆 | 成人久久18免费网站图片 | 天天操天天干天天干 | 九九一级片| 亚洲激情综合网 | 欧美三人交 | 国产精品中文 | 一级精品视频在线观看宜春院 | 国产精品久久久久久久毛片 | 国产成人久 | 欧美极度另类性三渗透 | 日韩欧美国产精品 | 亚洲激色| 麻豆久久精品 | 日韩中文字幕91 | 狠狠ri| 国产精品永久久久久久久久久 | 国产高清在线a视频大全 | 黄色在线看网站 | 97超碰总站 | 亚洲国产av精品毛片鲁大师 | 国产精品大片免费观看 | 亚洲在线日韩 | 青草视频在线 | 伊人亚洲综合网 | 九九影视理伦片 | 蜜桃av综合网 | 久草视频国产 | 在线天堂视频 | 亚洲成人黄色 | 蜜臀久久99精品久久久无需会员 | 精品久久久久_ | 九九在线播放 | 91亚洲精品国产 | 五月天激情综合 | 中国一级片在线播放 | 亚洲,国产成人av | 国产视频一区精品 | 亚洲精品久久激情国产片 | 在线观看亚洲 | 国产高清一 | 69精品在线观看 | 国产精品入口麻豆www | 精品国产不卡 | 婷婷精品在线 | 国产欧美久久久精品影院 | 久久久久久福利 | 81国产精品久久久久久久久久 | 久久视讯 | 国产剧在线观看片 | 亚洲免费色 | 久久电影国产免费久久电影 | 国产剧情久久 | 成人91在线 | 99视频精品 | 黄色免费在线视频 | 日日干夜夜操视频 | 999视频在线播放 | 日日夜夜精品免费观看 | 久久蜜臀av | 久久激情电影 | 亚洲精品成人在线 | 免费国产ww| 九九在线高清精品视频 | 国产一及片| 精品国产欧美一区二区三区不卡 | 这里有精品在线视频 | 欧美色一色 | 91一区啪爱嗯打偷拍欧美 | 久久久国产一区二区三区四区小说 | 日日草天天干 | 午夜精品在线看 | 亚洲在线视频免费 | 亚洲一区二区三区miaa149 | 久久国产精品一区二区三区四区 | 欧美日韩国产精品爽爽 | 久久无码精品一区二区三区 | 久久高清片 | 天天天天天天天操 | 综合色中文 | 日韩久久久久久 | 国产高清成人 | 色婷婷在线播放 | 视频一区亚洲 | 色综合久久88色综合天天免费 | 伊人手机在线 | 2018好看的中文在线观看 | 久久视了 | 亚洲午夜剧场 | 久久99精品国产麻豆宅宅 | 久久久亚洲网站 | 欧美日韩国产一区二区三区在线观看 | 成人一级在线 | 91精品在线播放 | 成人久久18免费网站麻豆 | 久久久官网 | 国产高清福利在线 | 久久成人一区二区 | 久久久久久久久久久久电影 | 日本少妇高清做爰视频 | 久久草草热国产精品直播 | 久久久久久国产精品美女 | 在线视频 精品 | 免费日韩 精品中文字幕视频在线 | 中文字幕在线观看完整 | 在线播放视频一区 | 成人精品在线 | 久久精品成人欧美大片古装 | 91在线看黄 | 97视频网站 | www.久草.com | 亚洲精品乱码久久久久 | 成人午夜性影院 | 欧美精品乱码99久久影院 | 亚洲高清在线观看视频 | av片子在线观看 | 少妇资源站 | 免费观看9x视频网站在线观看 | 久久久久久电影 | 亚洲精品在线一区二区 | 五月婷网 | 免费观看www小视频的软件 | 国产激情电影综合在线看 | 成人一级在线观看 | 中文字幕制服丝袜av久久 | 国产小视频免费在线观看 | 免费视频资源 | 久久人人爽爽人人爽人人片av | 在线观看国产麻豆 | 在线之家官网 | 精品字幕在线 | 精品久久久久久久久久久久久 | 午夜精品久久久久久久99 | 天天综合色 | 国产无遮挡猛进猛出免费软件 | 国产精品久久久久高潮 | 亚洲一区美女视频在线观看免费 | 欧美日韩裸体免费视频 | 午夜久操| 亚洲91视频 | 99久久www | 国产又粗又硬又长又爽的视频 | 黄色综合 | 久久在线免费观看 | 日韩电影中文,亚洲精品乱码 | 久草在线资源网 | 国产成本人视频在线观看 | 麻豆视频在线免费观看 | 久久成人精品电影 | 国产在线观看免费 | 国产剧在线观看片 | 日韩久久电影 | 欧美精品久久久久久久免费 | 中文字幕av全部资源www中文字幕在线观看 | 久草99| 国产精品18毛片一区二区 | 丁香九月婷婷综合 | www日日| 黄色片网站 | 久久精品国产一区二区三 | 在线视频一区观看 | 91片黄在线观看动漫 | 美女精品国产 | 狠狠干天天射 | 中文字幕在线视频一区二区三区 | 五月天com| 国产对白av | 国产成人三级在线观看 | 亚洲va欧美va人人爽 | 日韩啪啪小视频 | 黄色a一级视频 | 国产精品中文 | 欧美极品裸体 | 玖玖综合网 | 久久精品久久综合 | 狠狠色噜噜狠狠狠狠2022 | 亚洲精品大全 | 久草精品电影 | 日本黄色片一区二区 | 亚洲丁香日韩 | 日韩成人xxxx | 字幕网在线观看 | 操操色| 亚洲国产成人精品在线观看 | 最近在线中文字幕 | 免费a v观看 | 91精品国产九九九久久久亚洲 | 精品国产免费人成在线观看 | 99午夜| 欧美日一级片 | 国产91精品久久久久久 | 亚洲三级性片 | 天天色天天综合网 | 亚洲高清视频在线观看 | 91人人澡人人爽人人精品 | 天天鲁天天干天天射 | 久久免费播放 | 免费高清无人区完整版 | 中文字幕久久精品亚洲乱码 | 字幕网资源站中文字幕 | 高潮久久久久久 | 久久精品日本啪啪涩涩 | 日韩伦理一区二区三区av在线 | 久久爱影视i| 四虎www. | 中文字幕a∨在线乱码免费看 | 国产亚洲欧美一区 | 日韩电影中文字幕在线 | 欧美精品中文在线免费观看 | 国产精品porn | 欧美日产在线观看 | 免费又黄又爽的视频 | 日韩黄色免费看 | 国产成人一区二区啪在线观看 | 成人av网站在线播放 | 人人插人人插 | 欧美日韩在线视频免费 | 久久久久久综合网天天 | 欧美日韩亚洲国产一区 | 狠狠色丁香婷婷综合基地 | av网站在线观看播放 | 99在线精品视频观看 | 精品视频在线看 | 摸bbb搡bbb搡bbbb| 国产不卡精品 | 亚洲精品国偷拍自产在线观看蜜桃 | 超碰97久久 | 亚洲国产一二三 | 精品国产久 | a v在线视频 | 国产小视频免费在线观看 | 亚洲一区尤物 | 久久久国产精品亚洲一区 | 天天操天天射天天爱 | 国产黄色免费观看 | 久久99国产精品 | 97超碰中文字幕 | 日本精品久久久久中文字幕 | 国产精品国产三级国产aⅴ入口 | 在线观看久久 | 中文字幕第一 | 久久九九国产精品 | 美女精品久久久 | 国产精品va在线观看入 | 国产精品va在线观看入 | bbbb操bbbb| 狠狠躁日日躁夜夜躁av | 日韩高清无线码2023 | 久久天天躁夜夜躁狠狠躁2022 | 欧美精品免费在线观看 | 日韩美女黄色片 | 麻豆传媒精品 | 激情欧美国产 | 国产一级片观看 | 天天爱天天干天天爽 | 激情欧美xxxx | av电影 一区二区 | 在线观看免费黄色 | 91精品国自产拍天天拍 | 久草视频在线播放 | 一级一片免费观看 | 丁香婷婷激情网 | 久久网站最新地址 | 公与妇乱理三级xxx 在线观看视频在线观看 | 国产小视频国产精品 | 国产精品久久久久四虎 | 国产在线精品一区二区 | 在线观看一区 | 成人性生交视频 | 6080yy午夜一二三区久久 | 成年人在线免费看视频 | 成人h视频在线播放 | 日韩电影在线观看一区二区三区 | 亚洲综合在线播放 | 99精品乱码国产在线观看 | 一二三区av | 国产在线观看h | 欧美在线视频精品 | 日韩久久影院 | 亚洲永久字幕 | 国产不卡免费视频 | 国产中文字幕在线播放 | av在线影视 | 久久一区精品 | 亚洲国产中文在线观看 | 成人国产精品电影 | av天天干 | 久久99电影 | 亚洲a网 | 国产91精品一区二区麻豆网站 | 色a资源在线 | h视频在线看 | 日本视频高清 | 国产剧情一区二区在线观看 | 九九久久久久99精品 | 小草av在线播放 | 九九热精品国产 | 国产精品资源在线 | 国产五码一区 | 国产精品 日韩精品 | 亚洲精品在线免费观看视频 | 久久久国产在线视频 | 黄色小说网站在线 | 欧美一区日韩精品 | 日本黄色免费大片 | av一级在线 | 久久天天拍 | 国产馆在线播放 | wwwwwww黄| 日韩性xxxx | 九九热精品视频在线观看 | 精品久久久久久久久久国产 | 丰满少妇在线观看资源站 | 精品国产免费人成在线观看 | 中文字幕欲求不满 | 91av视频网| 99精品国产成人一区二区 | 国产麻豆电影 | 婷婷色资源 | 欧女人精69xxxxxx | 日韩乱理| 国产一区二区不卡在线 | 国产精品一区二区免费在线观看 | 久久y| 综合久久精品 | 免费试看一区 | 91视频国产免费 | 成人a级大片 | 黄色免费观看 | 色就是色综合 | 中文字幕免费在线 | 免费黄色特级片 | 久久久久久久网 | 西西www4444大胆视频 | 免费精品人在线二线三线 | 欧美精品久久久久 | 国产色啪| 高清在线一区 | 2019精品手机国产品在线 | 久久精品视频99 | 婷婷亚洲综合 | 亚洲国产wwwccc36天堂 | 国内久久久久久 | 久久综合色一综合色88 | 麻豆传媒电影在线观看 | 久久久久国产成人免费精品免费 | 婷婷丁香七月 | 天天干,天天射,天天操,天天摸 | 国产综合精品一区二区三区 | 国产精品久久久久久久久久ktv | 蜜桃视频日本 | 天天操,夜夜操 | 久久婷婷精品视频 | 婷五月天激情 | 美腿丝袜av | 国产中文字幕国产 | 九九九毛片 | 日韩久久激情 | 亚洲精品视频在线观看免费视频 | 97精品国自产拍在线观看 | 亚洲日本一区二区在线 | 国产一区在线免费观看视频 | 日韩在线 一区二区 | 91免费看黄色 | 999精品网 | 久久经典国产 | 91麻豆精品国产91 | 五月婷婷一级片 | 国产精品精品国产色婷婷 | 超碰成人网 | 国产一区二区三区四区在线 | 国产精品videossex国产高清 | 国产精品日韩在线观看 | 亚州av成人 | 久久久久久久久久久高潮一区二区 | 亚洲国产中文在线观看 | 日韩精品无码一区二区三区 | 日本一区二区三区免费看 | 精品久久网 | 午夜精品一区二区三区在线播放 | 国产精品久久久久久av | 国内精品久久久久国产 | 日韩免费看片 | 成人网在线免费视频 | 免费看的黄色网 | 一个色综合网站 | 天天超碰| 91桃色在线免费观看 | 欧美综合色在线图区 | 日日碰夜夜爽 | 国产高清不卡一区二区三区 | 免费在线观看视频一区 | 亚洲黄色成人 | 亚洲综合在线一区二区三区 | 亚洲国产电影在线观看 | 香蕉视频在线免费看 | 久久激情精品 | 久久精品视频日本 | 久久久久久毛片精品免费不卡 | 久久99精品国产麻豆宅宅 | 97超碰影视 | 一区二区精品在线视频 | 欧美一二区在线 | 99在线视频观看 | 日韩一级成人av | 精品成人国产 | 色婷婷av一区 | 久久亚洲免费视频 | 精品国产乱码久久久久久1区2匹 | 亚洲精品国内 | 综合天天久久 | 美女黄频在线观看 | 亚洲激情综合网 | 久久久久免费精品国产 | 精品国产视频在线 | 国产精品日韩欧美一区二区 | 日韩精品一卡 | 五月婷婷在线综合 | 欧美午夜精品久久久久久孕妇 | 亚洲电影自拍 | 欧美日韩精品在线一区二区 | 久久久久久久久久久久亚洲 | 欧美在线视频不卡 | 国产高清中文字幕 | 国产一级在线观看视频 | 久久99精品久久久久久久久久久久 | 久久系列 | 成人动图 | 亚洲一级二级三级 | aa级黄色大片 | 久久久久久免费毛片精品 | 色就干| 久久首页 | 五月开心六月伊人色婷婷 | 国产精品美女久久久久久久网站 | 99国内精品久久久久久久 | 中文字幕在线看片 | 中国精品少妇 | 四虎8848免费高清在线观看 | 久久久久久久久久毛片 | 麻豆91在线观看 | 四虎www | 免费在线观看91 | 久久久黄色免费网站 | 成人免费视频在线观看 | 中文字幕在线观看的网站 | 最新日本中文字幕 | 国产精品99免视看9 国产精品毛片一区视频 | 国产小视频在线免费观看视频 | 天天干天天草天天爽 |