日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

kubernetes1.30集群部署+dashboard+heapster

發布時間:2024/4/17 编程问答 45 豆豆
生活随笔 收集整理的這篇文章主要介紹了 kubernetes1.30集群部署+dashboard+heapster 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

v2.1

1、系統配置

1.1、禁用防火墻、禁用selinux

#防火墻禁用 systemctl stop firewalld systemctl disable firewalld#SELinux禁用 setenforce 0 sed -i '/^SE/s/enforcing/disabled/' /etc/selinux/config?

1.2、創建修改內核文件/etc/sysctl.d/k8s.conf

#寫入文件 cat <<EOF > /etc/sysctl.d/k8s.conf net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 net.ipv4.ip_forward = 1 EOF#使用sysctl使其生效 sysctl -p /etc/sysctl.d/k8s.conf

1.3、禁用swap

#關閉系統的Swap swapoff -a#永久生效 echo "vm.swappiness=0" >> /etc/sysctl.d/k8s.conf#修改 /etc/fstab 文件,注釋掉 SWAP 的自動掛載 #/dev/mapper/centos-swap swap ? ? ? ? ? ? ? ? ? ?swap ? ?defaults ? ? ? ?0 0

2、配置yum源

#配置阿里的docker-ce yum-config-manager --add-repo ?https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo#配置kubernetes cat <<EOF > /etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/ enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg EOF

3、安裝docker

#建立緩存 yum makecache fast#安裝依賴 yum install -y xfsprogs yum-utils device-mapper-persistent-data lvm2#安裝最新版本的docker yum install -y --setopt=obsoletes=0 docker-ce-18.06.1.ce-3.el7#可以使用以下命令查看docker版本 yum list docker-ce.x86_64 --showduplicates |sort -r#啟動docker systemctl start docker systemctl enable docker

?

4、在各節點安裝kubeadm、kubelet和kubectl

#安裝kubelet kubeadm kubectl yum install -y kubelet kubeadm kubectl

5、準備需要用到的鏡像

#因為kubeadm使用的鏡像源是k8s.gcr.io,但是網站已被墻。所以需要提前準備所需要的鏡像 #可以使用kubeadm 查看默認需要準備的鏡像。并且在此可以看到k8s.gcr.io是無法連接的[root@K8s-master ~]# kubeadm config images list I0116 10:11:34.091410 91268 version.go:94] could not fetch a Kubernetes version from the internet: unable to get URL "https://dl.k8s.io/release/stable-1.txt": Get https://dl.k8s.io/release/stable-1.txt: net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers) I0116 10:11:34.107299 91268 version.go:95] falling back to the local client version: v1.13.2 k8s.gcr.io/kube-apiserver:v1.13.2 k8s.gcr.io/kube-controller-manager:v1.13.2 k8s.gcr.io/kube-scheduler:v1.13.2 k8s.gcr.io/kube-proxy:v1.13.2 k8s.gcr.io/pause:3.1 k8s.gcr.io/etcd:3.2.24 k8s.gcr.io/coredns:1.2.6

根據提示,到docker hub 搜索到對應的鏡像后pull下來再tag標簽

kube-apiserver:v1.13.0?
kube-controller-manager:v1.13.0
kube-scheduler:v1.13.0
kube-proxy:v1.13.0
pause:3.1
etcd:3.2.24
coredns:1.2.6

?下載完后,tag標簽為k8s.gcr.io/***

如:

docker pull?mirrorgooglecontainers/kube-apiserver:v1.13.0

docker tag ?mirrorgooglecontainers/kube-apiserver:v1.13.0??k8s.gcr.io/kube-apiserver:v1.13.0?
?

[root@K8s-master ~]# docker images REPOSITORY TAG IMAGE ID CREATED SIZE k8s.gcr.io/kube-proxy v1.13.0 8fa56d18961f 6 weeks ago 80.2MB k8s.gcr.io/kube-apiserver v1.13.0 f1ff9b7e3d6e 6 weeks ago 181MB k8s.gcr.io/kube-controller-manager v1.13.0 d82530ead066 6 weeks ago 146MB k8s.gcr.io/kube-scheduler v1.13.0 9508b7d8008d 6 weeks ago 79.6MB k8s.gcr.io/coredns 1.2.6 f59dcacceff4 2 months ago 40MB k8s.gcr.io/etcd 3.2.24 3cab8e1b9802 3 months ago 220MB k8s.gcr.io/pause 3.1 da86e6ba6ca1 13 months ago 742kB

鏡像準備完畢,開始集群初始化

?

6、初始化集群

master 節點

6.1初始化您的主節點

主節點是集群里運行控制面的機器,包括 etcd (集群的數據庫)和 API 服務(kubectl CLI 與之交互)。

  • 選擇一個 Pod 網絡插件,并檢查是否在 kubeadm 初始化過程中需要傳入什么參數。這個取決于 您選擇的網絡插件,您可能需要設置?--Pod-network-cidr?來指定網絡驅動的 CIDR。請參閱安裝網絡插件。
  • (可選) 除非特別指定,kubeadm 會使用默認網關所在的網絡接口廣播其主節點的 IP 地址。若需使用其他網絡接口,請 給?kubeadm init?設置?--apiserver-advertise-address=<ip-address>?參數。如果需要部署 IPv6 的集群,則需要指定一個 IPv6 地址,比如?--apiserver-advertise-address=fd00::101
  • (可選) 在運行?kubeadm init?之前請先執行?kubeadm config images pull?來測試與 gcr.io 的連接。
  • -- 取自kubernetes官網??

    https://kubernetes.io/zh/docs/setup/independent/create-cluster-kubeadm/

    開始初始化

    #master 集群初始化 [root@K8s-master ~]# kubeadm init --kubernetes-version=v1.13.0 --pod-network-cidr=10.244.0.0/16 --apiserver-advertise-address=192.168.146.10 [init] Using Kubernetes version: v1.13.0 [preflight] Running pre-flight checks [preflight] Pulling images required for setting up a Kubernetes cluster [preflight] This might take a minute or two, depending on the speed of your internet connection [preflight] You can also perform this action in beforehand using 'kubeadm config images pull' [kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env" [kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml" [kubelet-start] Activating the kubelet service [certs] Using certificateDir folder "/etc/kubernetes/pki" [certs] Generating "etcd/ca" certificate and key [certs] Generating "etcd/server" certificate and key [certs] etcd/server serving cert is signed for DNS names [k8s-master localhost] and IPs [192.168.146.10 127.0.0.1 ::1] [certs] Generating "etcd/peer" certificate and key [certs] etcd/peer serving cert is signed for DNS names [k8s-master localhost] and IPs [192.168.146.10 127.0.0.1 ::1] [certs] Generating "etcd/healthcheck-client" certificate and key [certs] Generating "apiserver-etcd-client" certificate and key [certs] Generating "ca" certificate and key [certs] Generating "apiserver" certificate and key [certs] apiserver serving cert is signed for DNS names [k8s-master kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] and IPs [10.96.0.1 192.168.146.10] [certs] Generating "apiserver-kubelet-client" certificate and key [certs] Generating "front-proxy-ca" certificate and key [certs] Generating "front-proxy-client" certificate and key [certs] Generating "sa" key and public key [kubeconfig] Using kubeconfig folder "/etc/kubernetes" [kubeconfig] Writing "admin.conf" kubeconfig file [kubeconfig] Writing "kubelet.conf" kubeconfig file [kubeconfig] Writing "controller-manager.conf" kubeconfig file [kubeconfig] Writing "scheduler.conf" kubeconfig file [control-plane] Using manifest folder "/etc/kubernetes/manifests" [control-plane] Creating static Pod manifest for "kube-apiserver" [control-plane] Creating static Pod manifest for "kube-controller-manager" [control-plane] Creating static Pod manifest for "kube-scheduler" [etcd] Creating static Pod manifest for local etcd in "/etc/kubernetes/manifests" [wait-control-plane] Waiting for the kubelet to boot up the control plane as static Pods from directory "/etc/kubernetes/manifests". This can take up to 4m0s [kubelet-check] Initial timeout of 40s passed. [apiclient] All control plane components are healthy after 184.547282 seconds [uploadconfig] storing the configuration used in ConfigMap "kubeadm-config" in the "kube-system" Namespace [kubelet] Creating a ConfigMap "kubelet-config-1.13" in namespace kube-system with the configuration for the kubelets in the cluster [patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "k8s-master" as an annotation [mark-control-plane] Marking the node k8s-master as control-plane by adding the label "node-role.kubernetes.io/master=''" [mark-control-plane] Marking the node k8s-master as control-plane by adding the taints [node-role.kubernetes.io/master:NoSchedule] [bootstrap-token] Using token: fl099d.dxy00288pqxl2xj0 [bootstrap-token] Configuring bootstrap tokens, cluster-info ConfigMap, RBAC Roles [bootstraptoken] configured RBAC rules to allow Node Bootstrap tokens to post CSRs in order for nodes to get long term certificate credentials [bootstraptoken] configured RBAC rules to allow the csrapprover controller automatically approve CSRs from a Node Bootstrap Token [bootstraptoken] configured RBAC rules to allow certificate rotation for all node client certificates in the cluster [bootstraptoken] creating the "cluster-info" ConfigMap in the "kube-public" namespace [addons] Applied essential addon: CoreDNS [addons] Applied essential addon: kube-proxyYour Kubernetes master has initialized successfully!To start using your cluster, you need to run the following as a regular user:mkdir -p $HOME/.kubesudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/configsudo chown $(id -u):$(id -g) $HOME/.kube/configYou should now deploy a pod network to the cluster. Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:https://kubernetes.io/docs/concepts/cluster-administration/addons/You can now join any number of machines by running the following on each node as root:kubeadm join 192.168.146.10:6443 --token f0hxzt.q34cvw84otvdnca8 --discovery-token-ca-cert-hash sha256:76c15a976e3bd80c5cea54afeba0587682a131cfc5485cb28e980000102bd945

    kubeadm init --kubernetes-version=v1.13.0 --pod-network-cidr=10.244.0.0/16 --apiserver-advertise-address=192.168.146.10

    選擇flannel作為Pod網絡插件,所以指定–pod-network-cidr=10.244.0.0/16,API server 用來告知集群中其它成員的地址?

    ?

    6.2按提示配置常規用戶如何使用kubectl訪問集群

    ? mkdir -p $HOME/.kubesudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/configsudo chown $(id -u):$(id -g) $HOME/.kube/config

    6.3查看集群狀態

    [root@K8s-master ~/kubernetes]# kubectl get cs NAME ? ? ? ? ? ? ? ? STATUS ? ?MESSAGE ? ? ? ? ? ? ?ERROR scheduler ? ? ? ? ? ?Healthy ? ok ? ? ? ? ? ? ? ? ?? controller-manager ? Healthy ? ok ? ? ? ? ? ? ? ? ?? etcd-0 ? ? ? ? ? ? ? Healthy ? {"health": "true"} ??

    7、準備接下來用到的yml文件

  • kube-flannel.yml
  • kube-dashboard.yaml
  • dashboard-user-role.yaml
  • 使用git 拉取準備文件

    [root@K8s-master ~]# git clone https://github.com/Nedved-liao/kubernetes.1.30_CN 正克隆到 'kubernetes.1.30_CN'... remote: Enumerating objects: 23, done. remote: Counting objects: 100% (23/23), done. remote: Compressing objects: 100% (22/22), done. remote: Total 23 (delta 6), reused 0 (delta 0), pack-reused 0 Unpacking objects: 100% (23/23), done.[root@K8s-master ~]# ll kubernetes.1.30_CN/ 總用量 32 -rw-r--r--. 1 root root 515 1月 16 10:44 dashboard-user-role.yaml -rw-r--r--. 1 root root 4675 1月 16 10:44 kube-dashboard.yaml -rw-r--r--. 1 root root 10739 1月 16 10:44 kube-flannel.yml -rw-r--r--. 1 root root 276 1月 16 10:44 kubernetes.repo -rw-r--r--. 1 root root 490 1月 16 10:44 README.md

    8、安裝Pod Network

    #安裝flannel [root@K8s-master ~/kubernetes.1.30_CN]# kubectl create -f kube-flannel.yml clusterrole.rbac.authorization.k8s.io/flannel created clusterrolebinding.rbac.authorization.k8s.io/flannel created serviceaccount/flannel created configmap/kube-flannel-cfg created daemonset.extensions/kube-flannel-ds-amd64 created daemonset.extensions/kube-flannel-ds-arm64 created daemonset.extensions/kube-flannel-ds-arm created daemonset.extensions/kube-flannel-ds-ppc64le created daemonset.extensions/kube-flannel-ds-s390x created#粗略查看 [root@K8s-master ~/kubernetes]# kubectl get ds -l app=flannel -n kube-system NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE kube-flannel-ds-amd64 1 1 1 1 1 beta.kubernetes.io/arch=amd64 113m kube-flannel-ds-arm 0 0 0 0 0 beta.kubernetes.io/arch=arm 113m kube-flannel-ds-arm64 0 0 0 0 0 beta.kubernetes.io/arch=arm64 113m kube-flannel-ds-ppc64le 0 0 0 0 0 beta.kubernetes.io/arch=ppc64le 113m kube-flannel-ds-s390x 0 0 0 0 0 beta.kubernetes.io/arch=s390x 113m#確保結果無疑 [root@K8s-master ~/kubernetes]# kubectl get pod --all-namespaces -o wide NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES kube-system coredns-86c58d9df4-65nbv 1/1 Running 1 179m 10.244.0.4 k8s-master <none> <none> kube-system coredns-86c58d9df4-gnczd 1/1 Running 1 179m 10.244.0.5 k8s-master <none> <none> kube-system etcd-k8s-master 1/1 Running 1 178m 192.168.146.10 k8s-master <none> <none> kube-system kube-apiserver-k8s-master 1/1 Running 1 179m 192.168.146.10 k8s-master <none> <none> kube-system kube-controller-manager-k8s-master 1/1 Running 1 179m 192.168.146.10 k8s-master <none> <none> kube-system kube-flannel-ds-amd64-9x8mc 1/1 Running 0 113m 192.168.146.10 k8s-master <none> <none> kube-system kube-proxy-l9pgs 1/1 Running 1 179m 192.168.146.10 k8s-master <none> <none> kube-system kube-scheduler-k8s-master 1/1 Running 1 179m 192.168.146.10 k8s-master <none> <none> kube-system kubernetes-dashboard-6cb88fb59c-fccp4 1/1 Running 0 51m 10.244.0.7 k8s-master <none> <none>

    9、添加 Slave節點


    9.1、在兩個 Slave節點上分別執行jion

    如下命令來讓其加入Master上已經就緒了的 k8s集群:

    kubeadm join --token <token> <master-ip>:<master-port> --discovery-token-ca-cert-hash sha256:<hash>

    9.2、node1取于前面kubeadm init 生成的(node2省略)

    [root@K8s-node1 ~]# kubeadm join 192.168.146.10:6443 --token f0hxzt.q34cvw84otvdnca8 --discovery-token-ca-cert-hash sha256:76c15a976e3bd80c5cea54afeba0587682a131cfc5485cb28e980000102bd945 [preflight] Running pre-flight checks [discovery] Trying to connect to API Server "192.168.146.10:6443" [discovery] Created cluster-info discovery client, requesting info from "https://192.168.146.10:6443" [discovery] Requesting info from "https://192.168.146.10:6443" again to validate TLS against the pinned public key [discovery] Cluster info signature and contents are valid and TLS certificate validates against pinned roots, will use API Server "192.168.146.10:6443" [discovery] Successfully established connection with API Server "192.168.146.10:6443" [join] Reading configuration from the cluster... [join] FYI: You can look at this config file with 'kubectl -n kube-system get cm kubeadm-config -oyaml' [kubelet] Downloading configuration for the kubelet from the "kubelet-config-1.13" ConfigMap in the kube-system namespace [kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml" [kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env" [kubelet-start] Activating the kubelet service [tlsbootstrap] Waiting for the kubelet to perform the TLS Bootstrap... [patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "k8s-node1" as an annotationThis node has joined the cluster: * Certificate signing request was sent to apiserver and a response was received. * The Kubelet was informed of the new secure connection details.Run 'kubectl get nodes' on the master to see this node join the cluster.

    如果 token忘記,則可以去 Master上執行如下命令來獲取:

    [root@K8s-master ~/kubernetes.1.30_CN]# kubeadm token list TOKEN TTL EXPIRES USAGES DESCRIPTION EXTRA GROUPS f0hxzt.q34cvw84otvdnca8 23h 2019-01-17T11:16:24+08:00 authentication,signing The default bootstrap token generated by 'kubeadm init'. system:bootstrappers:kubeadm:default-node-token

    9.3、效果驗證


    ?查看節點狀態?

    [root@K8s-master ~/kubernetes.1.30_CN]# kubectl get no NAME STATUS ROLES AGE VERSION k8s-master Ready master 5m28s v1.13.1 k8s-node1 Ready <none> 107s v1.13.2 k8s-node2 Ready <none> 110s v1.13.2

    查看所有 Pod狀態?

    [root@K8s-master ~/kubernetes.1.30_CN]# kubectl get pods --all-namespaces -o wide NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES kube-system coredns-86c58d9df4-xrz2j 1/1 Running 0 5m26s 10.244.0.19 k8s-master <none> <none> kube-system coredns-86c58d9df4-z2lcj 1/1 Running 0 5m26s 10.244.0.18 k8s-master <none> <none> kube-system etcd-k8s-master 1/1 Running 0 4m53s 192.168.146.10 k8s-master <none> <none> kube-system kube-apiserver-k8s-master 1/1 Running 0 5m2s 192.168.146.10 k8s-master <none> <none> kube-system kube-controller-manager-k8s-master 1/1 Running 0 4m51s 192.168.146.10 k8s-master <none> <none> kube-system kube-flannel-ds-amd64-dwpcr 1/1 Running 0 4m9s 192.168.146.10 k8s-master <none> <none> kube-system kube-flannel-ds-amd64-h2tm9 1/1 Running 0 2m4s 192.168.146.20 k8s-node1 <none> <none> kube-system kube-flannel-ds-amd64-ssh2d 1/1 Running 0 2m7s 192.168.146.21 k8s-node2 <none> <none> kube-system kube-proxy-4lr8q 1/1 Running 0 5m26s 192.168.146.10 k8s-master <none> <none> kube-system kube-proxy-7b22t 1/1 Running 0 2m7s 192.168.146.21 k8s-node2 <none> <none> kube-system kube-proxy-j6qkx 1/1 Running 0 2m4s 192.168.146.20 k8s-node1 <none> <none> kube-system kube-scheduler-k8s-master 1/1 Running 0 4m58s 192.168.146.10 k8s-master <none> <none>

    10、安裝 dashboard


    就像給elasticsearch配一個可視化的管理工具一樣,我們最好也給 k8s集群配一個可視化的管理工具,便于管理集群。
    因此我們接下來安裝 v1.10.0版本的 kubernetes-dashboard,用于集群可視化的管理。

    10.1、創建

    [root@K8s-master ~/kubernetes.1.30_CN]# kubectl create -f kube-dashboard.yaml secret/kubernetes-dashboard-certs created serviceaccount/kubernetes-dashboard created role.rbac.authorization.k8s.io/kubernetes-dashboard-minimal created rolebinding.rbac.authorization.k8s.io/kubernetes-dashboard-minimal created deployment.apps/kubernetes-dashboard creat

    10.2、查看 dashboard的 pod是否正常啟動

    如果正常說明安裝成功:

    [root@K8s-master ~/kubernetes.1.30_CN]# kubectl get pods --namespace=kube-system NAME READY STATUS RESTARTS AGE coredns-86c58d9df4-xrz2j 1/1 Running 0 165m coredns-86c58d9df4-z2lcj 1/1 Running 0 165m etcd-k8s-master 1/1 Running 0 164m kube-apiserver-k8s-master 1/1 Running 0 164m kube-controller-manager-k8s-master 1/1 Running 0 164m kube-flannel-ds-amd64-dwpcr 1/1 Running 0 163m kube-flannel-ds-amd64-h2tm9 1/1 Running 0 161m kube-flannel-ds-amd64-ssh2d 1/1 Running 0 161m kube-proxy-4lr8q 1/1 Running 0 165m kube-proxy-7b22t 1/1 Running 0 161m kube-proxy-j6qkx 1/1 Running 0 161m kube-scheduler-k8s-master 1/1 Running 0 164m kubernetes-dashboard-98b7c88bb-lqggg 1/1 Running 0 150m

    10.3、查看 dashboard的外網暴露端口?

    [root@K8s-master ~/kubernetes.1.30_CN]# kubectl get service --namespace=kube-system NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE kube-dns ClusterIP 10.96.0.10 <none> 53/UDP,53/TCP 167m kubernetes-dashboard NodePort 10.106.23.70 <none> 443:31280/TCP 151m


    10.4、生成私鑰和證書簽名?

    [root@K8s-master ~/kubernetes.1.30_CN]# openssl genrsa -des3 -passout pass:x -out dashboard.pass.key 2048 Generating RSA private key, 2048 bit long modulus .....+++ .......................................................................................................................................................................................................................................................................................................+++ e is 65537 (0x10001)[root@K8s-master ~/kubernetes.1.30_CN]# openssl rsa -passin pass:x -in dashboard.pass.key -out dashboard.key writing RSA key[root@K8s-master ~/kubernetes.1.30_CN]# rm -f dashboard.pass.key#一路按回車即可 [root@K8s-master ~/kubernetes.1.30_CN]# openssl req -new -key dashboard.key -out dashboard.csr You are about to be asked to enter information that will be incorporated into your certificate request. What you are about to enter is what is called a Distinguished Name or a DN. There are quite a few fields but you can leave some blank For some fields there will be a default value, If you enter '.', the field will be left blank. ----- Country Name (2 letter code) [XX]: State or Province Name (full name) []: Locality Name (eg, city) [Default City]: Organization Name (eg, company) [Default Company Ltd]: Organizational Unit Name (eg, section) []: Common Name (eg, your name or your server's hostname) []: Email Address []:Please enter the following 'extra' attributes to be sent with your certificate request A challenge password []: An optional company name []:


    10.5、 生成SSL證書,并移動到 /etc/kubernetes/pki

    將生成的 dashboard.key 和 dashboard.crt置于路徑 /etc/kubernetes/pki下, 路徑在dashboard.yaml 里面已經定義好

    #生成證書 [root@K8s-master ~/kubernetes.1.30_CN]# openssl x509 -req -sha256 -days 365 -in dashboard.csr -signkey dashboard.key -out dashboard.crt Signature ok subject=/C=XX/L=Default City/O=Default Company Ltd Getting Private key#移動到/etc/kubernetes/pki [root@K8s-master ~/kubernetes.1.30_CN]# cp dashboard.c* /etc/kubernetes/pki/#確認移動 [root@K8s-master ~/kubernetes.1.30_CN]# ll /etc/kubernetes/pki/dashboard.* -rw-r--r--. 1 root root 1103 1月 16 14:08 /etc/kubernetes/pki/dashboard.crt -rw-r--r--. 1 root root 952 1月 16 14:08 /etc/kubernetes/pki/dashboard.csr

    10.6、創建 dashboard用戶?

    [root@K8s-master ~/kubernetes.1.30_CN]# kubectl create -f dashboard-user-role.yaml clusterrolebinding.rbac.authorization.k8s.io/admin created serviceaccount/admin created


    10.7、獲取登陸token?

    [root@K8s-master ~/kubernetes.1.30_CN]# kubectl describe secret/$(kubectl get secret -nkube-system |grep admin|awk '{print $1}') -nkube-system Name: admin-token-q6v79 Namespace: kube-system Labels: <none> Annotations: kubernetes.io/service-account.name: adminkubernetes.io/service-account.uid: 9ef5dbe7-1955-11e9-a360-000c29b4a7f7Type: kubernetes.io/service-account-tokenData ==== ca.crt: 1025 bytes namespace: 11 bytes token: eyJhbGciOiJSUzI1NiIsImtpZCI6IiJ9.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJrdWJlLXN5c3RlbSIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJhZG1pbi10b2tlbi1xNnY3OSIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VydmljZS1hY2NvdW50Lm5hbWUiOiJhZG1pbiIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VydmljZS1hY2NvdW50LnVpZCI6IjllZjVkYmU3LTE5NTUtMTFlOS1hMzYwLTAwMGMyOWI0YTdmNyIsInN1YiI6InN5c3RlbTpzZXJ2aWNlYWNjb3VudDprdWJlLXN5c3RlbTphZG1pbiJ9.BS93rVuy_61e5NKU20ZbXMybtr239tLgv9cmfL1knu9YZf66GBwQvERUtnHcYACt8vaD55RNLVk_9uHAKESSo0iJMv1-doKbAPZDrL-PT7XomrSgHleVzSyPHMixFRZVcQXpi5l1DcBC2QdNdfZL7h5SAnrs2NFuoGRv5IQXMMnlRVvbWFhBXIbVqRU7lEJo7VXglOYFjNPOC8JkTxxk2GsWJmp1zT-8ZRpajhfhe9VFxi-JLcKgMgv4d5IYGXr1CGcwMIChJz7jnPg7itSTpyYLGGTinZx0HhBivMw9hRm6RqAQgsr4g9sgGCeBRrFcZMbjKsvaQ3dnb7Dnupyyag

    訪問https://IP:port ??
    port 在dashboard.yaml 中的nodeport定義

    10.8、訪問UI頁面

    查看暴露端口

    [root@K8s-master ~/kubernetes.1.30_CN]# kubectl get svc --all-namespaces NAMESPACE NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE default kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 5h27m kube-system kube-dns ClusterIP 10.96.0.10 <none> 53/UDP,53/TCP 5h27m kube-system kubernetes-dashboard NodePort 10.106.23.70 <none> 443:31280/TCP 5h12m

    如上所示,Dashboard已經在31280端口上公開,現在可以在外部使用https://<cluster-ip>:31280進行訪問。

    需要注意的是,在多節點的集群中,必須找到運行Dashboard節點的IP來訪問,而不是Master節點的IP

    MatserIP為192.168.146.10,ClusterIP為192.168.146.20,192.168.146.21

    直接訪問master 的可能會出現如下?:

    ?

    我們使用kubectl describe 來看下實際上是哪個node在運行dashboard

    [root@K8s-master ~/kubernetes.1.30_CN]# kubectl describe po kubernetes-dashboard-98b7c88bb-lqggg -n kube-system Name: kubernetes-dashboard-98b7c88bb-lqggg Namespace: kube-system Priority: 0 PriorityClassName: <none> Node: k8s-node2/192.168.146.21 Start Time: Wed, 16 Jan 2019 11:31:42 +0800 Labels: k8s-app=kubernetes-dashboardpod-template-hash=98b7c88bb Annotations: <none> Status: Running IP: 10.244.1.2 Controlled By: ReplicaSet/kubernetes-dashboard-98b7c88bb Containers:kubernetes-dashboard:Container ID: docker://4fe074b5a90e86bcdb1d055d26204523c0cd72ecd5502af5a805d992ff77436fImage: mirrorgooglecontainers/kubernetes-dashboard-amd64:v1.10.0Image ID: docker-pullable://mirrorgooglecontainers/kubernetes-dashboard-amd64@sha256:e4b764fa9df0a30c467e7cec000920ea69dcc2ba8a9d0469ffbf1881a9614270Port: 8443/TCPHost Port: 0/TCPArgs:--auto-generate-certificates--token-ttl=5400State: RunningStarted: Wed, 16 Jan 2019 11:35:47 +0800Ready: TrueRestart Count: 0Liveness: http-get https://:8443/ delay=30s timeout=30s period=10s #success=1 #failure=3Environment: <none>Mounts:/certs from kubernetes-dashboard-certs (rw)/tmp from tmp-volume (rw)/var/run/secrets/kubernetes.io/serviceaccount from kubernetes-dashboard-token-zm8rg (ro) Conditions:Type StatusInitialized True Ready True ContainersReady True PodScheduled True Volumes:kubernetes-dashboard-certs:Type: HostPath (bare host directory volume)Path: /etc/kubernetes/pkiHostPathType: Directorytmp-volume:Type: EmptyDir (a temporary directory that shares a pod's lifetime)Medium: kubernetes-dashboard-token-zm8rg:Type: Secret (a volume populated by a Secret)SecretName: kubernetes-dashboard-token-zm8rgOptional: false QoS Class: BestEffort Node-Selectors: <none> Tolerations: node-role.kubernetes.io/master:NoSchedulenode.kubernetes.io/not-ready:NoExecute for 300snode.kubernetes.io/unreachable:NoExecute for 300s Events: <none>

    可以看到實際上是node2在運行

    我們再用node2的ip訪問,此時就看到久違的頁面了

    選擇令牌。把10.7步驟中找到的token粘貼進去,登錄dashboard

    由于在正式環境中,并不推薦使用NodePort的方式來訪問Dashboard

    ?

    11、集成Heapster

    Heapster是容器集群監控和性能分析工具,天然的支持Kubernetes和CoreOS。

    11.1、準備相應的yaml文件

    Heapster支持多種儲存方式,

  • heapster
  • influxdb
  • grafana
  • Git clone

    git clone https://github.com/Nedved-liao/kubernetes.1.30_CN/tree/master/heapster

    官方 GitHub??

    https://github.com/kubernetes-retired/heapster?

    個人修改后GitHub

    使用默認的yaml文件,? ?創建的pod日志一直報錯如下:

    E1028 07:39:05.011439 1 manager.go:101] Error in scraping containers from Kubelet:XX.XX.XX.XX:10255: failed to get all container stats from Kubelet URL "http://XX.XX.XX.XX:10255/stats/container/": Post http://XX.XX.XX.XX:10255/stats/container/: dial tcp XX.XX.XX.XX:10255:getsockopt: connection refused

    經過googling后

    https://brookbach.com/2018/10/29/Heapster-on-Kubernetes-1.11.3.html

    參照里面的解析修改了部分官方給出的內容

    heapster.yaml

    - --source=kubernetes:https://kubernetes.default?

    - --source=kubernetes.summary_api:''?useServiceAccount=true&kubeletHttps=true&kubeletPort=10250&insecure=true

    name: system:heapster

    name: heapster

    #并把k8s.gcr.io修改為國內鏡像。

    并新增了?heapster-role.yaml

    apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata:name: heapster rules: - apiGroups:- ""resources:- pods- nodes- namespacesverbs:- get- list- watch - apiGroups:- extensionsresources:- deploymentsverbs:- get- list- update- watch - apiGroups:- ""resources:- nodes/statsverbs:- get

    11.2、創建Pod

    [root@K8s-master ~/kubernetes.1.30_CN/heapster]# ll 總用量 20 -rw-r--r-- 1 root root 2353 5月 1 2018 grafana.yaml -rw-r--r-- 1 root root 269 1月 23 14:46 heapster-rbac.yaml -rw-r--r-- 1 root root 368 1月 23 14:47 heapster-role.yaml -rw-r--r-- 1 root root 1214 1月 23 14:45 heapster.yaml -rw-r--r-- 1 root root 1005 5月 1 2018 influxdb.yaml [root@K8s-master ~/kubernetes.1.30_CN/heapster]# kubectl create -f .

    11.3、驗證結果

    稍等后,查看一下Pod的狀態處于running:

    [root@K8s-master ~/kubernetes.1.30_CN/heapster]# kubectl -n kube-system get po NAME READY STATUS RESTARTS AGE coredns-86c58d9df4-xrz2j 1/1 Running 8 7d4h coredns-86c58d9df4-z2lcj 1/1 Running 8 7d4h etcd-k8s-master 1/1 Running 3 7d4h heapster-7c46fbf7cf-sffcg 1/1 Running 0 69m kube-apiserver-k8s-master 1/1 Running 11 7d4h kube-controller-manager-k8s-master 1/1 Running 14 7d4h kube-flannel-ds-amd64-dwpcr 1/1 Running 12 7d4h kube-flannel-ds-amd64-h2tm9 1/1 Running 10 7d4h kube-flannel-ds-amd64-ssh2d 1/1 Running 10 7d4h kube-proxy-4lr8q 1/1 Running 3 7d4h kube-proxy-7b22t 1/1 Running 2 7d4h kube-proxy-j6qkx 1/1 Running 2 7d4h kube-scheduler-k8s-master 1/1 Running 15 7d4h kubernetes-dashboard-98b7c88bb-2fzlw 1/1 Running 0 20h monitoring-grafana-5f5c6c4c4b-zmhkf 1/1 Running 0 69m monitoring-influxdb-68df588786-zz9h5 1/1 Running 0 69m

    再查看日志,確保沒有問題

    #查看heapster的日志,若有報錯進行相對應的修復。influxdb,grafana日志此處省略 [root@K8s-master ~/kubernetes.1.30_CN/heapster]# kubectl -n kube-system logs --tail=200 heapster-7c46fbf7cf-sffcg I0123 06:50:51.635860 1 heapster.go:72] /heapster --source=kubernetes.summary_api:''?useServiceAccount=true&kubeletHttps=true&kubeletPort=10250&insecure=true --sink=influxdb:http://monitoring-influxdb.kube-system.svc:8086 I0123 06:50:51.636028 1 heapster.go:73] Heapster version v1.4.2 I0123 06:50:51.637662 1 configs.go:61] Using Kubernetes client with master "https://10.96.0.1:443" and version v1 I0123 06:50:51.637859 1 configs.go:62] Using kubelet port 10250 I0123 06:50:52.102425 1 influxdb.go:278] created influxdb sink with options: host:monitoring-influxdb.kube-system.svc:8086 user:root db:k8s I0123 06:50:52.103093 1 heapster.go:196] Starting with InfluxDB Sink I0123 06:50:52.103158 1 heapster.go:196] Starting with Metric Sink I0123 06:50:53.072648 1 heapster.go:106] Starting heapster on port 8082 I0123 06:51:12.521512 1 influxdb.go:241] Created database "k8s" on influxDB server at "monitoring-influxdb.kube-system.svc:8086"

    確認無誤后,刷新瀏覽器,查看到cpu使用率證明部署成功

    ?

    ?

    12、集群拆卸?

    12.1、拆卸集群

    首先處理各節點:

    kubectl drain <node name> --delete-local-data --force --ignore-daemonsets
    kubectl delete node <node name>

    一旦節點移除之后,則可以執行如下命令來重置集群:
    kubeadm reset

    12.2、master處理節點

    [root@K8s-master ~]# kubectl drain k8s-node1 --delete-local-data --force --ignore-daemonsets node/k8s-node1 cordoned WARNING: Ignoring DaemonSet-managed pods: kube-flannel-ds-amd64-r2qnb, kube-proxy-cvbbf node/k8s-node1 drained [root@K8s-master ~]# kubectl delete node k8s-node1 node "k8s-node1" deleted

    12.3節點重置(node2省略)

    [root@K8s-node1 ~]# kubeadm reset [reset] WARNING: changes made to this host by 'kubeadm init' or 'kubeadm join' will be reverted. [reset] are you sure you want to proceed? [y/N]: y [preflight] running pre-flight checks [reset] no etcd config found. Assuming external etcd [reset] please manually reset etcd to prevent further issues [reset] stopping the kubelet service [reset] unmounting mounted directories in "/var/lib/kubelet" [reset] deleting contents of stateful directories: [/var/lib/kubelet /etc/cni/net.d /var/lib/dockershim /var/run/kubernetes] [reset] deleting contents of config directories: [/etc/kubernetes/manifests /etc/kubernetes/pki] [reset] deleting files: [/etc/kubernetes/admin.conf /etc/kubernetes/kubelet.conf /etc/kubernetes/bootstrap-kubelet.conf /etc/kubernetes/controller-manager.conf /etc/kubernetes/scheduler.conf]The reset process does not reset or clean up iptables rules or IPVS tables. If you wish to reset iptables, you must do so manually. For example: iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -XIf your cluster was setup to utilize IPVS, run ipvsadm --clear (or similar) to reset your system's IPVS tables.[root@K8s-node1 ~]# iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X

    12.4、master重置

    ?

    [root@K8s-master ~]# kubeadm reset [reset] WARNING: changes made to this host by 'kubeadm init' or 'kubeadm join' will be reverted. [reset] are you sure you want to proceed? [y/N]: y [preflight] running pre-flight checks [reset] no etcd config found. Assuming external etcd [reset] please manually reset etcd to prevent further issues [reset] stopping the kubelet service [reset] unmounting mounted directories in "/var/lib/kubelet" [reset] deleting contents of stateful directories: [/var/lib/kubelet /etc/cni/net.d /var/lib/dockershim /var/run/kubernetes] [reset] deleting contents of config directories: [/etc/kubernetes/manifests /etc/kubernetes/pki] [reset] deleting files: [/etc/kubernetes/admin.conf /etc/kubernetes/kubelet.conf /etc/kubernetes/bootstrap-kubelet.conf /etc/kubernetes/controller-manager.conf /etc/kubernetes/scheduler.conf]The reset process does not reset or clean up iptables rules or IPVS tables. If you wish to reset iptables, you must do so manually. For example: iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X [root@K8s-master ~]# iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X

    ?

    ?

    ?

    ?

    ?

    ?

    ?

    ?

    ?

    ?

    ?

    ?


    ?

    轉載于:https://www.cnblogs.com/Nedved/p/10472417.html

    總結

    以上是生活随笔為你收集整理的kubernetes1.30集群部署+dashboard+heapster的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    91精品久久久久久久99蜜桃 | 欧美日韩国产一区二区三区在线观看 | 精品国产黄色片 | 91热爆在线观看 | 中文字幕亚洲精品在线观看 | 国产精品av免费在线观看 | 国产91精品一区二区麻豆网站 | 成人久久久精品国产乱码一区二区 | 色先锋av资源中文字幕 | 日本精品视频在线播放 | 免费在线黄网 | 69精品视频 | 69人人| 综合天天色| 美女黄久久 | 日韩精品一区二区三区三炮视频 | 激情校园亚洲 | 婷婷色网址 | 亚洲精品99久久久久久 | 操碰av| 天天插狠狠干 | 国产护士av | 91在线免费视频观看 | 香蕉精品在线观看 | 超级碰视频 | 在线播放国产精品 | 性色av一区二区三区在线观看 | 天天曰夜夜操 | 成片免费观看视频 | 在线观看中文字幕亚洲 | 国产精品国产亚洲精品看不卡 | 免费久久久久久久 | 久久久久五月天 | 久久国产网 | 97精品国产手机 | 日韩欧美视频在线免费观看 | 久久久久久福利 | 国产精品美女网站 | 国产只有精品 | 日韩电影一区二区在线观看 | 九九在线播放 | 欧美视频在线二区 | 国产在线专区 | 国产免费av一区二区三区 | 久久久亚洲精华液 | 色婷婷国产精品一区在线观看 | 国产精品久久网站 | 性色在线视频 | 国产 欧美 日产久久 | 国产香蕉av | 日日夜夜精品视频天天综合网 | 中国一级特黄毛片大片久久 | 波多野结衣亚洲一区二区 | 99在线视频播放 | 天天爽人人爽夜夜爽 | 日本三级人妇 | 狠狠干狠狠艹 | 久亚洲精品 | 久草在线在线视频 | 97超级碰碰 | 精品久久久久久电影 | 五月激情片| www.黄色片网站 | 日日操天天操狠狠操 | 黄色tv视频| av一本久道久久波多野结衣 | 欧美肥妇free | 国产三级午夜理伦三级 | 九九在线视频 | 91精品一区二区三区蜜臀 | 伊人婷婷久久 | 波多野结衣最新 | 精品视频免费久久久看 | 精品一区免费 | 久久久蜜桃 | 午夜国产影院 | 在线免费视频一区 | 蜜桃视频成人在线观看 | 亚洲精品在线观 | 欧美精品日韩 | 久久久99精品免费观看app | 中国一级片在线 | 在线色亚洲 | 精品96久久久久久中文字幕无 | 玖玖玖国产精品 | 天天操比 | 国产97在线播放 | 91精选在线观看 | 亚洲三级性片 | 丝袜足交在线 | 婷婷视频在线 | 91最新视频在线观看 | 一级大片在线观看 | 不卡视频国产 | 婷婷六月天天 | 97电影在线看视频 | 国产a精品 | www.色爱 | av一级在线 | 国产精品九九九九九 | 欧美久久综合 | 精品国内 | 中文字幕你懂的 | 五月婷婷电影网 | 天天爱av导航 | 精品国产精品久久 | 国产一级免费在线观看 | 亚洲精品国产精品国自产观看浪潮 | 黄色毛片视频 | 久久久久久久看片 | 97精品国产97久久久久久免费 | 久草在线精品观看 | 日韩久久影院 | 国产一区网址 | 国产婷婷色 | 亚洲性少妇性猛交wwww乱大交 | 国产v在线播放 | 久久黄色网页 | 五月在线 | 久草久 | 国产精品网红直播 | 国产黄a三级三级三级三级三级 | 日韩电影中文,亚洲精品乱码 | 日本精品久久久久影院 | 在线观看国产高清视频 | 免费福利在线视频 | 亚洲a网| 亚洲视频观看 | 中文字幕在线视频一区二区三区 | 成人免费在线电影 | 香蕉日日 | 天天艹天天爽 | 午夜私人影院久久久久 | 欧美热久久 | 99中文视频在线 | 日本aa在线 | 一本一本久久a久久精品综合妖精 | av免费看看 | 中文字幕在线观看亚洲 | 91c网站色版视频 | 亚洲永久国产精品 | 中文字幕视频一区 | 欧美日韩高清在线一区 | 欧美日韩性视频在线 | 日韩a级黄色 | 免费一区在线 | 中文av网站 | 久久久国产精品人人片99精片欧美一 | 国际精品久久久久 | 在线 影视 一区 | 日韩电影中文字幕 | 久久精品国产一区二区 | 成人va在线观看 | 黄影院| 国产精品网红直播 | 日韩一级电影在线观看 | 久一久久 | 久久免费久久 | 久久免费视频在线 | 欧美日韩免费网站 | 久艹在线观看视频 | 欧美aa一级| 三级视频日韩 | 国产精品99久久免费黑人 | 久草在线免 | 久久九九影院 | 六月丁香激情综合色啪小说 | 免费一级片在线 | 九九免费精品视频在线观看 | 在线国产精品一区 | 九九免费在线观看视频 | 麻豆91网站 | 亚洲精品视频免费看 | 西西大胆免费视频 | 久久国产精品免费视频 | 亚洲免费永久精品国产 | 超碰国产人人 | 天天爽天天爽夜夜爽 | 婷婷六月综合网 | 手机看片 | 久久爱影视i| 日日夜夜天天综合 | 国产精品久久久久毛片大屁完整版 | 激情网第四色 | 18网站在线观看 | 欧美日韩精品二区第二页 | 最近日本mv字幕免费观看 | 亚洲成人一二三 | 91亚洲综合 | 黄色av成人在线 | 日韩中文字幕电影 | 中文日韩在线视频 | 国产专区一 | 免费男女羞羞的视频网站中文字幕 | 在线观看免费版高清版 | 久久综合国产伦精品免费 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 国产精品伦一区二区三区视频 | 一本色道久久综合亚洲二区三区 | 日韩欧美在线第一页 | 精品国产精品国产偷麻豆 | 91av中文字幕 | 久久午夜网 | 久久久久久久99精品免费观看 | 91精品在线视频观看 | av免费观看高清 | 精品久久免费看 | 久草资源在线 | www.久久精品视频 | 九九在线精品视频 | 国产小视频在线看 | 日日干综合 | av先锋影音少妇 | 91在线网址 | 日韩在线免费视频观看 | 久久一区二区三区国产精品 | 欧美大片在线观看一区 | 美女视频黄在线 | 国产午夜三级一区二区三桃花影视 | 免费在线观看不卡av | 国产九九热 | 久久99视频免费观看 | 欧美一区二区在线免费看 | 国产精品久久久久久麻豆一区 | 国产黄a三级| 亚洲午夜精品一区二区三区电影院 | 亚洲午夜电影网 | 91大神电影 | 亚洲一区欧美精品 | 国产资源网 | 午夜在线看片 | 亚洲一二三在线 | 国产精品视频久久 | 免费在线观看的av网站 | 欧美日韩在线播放一区 | 亚洲精品视频在线播放 | 国产在线播放观看 | 国产精品一区二区久久精品爱微奶 | 亚洲日韩中文字幕 | 国产日韩在线看 | 国产视频1| 国产久草在线 | 国产中文在线播放 | 欧美精品乱码久久久久久按摩 | 国产96精品 | 精品国产乱码久久久久久1区2匹 | 日韩欧美精品在线观看 | 精品国产久| 国产精品一区二区三区在线 | 色婷五月 | 一区二区中文字幕在线播放 | 黄色的网站在线 | 日本少妇视频 | 国产精品久久艹 | 国产精品一区二区三区久久久 | 免费一级特黄录像 | 久草在线久草在线2 | 色在线网站 | 丰满少妇高潮在线观看 | 国产精品第二页 | 久久免费视频这里只有精品 | 久久理论电影 | 国产成人精品一二三区 | 精品在线视频一区 | 西西人体4444www高清视频 | 久久精品www人人爽人人 | a√天堂中文在线 | 久久91久久久久麻豆精品 | 久久久久亚洲天堂 | 国内精品久久影院 | 五月天堂色 | 91麻豆看国产在线紧急地址 | 国产久草在线观看 | 99久久精品国产欧美主题曲 | 成人精品久久久 | 精品免费视频. | 日本在线成人 | 午夜精品一区二区三区免费视频 | 日韩av网站在线播放 | 色 中文字幕| 国产探花在线看 | 天天色天天草天天射 | 中文字幕在线第一页 | 天天草av | 91大神精品视频在线观看 | 麻豆影视网站 | 日韩视频三区 | 国产精品久久久久久久久久不蜜月 | 在线超碰av | 国产精品va在线观看入 | 国产这里只有精品 | 最新日本中文字幕 | 中文字幕视频在线播放 | 日韩av一区二区在线影视 | 欧美亚洲国产一卡 | 在线导航av | 免费看的黄网站软件 | 天天爱天天插 | 午夜精品久久久久99热app | 久久久久高清 | 中文字幕在线观看日本 | 中文字幕日本电影 | 麻豆播放 | 91看片看淫黄大片 | 精品免费久久久久久 | 久av在线 | 在线观看久 | 国产一级免费在线观看 | 欧美另类重口 | 亚洲一级片| 国产一区二区电影在线观看 | 免费看亚洲毛片 | 国产在线视频一区二区三区 | 波多野结衣视频一区 | 在线 视频 亚洲 | 深爱激情五月综合 | 高清av在线免费观看 | 国产大片免费久久 | 成人h动漫精品一区二 | 91九色蝌蚪视频 | 丁香视频免费观看 | 最近中文字幕免费观看 | 超碰在线人人爱 | 免费观看一级视频 | 亚洲综合色丁香婷婷六月图片 | 91丨九色丨高潮丰满 | 午夜美女影院 | 日韩午夜一级片 | 毛片久久久 | 国产亚洲精品美女久久 | 国产女人40精品一区毛片视频 | 亚洲精品一区二区在线观看 | 久久精品99国产精品亚洲最刺激 | 黄色网在线播放 | 一区二区三区国产精品 | 日韩欧美视频在线播放 | 久久久免费在线观看 | 国产精品福利无圣光在线一区 | 6080yy精品一区二区三区 | 精品电影一区二区 | 国产精品美女免费视频 | 在线观看免费视频 | 国产一级片网站 | 久久高清免费视频 | 日韩av视屏| 色视频在线观看 | 69国产精品视频 | 日日夜夜91 | 久久99精品久久久久久久久久久久 | 欧美a级在线免费观看 | 99这里只有| 黄色成人影视 | 激情在线免费视频 | 久久久久久久久久网 | 欧美精品一区在线 | 日韩理论在线观看 | 亚洲天堂自拍视频 | 久久久久久国产精品美女 | 欧美激情精品久久久久久免费 | 日韩乱码在线 | 欧美一区二区三区免费观看 | 美女久久一区 | 国产麻豆精品一区 | 97av在线 | 亚洲日日夜夜 | 婷婷丁香导航 | 日韩在线电影观看 | 91视频3p| 免费视频一区二区 | 波多野结衣电影一区 | 91精品福利在线 | 午夜体验区 | 麻豆精品视频在线 | 久久黄色免费 | 人人爽人人搞 | 国产资源在线播放 | 麻豆精品视频 | 久久久久亚洲精品中文字幕 | 久久免费毛片视频 | 91精品免费在线 | 日韩在线 | 狠狠色丁香九九婷婷综合五月 | 在线导航福利 | 免费久久片 | 久久精品美女视频 | 亚洲欧美一区二区三区孕妇写真 | 亚洲精品88欧美一区二区 | 欧美特一级 | 一区二区三区四区不卡 | 欧美极品在线播放 | 欧美日韩国产综合一区二区 | 在线观看av免费 | 天天骚夜夜操 | 亚洲视频一 | 欧美日本不卡 | 一区电影 | 免费在线观看不卡av | 992tv人人网tv亚洲精品 | av片在线看 | 久久手机精品视频 | 亚洲激情 欧美激情 | 精品国产三级 | 久久久久| 欧美做受xxx | 在线观看午夜av | 激情图片qvod| 精品女同一区二区三区在线观看 | 成人久久18免费 | 久久伊99综合婷婷久久伊 | 亚洲乱亚洲乱妇 | 亚州性色 | 在线不卡a | 在线观看免费视频你懂的 | 日韩av专区 | 在线小视频你懂得 | 中文字幕在线乱 | 国产香蕉视频 | 91精品国产福利在线观看 | 天天色天天射天天综合网 | 99精品视频在线观看视频 | 国产专区在线 | 成人精品一区二区三区电影免费 | 国产手机视频在线 | 黄色软件网站在线观看 | 草免费视频 | 99国产成+人+综合+亚洲 欧美 | av免费网 | 国产做aⅴ在线视频播放 | 中文字幕在线播放视频 | 国产亚洲视频中文字幕视频 | 制服丝袜成人在线 | 在线观看精品一区 | 国产精品观看在线亚洲人成网 | 中文字幕资源在线 | 久久免费视频8 | av导航福利| 97精品超碰一区二区三区 | www.com操| 91禁看片| 久久免费精彩视频 | 国产免费资源 | av电影在线不卡 | 日韩电影在线观看一区 | 天天做天天爱天天综合网 | 亚洲精品成人av在线 | 91成人精品观看 | 久久精品牌麻豆国产大山 | zzijzzij亚洲成熟少妇 | 亚洲 欧美 另类人妖 | 超碰国产在线 | 免费高清在线视频一区· | 久草久| 国产精品亚洲精品 | 久久精品日韩 | 亚洲精品久久久久999中文字幕 | 在线色亚洲 | 国产一区二区精品在线 | 人人干狠狠操 | 在线 国产一区 | 日韩在线视频观看免费 | 黄污网 | 国产91区| 日韩乱色精品一区二区 | 免费看的视频 | 天天操天天射天天添 | 久草电影在线观看 | 日韩高清观看 | 激情黄色一级片 | 日韩精品中文字幕在线观看 | 欧美成人69av | 欧美最猛性xxxxx免费 | 91热视频在线观看 | www色网站| 亚洲美女在线一区 | 日韩在线观看视频中文字幕 | 午夜久久久久久久 | 国产黑丝一区二区 | 91黄站| 亚洲一级片免费观看 | 在线观看涩涩 | 精品国产区 | 99精品在线观看 | 在线国产小视频 | 国产1区2区3区在线 亚洲自拍偷拍色图 | 国产人在线成免费视频 | 91网页版免费观看 | av中文字幕剧情 | 久久久国产99久久国产一 | 亚洲精品乱码久久久久久写真 | 亚洲久草视频 | 亚洲成a人片综合在线 | 在线观看日韩中文字幕 | 免费在线观看91 | 亚洲人成影院在线 | 国产精品综合在线 | 国产一区在线免费观看视频 | 91亚洲成人 | av资源在线观看 | 免费看精品久久片 | 国产色一区| 99视频精品免费观看, | 黄色网址在线播放 | 99免费| 久久免费视频3 | 国产成人333kkk | 99热国内精品 | 黄色成人av | 成人在线中文字幕 | 免费又黄又爽的视频 | 亚洲黄色在线免费观看 | 欧美一级高清片 | 极品美女被弄高潮视频网站 | 久久久精品在线观看 | 久久久久久久久久久网站 | 亚洲另类视频 | 国产成人久久77777精品 | 日韩高清观看 | 激情综合一区 | 国产在线a | 国产精品门事件 | 久久久免费看片 | 亚洲视频专区在线 | 1区2区3区在线观看 三级动图 | 一级黄色在线视频 | 亚洲另类久久 | 深爱激情婷婷网 | 国产精品久久久久四虎 | 一区二区三区精品在线视频 | 欧美精品乱码久久久久久按摩 | 美女久久久久久久久久久 | 久草视频在| 精品国产电影一区 | 黄网站免费大全入口 | 成人小视频在线 | 久久综合色一综合色88 | 欧美 亚洲 另类 激情 另类 | 丁香五月亚洲综合在线 | 久草com | 波多野结衣在线视频一区 | 一区 在线观看 | 最近更新的中文字幕 | 又黄又爽又无遮挡免费的网站 | 日韩www在线 | 免费在线观看黄色网 | 日韩美av在线 | 美女黄网久久 | 精品视频久久 | 欧美精品一区二区在线播放 | 国产精品21区 | 国产精久久久久久妇女av | 久久看免费视频 | 国产又粗又硬又爽视频 | 中文字幕91 | 日批在线观看 | 亚洲成av人片在线观看www | 亚洲精品视频一二三 | 婷婷精品在线视频 | 免费观看第二部31集 | 久久综合五月天婷婷伊人 | 青青河边草免费观看完整版高清 | 欧美综合久久久 | 日本69hd| 色婷婷狠狠五月综合天色拍 | 久久精品一二三 | 婷婷网站天天婷婷网站 | 精品国产一区二区三区在线观看 | 亚洲一级二级 | 久久爱992xxoo | 亚洲综合一区二区精品导航 | 成人xxxx| 国产精品毛片久久久久久久久久99999999 | www.久艹 | 香蕉成人在线视频 | 又爽又黄又刺激的视频 | 操久久免费视频 | 亚洲国产av精品毛片鲁大师 | 人人爽夜夜爽 | 久久99精品国产一区二区三区 | 97在线播放视频 | 97狠狠干 | 久草在线中文视频 | 国内成人综合 | 成人观看 | 色噜噜日韩精品欧美一区二区 | 波多野结衣一区二区三区中文字幕 | 一区二区三区四区五区在线 | 99热国内精品 | 成人性生交大片免费观看网站 | 亚洲国产精品激情在线观看 | 日韩精品 在线视频 | 在线播放 一区 | 亚洲a网 | 波多野结衣一区二区三区中文字幕 | 丁香国产视频 | 国产免费xvideos视频入口 | 天天拍夜夜拍 | 国产精品久久视频 | 亚洲国产精品久久久久久 | 99国产情侣在线播放 | 国产视频在线免费 | 久久人人97超碰国产公开结果 | 国产1区2区3区精品美女 | 五月婷婷六月丁香在线观看 | 一级黄视频 | 少妇bbb搡bbbb搡bbbb | www久久com| 久久午夜国产精品 | 美女视频黄免费的 | 99精品视频在线 | 一区二区伦理电影 | 国产精品久久久久久久久搜平片 | 香蕉久久久久 | 日日夜操 | 一区在线观看 | 国产精品自在欧美一区 | 在线婷婷 | 在线有码中文字幕 | 国产精品理论视频 | 狠狠干我 | 五月丁色 | 日本三级香港三级人妇99 | 国产一级二级三级在线观看 | 欧美国产不卡 | 操操操操网 | 日批视频国产 | av片中文| 日韩视频一区二区三区 | 狠狠狠色 | 又黄又爽又无遮挡的视频 | 国产资源在线免费观看 | 蜜臀av性久久久久av蜜臀妖精 | 在线看日韩 | 精品日韩在线一区 | 中文字幕一区二区三区四区久久 | 国内精品久久久久久中文字幕 | 亚洲成av人片在线观看香蕉 | 激情黄色av | 五月天综合激情 | 久久久久久久久久久久亚洲 | 久久在线免费观看 | 日韩免费观看一区二区三区 | 一区二区三区在线看 | 999国产| 成人欧美一区二区三区在线观看 | 国产精品一区二区久久国产 | 色姑娘综合天天 | 人人揉人人揉人人揉人人揉97 | 欧美日韩国产一区二 | 国产精品亚洲精品 | 国产免费大片 | 国内久久久久久 | 9色在线视频| 亚洲天堂在线观看完整版 | 亚州精品天堂中文字幕 | 成av在线| 欧美成人aa | 色婷婷综合在线 | 天天草天天干天天射 | www色网站| 在线电影a| 五月婷婷影院 | 黄色录像av | 永久黄网站色视频免费观看w | a级免费观看 | 少妇性色午夜淫片aaaze | 国产精品高清一区二区三区 | 精品一区电影 | 999免费视频| 国产视频资源在线观看 | 人人爽人人爽人人爽学生一级 | 中午字幕在线观看 | 久久成人久久 | 日本在线观看视频一区 | 丁香婷婷深情五月亚洲 | 狠狠干婷婷色 | 黄av资源| 久久麻豆视频 | 国产视频精品免费播放 | 免费三级a | 欧美极品xxxx | 六月婷婷久香在线视频 | 日韩福利在线观看 | 五月的婷婷 | 18国产精品福利片久久婷 | 天天干天天摸天天操 | 777xxx欧美| 99久久这里有精品 | 久久综合久久久久88 | 蜜臀aⅴ精品一区二区三区 久久视屏网 | 国际精品久久久久 | 国产精品中文字幕av | 欧美日本国产在线观看 | 久久免费视频在线观看 | 六月丁香激情综合色啪小说 | 久久久一本精品99久久精品 | 能在线看的av | 91看片淫黄大片一级在线观看 | 久久精品电影 | 婷婷丁香花五月天 | 四虎影视欧美 | 日本爱爱片 | 91新人在线观看 | 久久人91精品久久久久久不卡 | 国产传媒一区在线 | 成人午夜毛片 | 在线观看91精品视频 | 国产精品久久久久久久久岛 | 久久久免费看视频 | 婷婷视频导航 | 国产最顶级的黄色片在线免费观看 | 国产精品高潮在线观看 | 国产午夜精品久久久久久久久久 | 99视频国产精品 | 久久精品久久99精品久久 | 久久一区91 | 久久福利精品 | 国内小视频 | 国产午夜三级一区二区三桃花影视 | 日韩午夜电影院 | www亚洲精品| 久艹视频在线免费观看 | 在线视频你懂得 | 在线免费成人 | 色噜噜日韩精品欧美一区二区 | 中文字幕日韩电影 | 欧美二区视频 | 久久99精品久久久久久久久久久久 | 99免费精品| 午夜精品久久久久 | 国产69久久精品成人看 | 日韩欧美一区二区三区视频 | 国产激情小视频在线观看 | 中文字幕在线观看视频一区二区三区 | 国产精品99久久久久的智能播放 | 日韩av免费大片 | 日本久久91| 国产精品久久久久999 | 成年人电影毛片 | 婷婷六月久久 | 4438全国亚洲精品观看视频 | 九九综合九九 | 亚洲韩国一区二区三区 | 91精品国产综合久久福利不卡 | 国产精品麻豆果冻传媒在线播放 | 国内丰满少妇猛烈精品播放 | 99精品在线播放 | 欧美日在线观看 | 日韩色综合 | 在线看免费 | 国产麻豆精品一区二区 | av一本久道久久波多野结衣 | 亚洲经典中文字幕 | 久久少妇av | 中文字幕在线看视频 | 国产在线观看你懂得 | 日日夜夜人人精品 | 综合久久精品 | 五月婷婷久久丁香 | 97免费在线观看 | 天天干天天操天天做 | 国产一区二区视频在线播放 | 国产精品成人一区二区 | 在线免费观看黄色小说 | 超碰在线观看av.com | 久久99爱视频 | 欧美日韩高清不卡 | 午夜视频在线观看一区二区 | 黄色大全视频 | av电影一区二区三区 | 国产成人久久精品一区二区三区 | 亚洲精品a区 | 在线日本看片免费人成视久网 | 粉嫩aⅴ一区二区三区 | 精品资源在线 | 亚洲情婷婷 | 天天av天天 | 一区二区三区福利 | 蜜臀av性久久久久蜜臀av | 黄在线| 24小时日本在线www免费的 | 97福利在线观看 | 69绿帽绿奴3pvideos | 91精品1区 | 天天操天天操天天干 | 很黄很黄的网站免费的 | 国产999精品久久久久久绿帽 | 国产精品久久久久久久久久久久午夜 | 超碰com| 婷婷精品国产欧美精品亚洲人人爽 | 久久精品日本啪啪涩涩 | 91成人免费电影 | 天天天色| 91精品在线播放 | 夜夜夜精品 | 成人91在线观看 | 日日干天天干 | 亚洲视频资源在线 | 久久免费黄色大片 | 国产精品丝袜久久久久久久不卡 | 91激情视频在线观看 | 天天操天天舔天天爽 | 丝袜精品视频 | 午夜av日韩 | 91自拍视频在线观看 | 久产久精国产品 | 亚洲乱码在线观看 | 日韩av在线看 | 天天综合婷婷 | 中文字幕丝袜 | 国产成人精品久久二区二区 | 激情五月激情综合网 | 91成人免费 | 亚洲乱码精品久久久久 | 国产日韩精品欧美 | 色诱亚洲精品久久久久久 | 最新色视频 | 在线亚洲播放 | 99热在线精品观看 | 亚洲欧美国产精品 | 国产成人av网 | 日韩精品在线看 | 午夜久久久精品 | 亚洲成人精品在线观看 | 精品久久久久久综合日本 | 成年人国产在线观看 | 在线观看中文字幕2021 | 亚洲国产精品久久 | 亚洲最大免费成人网 | 国产视频中文字幕 | 91日韩免费 | 一区二区久久久久 | 在线观看视频h | 一级黄色片在线免费看 | 在线免费av观看 | 爱情影院aqdy鲁丝片二区 | 日韩欧美视频一区二区三区 | 亚洲精品久久久久www | 999精品视频 | 欧美日韩精品影院 | 久久成人国产精品免费软件 | 亚洲天天摸日日摸天天欢 | 99在线观看精品 | 超碰人人在 | 久久深夜福利免费观看 | 精品中文字幕在线播放 | 国产高清视频免费最新在线 | 国产 欧美 日本 | 国产理论一区二区三区 | 日韩成人免费在线观看 | 成人av在线直播 | 日韩电影久久 | 96亚洲精品久久久蜜桃 | 国产免费久久av | 天天拍天天爽 | 午夜精品久久久久久久久久 | 国产小视频免费观看 | 99久久99精品 | 人人干人人模 | 国产成人一区二区三区在线观看 | 亚洲电影久久 | 天天操天天操天天 | 成人国产精品一区 | 精品国产视频在线 | 99热99re6国产在线播放 | 国产黄免费在线观看 | 中文字幕高清av | 人人爽人人看 | 91在线在线观看 | 日韩在线一区二区免费 | 国产精品少妇 | 日韩中文字幕免费看 | 不卡视频一区二区三区 | 久久久免费高清视频 | 国产精品久久久久久久久久免费看 | 婷婷色网| 最新日韩视频 | 一本一本久久a久久精品综合小说 | 热久久免费视频 | 一区二区不卡在线观看 | 成人精品国产免费网站 | 天天操天天干天天操天天干 | 91网站在线视频 | 色网站免费在线看 | 欧美网站黄色 | 在线免费观看麻豆视频 | 国产精品成人av在线 | 久久免费国产电影 | 亚洲日韩精品欧美一区二区 | 天天艹 | 免费精品在线观看 | 国产黄色大片免费看 | 久久久久久毛片精品免费不卡 | 六月色丁 | 深爱婷婷久久综合 | 国产精品福利无圣光在线一区 | av电影中文字幕 | 成人黄色电影在线观看 | 婷婷在线视频观看 | 亚洲一区二区视频在线 | 色a在线观看 | 黄影院| 欧美国产精品一区二区 | 国产黄色片免费 | 国产精品视频观看 | 日韩免费不卡av | 久草免费色站 | 又爽又黄又无遮挡网站动态图 | 国产精品久久久久久模特 | www.成人sex| 亚洲成人精品国产 | 在线观看91精品国产网站 | 欧美久久电影 | av在线免费在线观看 | 午夜av日韩 | 成人a在线观看 | 日韩在线精品视频 | 久久久网页 | 欧美极品少妇xxxx | 成人免费视频播放 | 四虎影院在线观看av | 久久久久久久电影 | 国产这里只有精品 | 日本xxxx裸体xxxx17| 少妇bbw搡bbbb搡bbb | 伊人手机在线 | 免费大片av | 免费视频一区二区 | 天堂av在线免费观看 | 91插插影库 | 日本mv大片欧洲mv大片 | 国内精品免费久久影院 | av资源网在线播放 | 中国美女一级看片 | 五月天天在线 | 中文字幕乱码日本亚洲一区二区 | 99久热在线精品视频观看 | 亚洲欧美视频在线播放 | 国产精品黄色 | 黄色免费在线看 | 欧美午夜精品久久久久久浪潮 | 超碰免费97 | 国产精品综合在线观看 | 97精品国产97久久久久久免费 | 97成人在线观看 | 人人澡人人干 | 久久免费av电影 | 99精品国产在热久久下载 | 中文在线天堂资源 | 五月婷婷在线视频观看 | 97超碰中文 | 亚洲人成在线观看 | 日韩网站中文字幕 | 久久国产精品影视 | 国产成人三级在线观看 | 国产精品久久久久久久久久免费看 | 免费午夜网站 | 国产精品6999成人免费视频 | 国内精品久久久久影院一蜜桃 | 国产精品入口传媒 | 国产91粉嫩白浆在线观看 | 99爱视频在线观看 | 黄色小网站在线观看 | 国产99精品| 国产精品18久久久久久久网站 | 久草在线视频新 | 在线免费国产视频 | 99视频偷窥在线精品国自产拍 | 在线视频91 | 免费观看十分钟 | 日韩欧美视频在线观看免费 | 日韩中字在线 | 五月婷婷,六月丁香 | 999视频网站 | 99精品免费在线观看 | 黄色三级在线看 | 国产精品福利在线观看 | 激情婷婷网 | 免费网址在线播放 | 亚洲欧美婷婷六月色综合 | a黄色一级片 | 国产毛片在线 | www婷婷 | 久久精品超碰 | 五月色综合| bbbb操bbbb | 一区二区高清在线 | www.成人sex| 五月婷婷综合久久 | 成人久久视频 | 四虎在线免费观看 | 久久久久久国产精品 | 久久激情视频免费观看 | www.午夜视频 | 久久首页| 日韩三级成人 | 成人免费视频网站 | 欧美 亚洲 另类 激情 另类 | h久久|