kubernetes 的pv/pvc存储

kubernetes 的pv/pvc存储

标签(空格分隔): kubernetes系列


  • 一: kubernetes的PV/PVC存储

一: kubernetes的PV/PVC存储

1.1 pv

PersistentVolume (PV)

是由管理员设置的存储,它是群集的一部分。就像节点是集群中的资源一样,PV 也是集群中的资源。 PV 是
Volume 之类的卷插件,但具有独立于使用 PV 的 Pod 的生命周期。此 API 对象包含存储实现的细节,即 NFS、
iSCSI 或特定于云供应商的存储系统

1.2 pvc


PersistentVolumeClaim (PVC)

是用户存储的请求。它与 Pod 相似。Pod 消耗节点资源,PVC 消耗 PV 资源。Pod 可以请求特定级别的资源
(CPU 和内存)。声明可以请求特定的大小和访问模式(例如,可以以读/写一次或 只读多次模式挂载)


1.3 静态 pv

集群管理员创建一些 PV。它们带有可供群集用户使用的实际存储的细节。它们存在于 Kubernetes API 中,可用
于消费

1.4 动态

当管理员创建的静态 PV 都不匹配用户的  PersistentVolumeClaim 时,集群可能会尝试动态地为 PVC 创建卷。此
配置基于  StorageClasses :PVC 必须请求 [存储类],并且管理员必须创建并配置该类才能进行动态创建。声明该
类为  "" 可以有效地禁用其动态配置
要启用基于存储级别的动态存储配置,集群管理员需要启用 API server 上的  DefaultStorageClass [准入控制器]
。例如,通过确保  DefaultStorageClass 位于 API server 组件的  --admission-control 标志,使用逗号分隔的
有序值列表中,可以完成此操作

1.5 绑定

master 中的控制环路监视新的 PVC,寻找匹配的 PV(如果可能),并将它们绑定在一起。如果为新的 PVC 动态
调配 PV,则该环路将始终将该 PV 绑定到 PVC。否则,用户总会得到他们所请求的存储,但是容量可能超出要求
的数量。一旦 PV 和 PVC 绑定后, PersistentVolumeClaim 绑定是排他性的,不管它们是如何绑定的。 PVC 跟
PV 绑定是一对一的映射

二 持久化卷声明的保护

PVC 保护的目的是确保由 pod 正在使用的 PVC 不会从系统中移除,因为如果被移除的话可能会导致数据丢失
当启用PVC 保护 alpha 功能时,如果用户删除了一个 pod 正在使用的 PVC,则该 PVC 不会被立即删除。PVC 的
删除将被推迟,直到 PVC 不再被任何 pod 使用

2.1 持久化卷类型

PersistentVolume 类型以插件形式实现。Kubernetes 目前支持以下插件类型:
GCEPersistentDisk AWSElasticBlockStore AzureFile AzureDisk FC (Fibre Channel)
FlexVolume Flocker NFS iSCSI RBD (Ceph Block Device) CephFS
Cinder (OpenStack block storage) Glusterfs VsphereVolume Quobyte Volumes
HostPath VMware Photon Portworx Volumes ScaleIO Volumes StorageOS

2.2 持久卷演示代码

apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv0003
spec:
  capacity:
    storage: 5Gi
  volumeMode: Filesystem
  accessModes:
    - ReadWriteOnce
  persistentVolumeReclaimPolicy: Recycle
  storageClassName: slow
  mountOptions:
    - hard
    - nfsvers=4.1
  nfs:
    path: /tmp
    server: 172.17.0.2

2.3 PV 访问模式

PersistentVolume 可以以资源提供者支持的任何方式挂载到主机上。如下表所示,供应商具有不同的功能,每个
PV 的访问模式都将被设置为该卷支持的特定模式。例如,NFS 可以支持多个读/写客户端,但特定的 NFS PV 可能
以只读方式导出到服务器上。每个 PV 都有一套自己的用来描述特定功能的访问模式

ReadWriteOnce——该卷可以被单个节点以读/写模式挂载
ReadOnlyMany——该卷可以被多个节点以只读模式挂载
ReadWriteMany——该卷可以被多个节点以读/写模式挂载在命

在命令行中,访问模式缩写为:
RWO - ReadWriteOnce
ROX - ReadOnlyMany
RWX - ReadWriteMany


2.4 回收策略

Retain(保留)——手动回收
Recycle(回收)——基本擦除( rm -rf /thevolume/* )
Delete(删除)——关联的存储资产(例如 AWS EBS、GCE PD、Azure Disk 和 OpenStack Cinder 卷)
将被删除
当前,只有 NFS 和 HostPath 支持回收策略。AWS EBS、GCE PD、Azure Disk 和 Cinder 卷支持删除策略

2.5 状态

卷可以处于以下的某种状态:
Available(可用)——一块空闲资源还没有被任何声明绑定
Bound(已绑定)——卷已经被声明绑定
Released(已释放)——声明被删除,但是资源还未被集群重新声明
Failed(失败)——该卷的自动回收失败
命令行会显示绑定到 PV 的 PVC 的名称

2.6 持久化nfs 部署 配置

login node04.flyfish 配置nfs 服务
----

yum install -y nfs* nfs-utils rpcbind

mkdir /nfs

chmod 777 /nfs

chown nfsnobody /nfs

cat /etc/exports

/nfs *(rw,no_root_squash,no_all_squash,sync)

systemctl start rpcbind

systemctl start nfs


k8s 所有节点安装nfs 客户端的挂载包

login : node01.flyfish

yum install rpcbind nfs-utils 

mkdir /test
showmount -e 192.168.100.14 

mount -t nfs 192.168.100.14:/nfs /test


配置pv
vim pv.yaml
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: nfspv1
spec:
  capacity:
    storage: 10Gi
  accessModes:
    - ReadWriteOnce
  persistentVolumeReclaimPolicy: Retain
  storageClassName: nfs
  nfs:
   path: /nfs
   server: 192.168.100.14
---

kubectl apply -f pv.yaml
kubectl get pv 


多创建几个nfs pv
----
login: node04.flyfish

mkdir /nfs1 /nfs2 /nfs3

chmod 777 /nfs1 /nfs2 /nfs3

vim /etc/exportfs
---
/nfs     *(rw,no_root_squash,no_all_squash,sync)
/nfs1    *(rw,no_root_squash,no_all_squash,sync)
/nfs2    *(rw,no_root_squash,no_all_squash,sync)
/nfs3    *(rw,no_root_squash,no_all_squash,sync)
---

service rpcbind restart
service nfs restart
exportfs -V



vim pv1.yaml
------
apiVersion: v1
kind: PersistentVolume
metadata:
  name: nfspv2
spec:
  capacity:
    storage: 20Gi
  accessModes:
    - ReadOnlyMany
  persistentVolumeReclaimPolicy: Retain
  storageClassName: nfs
  nfs:
   path: /nfs1
   server: 192.168.100.14
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: nfspv3
spec:
  capacity:
    storage: 5Gi
  accessModes:
    - ReadWriteOnce
  persistentVolumeReclaimPolicy: Retain
  storageClassName: slow
  nfs:
   path: /nfs2
   server: 192.168.100.14
---

apiVersion: v1
kind: PersistentVolume
metadata:
  name: nfspv4
spec:
  capacity:
    storage: 10Gi
  accessModes:
    - ReadWriteMany
  persistentVolumeReclaimPolicy: Retain
  storageClassName: nfs
  nfs:
   path: /nfs3
   server: 192.168.100.14
-----

kubectl apply -f pv1.yaml

kubectl get pv



创建PVC 应用
------
vim pvc.yaml
---
apiVersion: v1
kind: Service
metadata:
  name: nginx
  labels:
    app: nginx
spec:
  ports:
  - port: 80
    name: web
  clusterIP: None
  selector:
    app: nginx

---

apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: web
spec:
  selector:
    matchLabels:
      app: nginx
  serviceName: "nginx"
  replicas: 3
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: wangyanglinux/myapp:v1
        ports:
        - containerPort: 80
          name: web
        volumeMounts:
          - name: www
            mountPath: /usr/share/nginx/html
  volumeClaimTemplates:
  - metadata:
      name: www
    spec:
      accessModes: [ "ReadWriteOnce" ]
      storageClassName: "nfs"
      resources:
        requests:
          storage: 1Gi
---
kubectl apply -f pvc.yaml
---------
kubectl get pod
kubectl get pv
kubectl get pvc


以上可以看出 这个 pvc 的pod 并没用创建 成功  要求的 副本数是3个 只创建了一个 pod, 因为 如果要在 创建pod 必须满足  accessModes: [ "ReadWriteOnce" ]  与 storageClassName: "nfs"  这两个条件 ,但是 所创建的 pv 只有 nfsv1 同时满足 这样的条件 所以 就 只能创建 一个 pod 

kubectl get pod  

kubectl describe pod web-1


如果想 创建成功 必须给 改变pv的类型 与控制权限
首先删掉nfspv3 与nfspv4

kubectl delete pv nfspv3

kubectl delete pv nfspv4


vim pv2.yaml
------
apiVersion: v1
kind: PersistentVolume
metadata:
  name: nfspv3
spec:
  capacity:
    storage: 30Gi
  accessModes:
    - ReadWriteOnce
  persistentVolumeReclaimPolicy: Retain
  storageClassName: nfs
  nfs:
   path: /nfs2
   server: 192.168.100.14
---

apiVersion: v1
kind: PersistentVolume
metadata:
  name: nfspv4
spec:
  capacity:
    storage: 10Gi
  accessModes:
    - ReadWriteOnce
  persistentVolumeReclaimPolicy: Retain
  storageClassName: nfs
  nfs:
   path: /nfs3
   server: 192.168.100.14
------
kubectl apply -f pv2.yaml

kubectl get pv

kubectl get pod 

kubectl get pv 

kubectl get pvc 


kubectl describe pv nfspv1
kubectl describe pv nfspv2
kubectl descirbe pv nfspv3
kubectl descirbe pv nfspv4




kubectl get pv
kubectl get pod -o wide

login node04.flyfish

cd /nfs

echo aaaaa > index.html

cd /nfs2 

echo bbbb >> index.html

cd /nfs3 

echo "web2 web2" >> index.html

curl 10.244.1.6
curl 10.244.2.8
curl 10.244.2.7


kubectl delete pod web-0


三 关于 StatefulSet

3.1 StatfulSet的理解

3.1匹配 Pod name ( 网络标识 ) 的模式为:$(statefulset名称)-$(序号),比如上面的示例:web-0,web-1,
web-2

3.2 StatefulSet 为每个 Pod 副本创建了一个 DNS 域名,这个域名的格式为: $(podname).(headless server
name),也就意味着服务间是通过Pod域名来通信而非 Pod IP,因为当Pod所在Node发生故障时, Pod 会
被飘移到其它 Node 上,Pod IP 会发生变化,但是 Pod 域名不会有变化

3.3 StatefulSet 使用 Headless 服务来控制 Pod 的域名,这个域名的 FQDN 为:$(service
name).$(namespace).svc.cluster.local,其中,“cluster.local” 指的是集群的域名

3.4 根据 volumeClaimTemplates,为每个 Pod 创建一个 pvc,pvc 的命名规则匹配模式:
(volumeClaimTemplates.name)-(pod_name),比如上面的 volumeMounts.name=www, Pod
name=web-[0-2],因此创建出来的 PVC 是 www-web-0、www-web-1、www-web-2

3.5删除 Pod 不会删除其 pvc,手动删除 pvc 将自动释放 pv

3.2 statfulset

有序部署:部署StatefulSet时,如果有多个Pod副本,它们会被顺序地创建(从0到N-1)并且,在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态。

有序删除:当Pod被删除时,它们被终止的顺序是从N-1到0。

有序扩展:当对Pod执行扩展操作时,与部署一样,它前面的Pod必须都处于Running和Ready状态。
有序删除:


3.3 StatefulSet使用场景:

1.稳定的持久化存储,即Pod重新调度后还是能访问到相同的持久化数据,基于 PVC 来实现。

2.稳定的网络标识符,即 Pod 重新调度后其 PodName 和 HostName 不变。
有序部署,有序扩展,基于 init containers 来实现。

3.有序收缩。

3.4 statefulset 整体删除步骤

先删除 pod 

kubectl delete pod --all 

在删除svc 

kubectl delete svc --all

在删除deployment

kubectl delete deploy --all

在删除statefulset 

kubectl delete statefulset --all

在删除 pvc 

kubectl delete pvc --all 

删除 pv 

kubectl delete pv --all

然后 在删掉 nfs挂载里面的文件



kubernetes 的pv/pvc存储

原文地址:https://blog.51cto.com/flyfish225/2481950

时间: 2024-08-28 21:36:38

kubernetes 的pv/pvc存储的相关文章

Kubernetes 存储卷管理 PV&PVC(十)

为了持久化保存容器的数据,可以使用 Kubernetes Volume. Volume 的生命周期独立于容器,Pod 中的容器可能被销毁和重建,但 Volume 会被保留. 本质上,Kubernetes Volume 是一个目录,这一点与 Docker Volume 类似.当 Volume 被 mount 到 Pod,Pod 中的所有容器都可以访问这个 Volume.Kubernetes Volume 也支持多种 backend 类型,包括 emptyDir.hostPath.GCE Persi

Kubernetes Pv & Pvc

Kubernetes PV & pvc 介绍 PersistentVolume(pv)和PersistentVolumeClaim(pvc)是k8s提供的两种API资源,用于抽象存储细节.管理员关注于如何通过pv提供存储功能而无需 关注用户如何使用,同样的用户只需要挂载pvc到容器中而不需要关注存储卷采用何种技术实现. pvc和pv的关系与pod和node关系类似,前者消耗后者的资源.pvc可以向pv申请指定大小的存储资源并设置访问模式,这就可以通过Provision -> Claim 的方

kubernetes pv pvc configmap secret 使用

pv pvc使用 1.概述,我们可以这样来组织我们的存储,在pod中我们只需要定义一个存储卷并且定义的时候我只需要说明我需要多大的存储卷就行了,这个存储卷叫pvc类型的存储卷,而pvc类型的存储卷必须与当前名称空间中的pvc建立直接绑定关系,而pvc必须与pv建立绑定关系,而pv应该是真正某个存储设备上的存储空间,所以pv和pvc是k8s系统之上的抽象的但也算是标准的资源,pvc是一种资源,pv也是一种资源,他的创建方式和我们此前创建其它资源方式是一样的,但是用户需要怎么做呢?存储工程师把每个存

Serverless Kubernetes全面升级2.0架构:支持多命名空间、RBAC、CRD、PV/PVC等功能

Serverless Kubernetes概述: 阿里云Serverless Kubernetes容器服务最新开放香港.新加坡.悉尼区域,同时全面开放2.0架构,帮助用户更加便捷.轻松地步入“以应用为中心”的全新架构.通过Serverless Kubernetes,用户50秒内可从零启动500应用容器,而无需关心底层服务器资源. Serverless Kubernetes 2.0新架构 Serverless Kubernetes 2.0对后台架构进行了彻底升级,从之前的基于Namespace的多

2个Kubernetes使用同一个Ceph存储达到Kubernetes间持久化数据迁移

2个Kubernetes使用同一个Ceph存储达到Kubernetes间持久化数据迁移 [TOC] 当前最新Kubernetes稳定版为1.14.现在为止,还没有不同Kubernetes间持久化存储迁移的方案.但根据Kubernetes pv/pvc绑定流程和原理,只要 "存储"-->"PV"-->"PVC" 的绑定关系相同,即可保证不同间Kubernetes可挂载相同的存储,并且里面是相同数据. 1. 环境 原来我的Kubernet

使用Ceph集群作为Kubernetes的动态分配持久化存储

使用Docker快速部署Ceph集群 , 然后使用这个Ceph集群作为Kubernetes的动态分配持久化存储. Kubernetes集群要使用Ceph集群需要在每个Kubernetes节点上安装ceph-common

浅析kubernetes创建Pv、Pvc、Deployment

基本环境 #系统环境 cat /etc/redhat-release CentOS Linux release 7.4.1708 (Core) #k8s client 和 server 的版本信息 kubectl version Client Version: version.Info{Major:"1", Minor:"10", GitVersion:"v1.10.0", GitCommit:"fc32d2f3698e36b93322

Kubernetes 之 Nginx 动静态 PV 持久存储 下篇

接上篇 Kubernetes 中部署 NFS Provisioner 为 NFS 提供动态分配卷(上篇)请添加链接描述 一.nginx 使用 nfs 静态 PV 1.静态 nfs-static-nginx-rc.yaml ##清理资源 kubectl delete -f nfs-static-nginx-rc.yaml -n test cat >nfs-static-nginx-rc.yaml<<\EOF ##创建namespace --- apiVersion: v1 kind: Na

13.kubernetes之pv,pvc,configmap(带补充实例)

管理存储是管理计算的一个明显问题.该PersistentVolume子系统为用户和管理员提供了一个API,用于抽象如何根据消费方式提供存储的详细信息.为此,我们引入了两个新的API资源:PersistentVolume和PersistentVolumeClaim. A PersistentVolume(PV)是群集中由管理员配置的一块存储.它是集群中的资源,就像节点是集群资源一样.PV是容量插件,如Volumes,但其生命周期独立于使用PV的任何单个pod.此API对象捕获存储实现的详细信息,包