kubernetes ceph的rbd挂载步骤

k8s集群每一台上面都要安装客户端:

ceph-deploy  install  k8s的ip地址

创建一个k8s操作用户

ceph auth add client.k8s mon ‘allow rwx‘ osd ‘allow rwx‘

ceph auth get client.k8s -o /etc/ceph/ceph.client.k8s.keyring #导出新建用户的钥匙 将导出的钥匙放在k8s每台的/etc/ceph/下面

ceph auth list  #查看权限

创建一个池和映射

1. 创建一个名为k8spool的池

ceph osd pool create k8spool 2024

ceph osd pool ls #查看池

2. 创建一个块映射k8stest

rbd create --size 1024 k8spool/k8stest

rbd ls --pool k8spool   #查看建立的映射

3. 关闭centOS7内核不支持的选项

rbd feature disable k8spool/k8stest exclusive-lock, object-map, fast-diff, deep-flatten

k8s操作:

1.创建密匙:

grep key /etc/ceph/ceph.client.admin.keyring |awk ‘{printf "%s", $NF}‘|base64
QVFBbW5SbFgyenJxRFJBQU9pdU9zMnNJSXRHaEFQNnRORGEzVmc9PQ==

2.创建k8s-pv

3.创建k8s-pvc

4.创建测试pod,看看是否能不能挂载ceph

成功的话查看:

kubectl describe pod/ceph-rbd-pv-pod1  #查看是否成功



原文地址:https://www.cnblogs.com/kuku0223/p/9229122.html

时间: 2024-10-06 22:46:25

kubernetes ceph的rbd挂载步骤的相关文章

kubernetes ceph-rbd挂载步骤 类型storageClass

由于kubelet本身并不支持rbd的命令,所以需要添加一个kube系统插件: 下载插件 quay.io/external_storage/rbd-provisioner 下载地址: https://quay.io/repository/external_storage/rbd-provisioner?tag=latest&tab=tags 在k8s集群的node上面下载 docker pull quay.io/external_storage/rbd-provisioner:latest 只安

使用qemu-nbd进行rbd挂载

使用qemu-nbd进行rbd挂载 1. 使用qemu-nbd进行rbd挂载 1.1. 1. 安装软件 1.2. 2.部署nbd模块的配置: /etc/modprobe.d/nbd.conf 1.3. 3.加载nbd模块 1.4. 4.新建rbd并映射到本地块设备 1.5. 5.简单测试 1.6. 6.解挂 1. 安装软件 apt-get install qemu-utils apt-get install ceph-common 注意: 请确保ceph-common版本与ceph服务端一致 2

使用rbd-nbd进行rbd挂载

使用rbd-nbd进行rbd挂载 1. 使用rbd-nbd进行rbd挂载 1.1. 1. 安装软件 1.2. 2.部署nbd模块的配置: /etc/modprobe.d/nbd.conf 1.3. 3.加载nbd模块 1.4. 4.新建rbd并映射到本地块设备 1.5. 5.简单测试 1.6. 6.解挂载.解除映射 1. 安装软件 apt-get install ceph-common rbd-nbd 注意: 请确保ceph-common版本与ceph服务端一致 2.部署nbd模块的配置: /e

006 管理Ceph的RBD块设备

一, Ceph RBD的特性 支持完整和增量的快照 自动精简配置 写时复制克隆 动态调整大小 二.RBD基本应用 2.1 创建RBD池 [root@ceph2 ceph]# ceph osd pool create rbd 64 pool 'rbd' created [root@ceph2 ceph]# ceph osd pool application enable rbd rbd enabled application 'rbd' on pool 'rbd' 2.2 客户端验证 [root@

Ceph - howto, rbd, lvm, cluster

Install ceph Installation depends about which version you want as they're all locked into Fixed releases (argonaut, bobtail etc). So go here for install options for your distro and the version you want: http://ceph.com/docs/master/install/ Video to c

ceph(rbd、cephfs)磁盘挂载详解

1:RBD方式挂载 2:cephfs 挂载 3:对象文件上传下载 ####################RBD方式挂载################################### 1:安装ceph软件包.同步集群配置文件和key Yum install ceph –y 2:新建一个ceph pool ceph osd pool create {pool-name} {pg-num} [{pgp-num}]   实例 ceph osd pool create rbdpool 100 1

磁盘分区挂载步骤

挂载磁盘的步骤 分区--->格式化--->挂载 fdisk -l               #查看硬盘 fdisk /dev/vdb         #为/dev/vdb硬盘分区 输入下列字母的意义 m                      #查看帮助 p                      #列出当前磁盘的分区情况 n                      #建立新的磁盘分区 e extended          #扩展分区 p primary           #主分区

ceph之rbd读写API 测试

rados.rbd读写API测试: 1 //compile: 2 //gcc ceph_test_v2.c -lrbd -lrados -g -Wall 3 4 #include <stdio.h> 5 #include <stdlib.h> 6 #include <string.h> 7 #include <rados/librados.h> 8 #include <rbd/librbd.h> 9 10 static int print_pro

Linux 光盘挂载步骤

mount -t fs_type device dir 挂载操作 常见的文件系统类型 Windows :ntfs.fat32 Linux:ext3.ext4.xfs 光盘: iso9660 挂载光盘: 1.创建目录,用于和光盘关联 mkdir /media/cd 2.挂载 确保光盘已连接,VM虚拟机为例 右下角光盘小图标右击或双击进行连接,设置设备状态 3.检查 4.通过目录访问光盘 步骤如下: mount -t iso9660 /dev/cdrom /media/cd mount -t iso