k8s 之 pod 启动时使用本地镜像仓库时,仓库的认证方法

docker 的本地仓库认证和 Kubernetes 对本地仓库的认证是分开的~~~
k8s 拉镜像用的是自己和仓库之间的认证;这个挺坑。的

docker配置本地仓库的认证

Docker version 1.13.1
这个老版本的docker要认证本地仓库需要先加配置文件

vim /etc/sysconfig/docker
OPTIONS=‘--selinux-enabled --log-driver=journald --signature-verification=false --insecure-registry=registry.test.cn‘

在配置文件加上--insecure-registry=registry.test.cn
然后重启docker
然后 docker login registry.test.cn
输入用户密码

Docker version 17.12.1-ce
这个版本的docker要认证本地仓库也要先改配置文件,但是和之前的版本不同


vim /etc/docker/daemon.json
{
        "insecure-registries" : ["registry.test.cn"]
}

下面是k8s 添加本地仓库认证



namespace 名称: pressure
登录邮箱: [email protected]
登录仓库用户名: admin
登录仓库密码: password
pod 要使用的 key 的名称: registrykey-test
仓库地址: registry.test.cn



创建登录仓库使用的 key


kubectl create secret docker-registry registrykey-test --docker-server=registry.test.cn --docker-username=admin --docker-password=password [email protected] -n pressure


pod 的 yaml 文件加上

spec:
  replicas: 1
  strategy:
    rollingUpdate:
      maxSurge: 1
      maxUnavailable: 1
    template:
    metadata:
      labels:
        app: test-pods
    spec:
      imagePullSecrets:
      - name: registrykey-test

原文地址:http://blog.51cto.com/rsddn/2106728

时间: 2024-11-09 21:24:35

k8s 之 pod 启动时使用本地镜像仓库时,仓库的认证方法的相关文章

k8s wordpress pod启动不了

Apr 25 17:11:34 k8s_n1 kubelet: I0425 17:11:34.860041    2476 kuberuntime_manager.go:742] checking backoff for container "wordpress" in pod "wordpress-1595585052-n89d8_default(f63ddbae-2995-11e7-a7d0-5254000d6f84)" Apr 25 17:11:34 k8s_

k8s集群启动了上万个容器(一个pod里放上百个容器,起百个pod就模拟出上万个容器)服务器超时,无法操作的解决办法

问题说明: 一个POD里放了百个容器,然后让K8S集群部署上百个POD,得到可运行上万个容器的实验目的. 实验环境:3台DELL裸机服务器,16核+64G,硬盘容量忽略吧,上T了,肯定够. 1.一开始运行5000多个容器的时候(也就50个POD),集群部署后,10几分钟就起来了,感觉还不错. 2.增加压力,把50个POD增加到100个POD,感觉也不会很长时间,都等到下班后又过了半个小时,还是没有起来,集群链接缓慢,使用kubect里面的命令,好久都出不来信息,UI界面显示服务器超时. 心想,完

k8s之Pod健康检测

对于Pod的健康状态检测,kubernetes提供了两类探针(Probes)来执行对Pod的健康状态检测:LivenessProbe和ReadinessProb. LivenessProbe:用于判断容器是否存活,即running状态,如果LivenessProbe探针探测到容器不健康,则kubelet将kill掉容器,并根据容器的重启策略是否重启,如果一个容器不包含LivenessProbe探针,则Kubelet认为容器的LivenessProbe探针的返回值永远成功.ReadinessPro

解决k8s出现pod服务一直处于ContainerCreating状态的问题的过程

参考于: https://blog.csdn.net/learner198461/article/details/78036854 https://liyang.pro/solve-k8s-pod-containercreating/ https://blog.csdn.net/golduty2/article/details/80625485 根据实际情况稍微做了修改和说明. 在创建Dashborad时,查看状态总是ContainerCreating [[email protected] k8

k8s的Pod状态和生命周期管理

Pod状态和生命周期管理 一.什么是Pod? 二.Pod中如何管理多个容器? 三.使用Pod 四.Pod的持久性和终止 五.Pause容器 六.init容器 七.Pod的生命周期 (1)Pod phase(Pod的相位) (2)Pod的创建过程 (3)Pod的状态 (4)Pod存活性探测 (5)livenessProbe和readinessProbe使用场景 (6)Pod的重启策略 (7)Pod的生命 (8)livenessProbe解析 一.什么是Pod? Pod是kubernetes中你可以

k8s中pod文件的定义格式

# yaml格式的pod定义文件完整内容: apiVersion: v1 #必选,版本号,例如v1 kind: Pod #必选,Pod metadata: #必选,元数据 name: string #必选,Pod名称 namespace: string #必选,Pod所属的命名空间 labels: #自定义标签 - name: string #自定义标签名字 annotations: #自定义注释列表 - name: string spec: #必选,Pod中容器的详细定义 containers

K8s之Pod进阶

注意此篇文章接上篇:K8s之Pod资源管理及创建Harbor私有镜像仓库https://blog.51cto.com/14464303/2471369 一.资源限制: pod和container的资源请求和限制: spec.containers[].resources.limits.cpu #cpu上限 spec.containers[].resources.limits.memory #内存上限 spec.containers[].resources.requests.cpu #创建时分配的基

Docker公共&本地镜像仓库(七)--技术流ken

分发镜像 我们已经会构建自己的镜像了,那么如果在多个docker主机上使用镜像那?有如下的几种可用的方法: 用相同的Dockerfile在其他host上构建镜像 将镜像上传到公共registry(比如docker hub),host直接下载使用 搭建私有的registry供本地的host使用 镜像命名 无论采用何种方式保存和分发镜像,首先都得给镜像命名. 通过 dock images ls 可以查看镜像的信息. [[email protected] ~]# docker image ls REP

CentOS7配置本地镜像及安装gluster服务

[[[[[创建本地镜像及安装gluster操作手册]]]]]   1.sudo mkdir /home/ecp2/mirror         创建mirror目录,把镜像拷贝到mirror下     修改镜像有效路径   2. sudo mkdir -p /media/CentOS          创建CentOS目录,把磁盘.iso镜像mount到CentOS目录下 3.sudo mount /dev/sr0 /media/CentOS    把iso安装镜像挂在到/media/CentO