K8S CoreDNS部署失败,发现的一个问题

K8S CoreDNS部署失败,查看错误日志,提示如下

root >> kubectl get all --all-namespaces -o wide

root >> kubectl logs -f coredns-56f56989d6-krs6h -n kube-system

错误提示,如下:

Failed to list *v1.Namespace: Get https://10.3.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.3.0.1:443: i/o timeout

但是,实际上我们kube-apiserver是有证书和授权的,原因就是出在kube-apiserver证书的csr文件中,

域名“kubernetes.default.svc.cluster.local.”最后一个字符"."。

按照官方文档介绍,这个是go v1.9中的域名语法校验解析bug, 所以我们只要去掉这个末尾的".",重新制作证书就可了。

参考网址:

https://github.com/opsnull/follow-me-install-kubernetes-cluster/issues/233

https://blog.csdn.net/watermelonbig/article/details/80879218

原文地址:https://www.cnblogs.com/itshare/p/11279134.html

时间: 2024-08-01 08:18:22

K8S CoreDNS部署失败,发现的一个问题的相关文章

K8S CoreDNS部署失败,问题分析

1. 查询k8s集群部署pod的基本情况 如下图,我们可知容器coredns和dnsutils都部署成功,但是由于域名解析的问题,导致coredns和dnsutils的容器不断重启(原因heath检查,无法请求成功,被kubelet重启了pod) 命令如下: root >> kubectl get all --all-namespaces -o wide root >> kubectl describe pod coredns-57bbd778b9-kxl7b -n kube-sy

004.etcd集群部署-动态发现

一 etcd发现简介 1.1 需求背景 在实际环境中,集群成员的ip可能不会提前知道.如使用dhcp自动获取的情况,在这些情况下,使用自动发现来引导etcdetcd集群,而不是指定静态配置,这个过程被称为"发现". etcd Discovery 使用已有的 etcd cluster 来注册和启动 DNS发现 使用 DNS 启动. 1.2 实现机制 Discovery service protocol帮助新的etcd成员使用共享URL在集群引导阶段发现所有其他成员. 该协议使用新的发现令

持续集成之应用k8s自动部署

原文:持续集成之应用k8s自动部署 持续集成之应用k8s自动部署 Intro 上次我们提到了docker容器化及自动化部署,这仅仅适合个人项目或者开发环境部署,如果要部署到生产环境,必然就需要考虑很多因素,比如访问量大了如何调整部署,如何更好的应对大并发的情况,如何不停机更新应用,如果想要将Docker应用于具体的业务实现,是存在困难的--编排.管理和调度等各个方面,都不容易.于是,人们迫切需要一套管理系统,对Docker及容器进行更高级更灵活的管理,于是 k8s 就出现了. K8S,就是基于容

k8s二进制部署

k8s二进制部署 1.环境准备 主机名 ip地址 角色 k8s-master01 10.0.0.10 master k8s-master02 10.0.0.11 master k8s-node01 10.0.0.12 node k8s-node02 10.0.0.13 node 初始化操作 关闭防火墙 关闭selinux 关闭swap 安装ntp使时间同步 配置域名解析 配置免密 k8s-master01 到其他机器. 安装docker 2.生成配置CFSSL CFFSL能够构建本地CA,生成后

Spark on K8S环境部署细节

Spark on K8S环境部署细节 sparkk8s time: 2020-1-3 Spark on K8S环境部署细节 Spark operator安装 准备kubectl客户端和Helm客户端 安装spark operator Spark wordcount 读写OSS 准备oss依赖的jar包 准备core-site.xml 打包支持读写oss的镜像 下载spark安装包解压 打包发布镜像 准备wordcount作业 1. spark submit 提交 2. spark operato

Gartner:克服SIEM部署失败的常见问题

2014年8月21日,Gartner发布了一份新的SIEM报告:Overcoming Common Causes for SIEM Deployment Failures.作者是一位刚从HP跳到Gartner的新人Oliver,目前跟Mark Nicolett在一个team. 报告提出了当前SIEM部署失败的6个常见原因:计划不周.范围不清.期望过高.噪声过大.情境不够.资源不足. 原文是:Failure to Plan Before Buying,Failure to Define Scope

OVF 部署失败: 找不到文件 ds:///vmfs/volumes/uuid/_deviceImage-0.iso

描述 如果OVF模板中安装了VMware Tools,部署该模板出错 当从已安装VMware Tools的虚拟机部署OVF,您会看到错误:未能部署OVF包:找不到文件ds:///vmfs/volumes/uuid/_deviceImage-0.iso 原因 当VMware Tools安装任务未完成,则会出现此错误.客户机系统可能已经成功安装并运行,但在ESX任务安装工具还没有完成. 在ESX 5.0和更早的版本产生OVF文件不包含设备支持信息,在ESX 5.1导入时,不会遇到这个问题. 要解决此

MyEclipse Web项目部署失败:Deployment failure on Tomcat 7.x.Could not copy all resources to XXX.

在做第一个MyEclipse web项目时,总是部署失败: Deployment failure on Tomcat 7.x.Could not copy all resources to XXX.If a file is locked, you can wait until the lock times out to redeploy, or stop the server and redeploy, or manually remove the deployment at XXX. 我上网查

使用阿里云k8s服务部署项目以及pvc持久化思路.

一如惯例,懒人一枚, 开启阿里云k8s服务, 开启阿里云容器镜像服务 登录master主机,创建项目文件夹. 在项目文件夹创建Dockerfilevi /root/nginx/DockerfileFrom nginxADD nginx.conf /etc/nginx/nginx.confADD saasfrontal.conf /etc/nginx/conf.d/saasfrontal.confVOLUME /root/nginx/frontal /usr/share/nginx/frontal