基于k8s集群部署prometheus监控etcd

目录

  • 基于k8s集群部署prometheus监控etcd

    • 1、背景和环境概述
    • 2、修改prometheus配置
    • 3、检查是否生效
    • 4、配置grafana图形

基于k8s集群部署prometheus监控etcd

1、背景和环境概述

本文中涉及到的环境中、prometheus监控和grafana基本环境已部署好。etcd内置了metrics接口供收集数据,在etcd集群任意一台节点上可通过ip:2379/metrics检查是否能正常收集数据。

curl -L http://localhost:2379/metrics

2、修改prometheus配置

修改prometheus的配置,增加对etcd的监控配置,配置中指定etcd集群的ip:port,并指定后端协议类型和配置跳过CA验证

vim prometheus-configmap.yaml
- job_name: "etcd"
      scheme: https
      tls_config:
        insecure_skip_verify: true
      static_configs:
      - targets: ['172.16.1.100:2379','172.16.1.101:2379','172.16.1.110:2379']

3、检查是否生效

打开prometheus界面,查看target中是否有etcd的相关记录

检查查询取值

4、配置grafana图形

在grafana图形中导入模板,模板可以从grafana官方dashboard中搜索并获得模板id,这里推荐为3070、9618

查看图形

至此,prometheus监控etcd完成。

原文地址:https://www.cnblogs.com/ssgeek/p/11286558.html

时间: 2024-11-03 19:45:38

基于k8s集群部署prometheus监控etcd的相关文章

Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列之部署master/node节点组件(四)

0.前言 整体架构目录:ASP.NET Core分布式项目实战-目录 k8s架构目录:Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列目录 1.部署master组件 master 服务器的组件有:kube-apiserver.kube-controller-manager.kube-scheduler 因此需要下载k8s master,下载地址:https://github.com/kubernetes/kubernetes/blob/master/CHANGE

rancher三节点k8s集群部署例子

rancher三节点k8s集群部署例子 待办 https://rorschachchan.github.io/2019/07/25/使用Rancher2-1部署k8s/ 原文地址:https://www.cnblogs.com/lishikai/p/12310449.html

centos7 k8s集群部署

安装k8s集群前期准备:网络环境:节点 主机名 ipMaster k8s_master 192.168.3.216Node1 k8s_node1 192.168.3.217Node2 k8s_node2 192.168.3.219 centos7版本:[[email protected]_master ~]# cat /etc/redhat-releaseCentOS Linux release 7.4.1708 (Core) 关闭firewalld:systemctl stop firewal

基于kubernetes集群部署DashBoard

在之前一篇文章Centos7部署Kubernetes集群(http://www.cnblogs.com/zhenyuyaodidiao/p/6500830.html)中已经搭建了基本的K8s集群,本文将在此基础之上继续搭建K8s DashBoard. 1.yaml文件 编辑dashboard.yaml,注意或更改以下红色部分: apiVersion: extensions/v1beta1 kind: Deployment metadata: # Keep the name in sync wit

k8s集群部署(node1 ,node2 ,node3)

环境规划: 1.三台节点 2.内存2G 3.CPU 2 4.交换分区必须关闭 5.selinux必须关闭 6.每个节点必须部署docker 7.主机名解析 第一步:每个节点下载docker(步骤在docker第一篇)第二步:每个节点关闭交换分区 # swapoff -a # vim /etc/fstab 注释掉 swap 行 第三步:主机名解析 第四步:上传k8s安装包并安装 # lscri-tools-1.13.0-0.x86_64.rpm kubectl-1.15.2-0.x86_64.rp

k8s集群部署

环境: 两台虚拟机, 10.10.20.203 部署docker.etcd.flannel.kube-apiserver.kube-controller-manager.kube-scheduler 10.10.20.206 部署docker.flannel.kubelet.kube-proxy [etcd] 1.下载curl -L https://github.com/coreos/etcd/releases/download/v2.3.7/etcd-v2.3.7-linux-amd64.ta

使用Kubeadm创建k8s集群之节点部署(三十一)

前言 本篇部署教程将讲述k8s集群的节点(master和工作节点)部署,请先按照上一篇教程完成节点的准备.本篇教程中的操作全部使用脚本完成,并且对于某些情况(比如镜像拉取问题)还提供了多种解决方案.不过基于部署环境和k8s的复杂性,我们需要对k8s集群部署过程中的一些步骤都有所了解,尤其是“kubeadm init”命令. 目录 主节点部署  Kubeadm以及相关工具包的安装 批量拉取k8s相关镜像 使用“kubeadm init”启动k8s主节点 启动k8s主节点 kubectl认证 安装f

etcd集群部署与遇到的坑

在k8s集群中使用了etcd作为数据中心,在实际操作中遇到了一些坑.今天记录一下,为了以后更好操作. ETCD参数说明 —data-dir 指定节点的数据存储目录,这些数据包括节点ID,集群ID,集群初始化配置,Snapshot文件,若未指定—wal-dir,还会存储WAL文件: —wal-dir 指定节点的was文件的存储目录,若指定了该参数,wal文件会和其他数据文件分开存储. —name 节点名称 —initial-advertise-peer-urls 告知集群其他节点url. — li

etcd集群部署与遇到的坑(转)

在k8s集群中使用了etcd作为数据中心,在实际操作中遇到了一些坑.今天记录一下,为了以后更好操作. ETCD参数说明 —data-dir 指定节点的数据存储目录,这些数据包括节点ID,集群ID,集群初始化配置,Snapshot文件,若未指定—wal-dir,还会存储WAL文件: —wal-dir 指定节点的was文件的存储目录,若指定了该参数,wal文件会和其他数据文件分开存储. —name 节点名称 —initial-advertise-peer-urls 告知集群其他节点url. — li