k8s实践18:helm部署安装grafana配置测试

grafana部署配置测试

grafana官网地址

1.helm部署grafana

部署很简单,见下

[[email protected] prometheus-grafana]# helm install stable/grafana --generate-name
NAME: grafana-1577432108
LAST DEPLOYED: Fri Dec 27 15:35:11 2019
NAMESPACE: default
STATUS: deployed
REVISION: 1
NOTES:
1. Get your ‘admin‘ user password by running:

   kubectl get secret --namespace default grafana-1577432108 -o jsonpath="{.data.admin-password}" | base64 --decode ; echo

2. The Grafana server can be accessed via port 80 on the following DNS name from within your cluster:

   grafana-1577432108.default.svc.cluster.local

   Get the Grafana URL to visit by running these commands in the same shell:

     export POD_NAME=$(kubectl get pods --namespace default -l "app=grafana,release=grafana-1577432108" -o jsonpath="{.items[0].metadata.name}")
     kubectl --namespace default port-forward $POD_NAME 3000

3. Login with the password from step 1 and the username: admin
#################################################################################
######   WARNING: Persistence is disabled!!! You will lose your data when   #####
######            the Grafana pod is terminated.                            #####
#################################################################################

注意这条:

1. Get your ‘admin‘ user password by running:

   kubectl get secret --namespace default grafana-1577432108 -o jsonpath="{.data.admin-password}" | base64 --decode ; echo

服务起来了

[[email protected] ~]# kubectl get svc,pod |grep grafana

service/grafana-1577432108                         ClusterIP   10.254.172.86    <none>        80/TCP          132m
pod/grafana-1577432108-65b987fdc6-dlhpb                         1/1     Running   1          132m

2.配置web访问

配置Ingress文件,读取执行,然后做host解析即可通过grafana-server访问web.

[[email protected] prometheus-grafana]# cat grafana-server-ingress.yaml
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
  name: grafana-server
  namespace: default
spec:
  rules:
  - host: grafana-server
    http:
      paths:
      - path: /
        backend:
          serviceName: grafana-1577432108
          servicePort: 80

3.登录

看前面第1部的注意,登录密码通过那个提示来获取.

[[email protected] prometheus-grafana]# kubectl get secret --namespace default grafana-1577432108 -o jsonpath="{.data.admin-password}" | base64 --decode ; echo
sLJq2G4tBSiJcEHSobRoRiDRbCNXxT5qASQJkzF6

用户名是:admin
密码是:sLJq2G4tBSiJcEHSobRoRiDRbCNXxT5qASQJkzF6

登录成功,图示见下:

4.添加数据源

添加prometheus源

http url是prometheus service的地址

[[email protected] prometheus-grafana]# kubectl get svc |grep server
prometheus-1577263826-server               ClusterIP   10.254.132.104   <none>        80/TCP          47h

保存配置.再点击dashboard.

再import,就可以看到图形界面了

5.选一个自己喜欢的想用的个性参数更多的界面

去grafana网站下载模板json文件导入即可.

监控节点模板

监控pod容器模板1

原文地址:https://blog.51cto.com/goome/2462539

时间: 2024-11-05 19:00:23

k8s实践18:helm部署安装grafana配置测试的相关文章

Hadoop0.21.0部署安装以及mapreduce测试

鉴于hadoop的需要...但是并不限于此...有时候闲输入密码麻烦,也可以用这种办法从一个节点通过ssh进入另一个节点... 设要使master进入slave是免密码的,则可以在master(ip为192.168.169.9)中如下操作: 命令:ssh-keygen -t rsa  然后一路回车(该命令不需要进入特定目录) cd进入/root/.ssh/可以看见如下(橙色是新生成的) id_rsa  id_rsa.pub  known_hosts 然后用scp命令将id_rsa远程传输到sla

k8s实践18:statefulset学习配置记录

1.基础概念 statefulset,可以翻译成有状态的设定. 和deployment的对比 deployment部署创建的pod是无状态的,重新调度pod,pod名字hostname,启动pod顺序删除pod顺序都是随机的.deployment使用的是共享存储,所有pod共用一个存储卷. statefulset部署创建的pod是有状态的,重新调度pod,pod名字hostname保持固定不变,启动pod顺序删除pod顺序都可以根据定义的顺序有序执行操作,有序的动态更新,statefulset使

k8s实践(十一):heapster+influxdb+grafana实现kubernetes集群监

环境说明: 主机名 操作系统版本 ip docker version kubelet version 配置 备注 master Centos 7.6.1810 172.27.9.131 Docker 18.09.6 V1.14.2 2C2G master主机 node01 Centos 7.6.1810 172.27.9.135 Docker 18.09.6 V1.14.2 2C2G node节点 node02 Centos 7.6.1810 172.27.9.136 Docker 18.09.

K8S实践Ⅹ(Helm)

一.Helm概述 1.Helm简介 helm类似于Linxu系统下的包管理工具,如yum.apt等,主要用于Kubernetes应用程序 Chart的创建.打包.发布以及创建和管理本地和远程的Chart仓库. 2.Helm组件 helm:本地客户端工具,主要用于kubernetes应用chart的创建/打包/发布以及创建和管理和远程Chart仓库. Tiller:helm的服务端,部署于kubernetes内,Tiller接受helm的请求,并根据chart生成kubernetes部署文件(he

Centos 6.4 KVM安装和配置

Centos 6.4 KVM安装和配置 测试使用环境: 服务器:Dell R710  CPU型号物理CPU颗数内存大小和数量 [[email protected] ~]# cat /proc/cpuinfo | grep name | cut -d: -f2 | uniq -c 16  Intel(R) Xeon(R) CPU           L5520  @ 2.27GHz [[email protected] ~]# cat /proc/cpuinfo | grep physical |

Spark(三): 安装与配置

参见 HDP2.4安装(五):集群及组件安装 ,安装配置的spark版本为1.6, 在已安装HBase.hadoop集群的基础上通过 ambari 自动安装Spark集群,基于hadoop yarn 的运行模式. 目录: Spark集群安装 参数配置 测试验证 Spark集群安装: 在ambari -service 界面选择 “add Service",如图: 在弹出界面选中spark服务,如图: "下一步”,分配host节点,因为前期我们已经安装了hadoop 和hbase集群,按向

k8s实践17:监控利器prometheus helm方式部署配置测试

监控利器prometheus helm方式部署配置测试 1.部署helm 部署helm参考方法 后面使用helm部署grafana和prometheus,因此首先需要部署helm,保证helm能正常使用. 部署helm客户端过程见下: [[email protected] helm]# curl https://raw.githubusercontent.com/helm/helm/master/scripts/get-helm-3 > get_helm.sh % Total % Receive

k8s实践(九):Helm and Kubeapps UI

环境说明: 主机名 操作系统版本 ip docker version kubelet version helm version 配置 备注 master Centos 7.6.1810 172.27.9.131 Docker 18.09.6 V1.14.2 v2.14.3 2C2G master主机 node01 Centos 7.6.1810 172.27.9.135 Docker 18.09.6 V1.14.2 v2.14.3 2C2G node节点 node02 Centos 7.6.18

使用Helm部署Prometheus和Grafana监控Kubernetes

使用Helm部署Prometheus和Grafana监控Kubernetes [TOC] 1. 环境说明 可用的kubernetes集群 可用的持久化存储 可用的helm 这里我们使用kubeapps管理charts. 2. 安装chart 安装时,适当修改values.yaml里的参数以适应自身的环境.我是设置持久化存储.ingress和证书secret. 安装Prometheus 安装成功后,注意提示页面的提示.同一namespace里,引用域名可只使用前面一段. 同理,安装stable/m