Saiku数据库迁移后的刷新脚本-Shell脚本读取数据库中的数据(二十三)

Saiku数据库迁移后的刷新脚本

之前有谈过对saiku中的数据进行刷新,因为saiku默认会从缓存中查询数据,但是配置不使用缓存又会效率低下...

所以这里就需要做一个数据刷新,每次ETL之后都需要执行一遍数据刷新脚本。

刷新脚本主要分为两部分

1.使用shell命令从数据库中读取已有的用户信息 (因为已经做过数据迁移,数据库已经从h2转为我们自己的mysql)

saikuRefresh.sh

#!/bin/bash

#数据库连接信息
HOSTNAME="10.11.22.33"  #数据库信息
PORT="3306"
USERNAME="root"
PASSWORD="root"
DBNAME="saiku"  #数据库名称
TABLENAME="users" #数据库中表的名称

#查詢數據
select_sql="select username from ${TABLENAME}"
mysql -h${HOSTNAME} -P${PORT} -u${USERNAME} -p${PASSWORD} ${DBNAME} -e "${select_sql}"

 使用命令 sh  saikuRefresh.sh 执行脚本,即会看到已有的用户信息

2. 循环取出用户信息,然后分别对每个用户执行刷新缓存命令 (以下便是完整的 saikuRefresh.sh 脚本信息)

>>> 接收shell脚本查询数据库的查询结果:  query_result=`mysql -h${HOSTNAME} -P${PORT} -u${USERNAME} -p${PASSWORD} ${DBNAME} -e "${select_sql}"`    #注意这个` `符号不要丢哦

>>> shell判断文件是否存在:

 if [ -f  ‘/app/Saiku/saiku_rfresh.txt‘ ] ; then

  echo ‘exists!!!.‘
fi

>>> shell判断字符串是否相等:

if [ "hello" != "hello" ] ; then
  echo ‘equals!!!‘
fi

>>>shell循环取出数据:

for currusername in $query_result;
do
  echo $currusername
done;

#!/bin/bash

#数据库连接信息
HOSTNAME="10.22.33.44"  #数据库信息
PORT="3306"
USERNAME="root"
PASSWORD="root"
DBNAME="report"  #数据库名称
TABLENAME="users" #数据库中表的名称

#cookies存储文件相关信息
dir=`pwd` #得到当前目录
filename=/saikuUserCookie.txt
filePath=${dir}${filename}

#查詢數據
select_sql="select username from ${TABLENAME}"
mysql -h${HOSTNAME} -P${PORT} -u${USERNAME} -p${PASSWORD} ${DBNAME} -e "${select_sql}"

#使用变量query_result接收查询结果 所有用户名
query_result=`mysql -h${HOSTNAME} -P${PORT} -u${USERNAME} -p${PASSWORD} ${DBNAME} -e "${select_sql}"`

#根据用户名进行统一刷新当前用户
for currusername in $query_result;
do
    if [ -f $filePath ] ; then
        rm -rf $filePath
        echo ‘The saikuUserCookie.txt exists,old saikuUserCookie.txt is removed.‘
    fi

    if [ $currusername != "username" ] ; then
        echo ‘Begin to get new Cookie into saikuUserCookie.txt.‘
	curl -c ./saikuUserCookie.txt -d "language=zh&password=password124&username=$currusername" http://10.22.33.44:8080/saiku/rest/saiku/session
	curl -b ./saikuUserCookie.txt "http://10.22.33.44:8080/saiku/rest/saiku/$currusername/discover/refresh" 1>saiku_refresh_data.txt
	echo $currusername ‘ refresh OK............‘ 1>>saiku_refresh_data.txt
	echo ‘---------------------‘ $currusername ‘refresh finished! ---------------------‘
    fi
done;

  

原文地址:https://www.cnblogs.com/DFX339/p/10712204.html

时间: 2024-10-26 03:15:03

Saiku数据库迁移后的刷新脚本-Shell脚本读取数据库中的数据(二十三)的相关文章

linux下监视进程挂掉后自动重启的shell脚本

本文介绍的这个shell脚本,通过一个while-do循环,用ps -ef|grep 检查loader进程是否正在运行,如果没有运行,则启动,确保崩溃挂掉的进程,及时自动重启. 脚本内容如下: #!/bin/sh while : do echo "Current DIR is " $PWD stillRunning=$(ps -ef |grep "$PWD/loader" |grep -v "grep") if [ "$stillRun

openvswitch 2.1.2 安装完成后 启动 与 停止 shell脚本

openvswitch 2.1.2 安装完成后,会经常遇到启动与停止的情况,为了避免重复手写启动停止的终端代码,最好将其写在不同的脚本里,方便下次调用.前提是已经安装好了openvswitch,并按照下面到语句建立好了数据库conf.db mkdir -p /usr/local/etc/openvswitch ovsdb-tool create /usr/local/etc/openvswitch/conf.db vswitchd/vswitch.ovsschema 开始脚本: ovsdb-se

linux下监视进程 崩溃挂掉后自动重启的shell脚本

如何保证服务一直运行?如何保证即使服务挂掉了也能自动重启?在写服务程序时经常会碰到这样的问题.在Linux系统中,强大的shell就可以很灵活的处理这样的事务. 下面的shell通过一个while-do循环,用ps -ef|grep 检查loader进程是否正在运行,如果没有运行,则启动,这样就保证了崩溃挂掉的进程重新被及时启动. 必须注意两点: 1.ps |grep 一个进程时必须加上其路劲,否则容易grep到错误的结果: 2.必须用 -v 从结果中去除grep命令自身,否则结果非空. 复制代

使用 Code First 数据库迁移

当 Entity Framework Code First 的数据模型发生改变时,默认会引发一个System.InvalidOperationException 的异常.解决方法是使用DropCreateDatabaseAlways 或DropCreateDatabaseIfModelChanges,让Entity Framework 自动将数据库删除,然后重新创建.不过,这种方式过于残暴,应该使用更人性化的方式,让Entity Framework 帮助我们自动调整数据库架构.并且仍然保留现有数

Code First 数据库迁移

当 Entity Framework Code First 的数据模型发生改变时,默认会引发一个System.InvalidOperationException 的异常.解决方法是使用DropCreateDatabaseAlways 或DropCreateDatabaseIfModelChanges,让Entity Framework 自动将数据库删除,然后重新创建.不过,这种方式过于残暴,应该使用更人性化的方式,让Entity Framework 帮助我们自动调整数据库架构.并且仍然保留现有数

ASP.NET MVC5--为数据库新增字段(涉及数据库迁移技术)

Setting up Code First Migrations for Model Changes--为模型更改做数据库迁移. 1.打开资源管理器,在App_Data文件夹下,找到movies.mdf数据库文件,如果没有看到点击显示所有文件. 2.删掉movies.mdf数据库文件,并编译项目.确保没有报错. 3.找到工具菜单栏下面的NuGet程序包管理器---程序包管理器控制台,如图所示: 4,在程序包管理器控制台中,输入:Enable-Migrations -ContextTypeName

使用shell分页读取600万+的MySQL数据脚本

shell-mysql  (1)脚本背景:  由于要在Linux上,远程读取mysql的表的数据,然后做一定清洗后,把数据上传至Hadoop集群中,使用Java写吧,感觉太麻烦了,得在Win上开发好,还得打成jar包, 上传到Linux上,如果那里出了问题,还得重复这样,非常不方便,那就用shell写一个吧,也不需要什么jdbc驱动包,只需要在Linux上装个MySQL的 客户端即可,用一行yum命令即可搞定,所以就花了点时间,封装了一个小脚本 (2)功能介绍:  直接在Linux下使用shel

Shell脚本使用汇总整理

一.Shell脚本常用的头部格式: 头部的作用就是告知linux此脚本的类型: 常用的头部格式如下:(/bin/bash,是bash的路径,如果不知道路径可以通过which bash进行查看,其它命令的路径也是类似查看的) (1)#!/bin/bash:普通的linux脚本,也是最常用的,不需要交互: (2)#!/usr/bin/expect:可以自动交互的linux脚本,有可能需要安装expect,如果linux服务器上没有此expect命令的话. 二.Shell脚本中如何执行Linux或自定

shell脚本基础、变量

shell脚本基础 知识要点 掌握Shell脚本的基础知识 学会使用Shell变量 学会编写简单的Shell脚本 Shell脚本的应用环境 学习shell脚本的基本流程 看.想.写 shell脚本用在什么地方 编写常用系统维护工具菜单 重要的性能参数.进程和日志分析 自动实现数据备份计划 自动批量搭建特定系统环境 防火墙自动配置脚本 服务器的配置文件安全比对 对批量设备进行远程巡检 Shell脚本的组成元素 shell脚本的基本组成 声明和注释* 系统命令 文本处理工具(grep.cut.sed