jumpserver0.3.2安装指南

  • 修改主机名

hostname jumpserver

  • 安装基础依赖包

yum install -y git python-pip mysql-devel gcc automake autoconf python-devel sshpass lrzsz readline-devel

yum install -y gmp-devel

yum install -y python-paramiko

  • 创建安装目录并准备软件包解压

上https://github.com/jumpserver/jumpserver下载zip包

mkdir /application

cd /application/

rz

unzip jumpserver-master.zip

  • 开始安装

根据需要安装数据库,如果没有数据库就安装,如果有的话就不安装,但需要创建jumpserver数据库并授权为USAGE,之后在配置文件中修改端口连接数据库

cd jumpserver-master/install/

pip install -r requirements.txt

pip freeze

python install.py

  • 替换web默认端口和数据库默认端口重启

sed -i "s#port = 8000#port = 9999#g" /application/jumpserver-master/jumpserver.conf

sed -i "s#port = 3306#port = 3319#g" /application/jumpserver-master/jumpserver.conf

sed -i "2i port  =  3319" /etc/my.cnf

  • 启动数据库和jumpserver

/etc/init.d/mysqld restart

./service.sh restart

  • 登录

之后输入ip:port访问jumpserver的web管理页面

初始用户admin,密码为[email protected]

时间: 2024-10-14 05:31:43

jumpserver0.3.2安装指南的相关文章

Spark1.0.0伪分布安装指南

?一.下载须知 软件准备: spark-1.0.0-bin-hadoop1.tgz   下载地址:spark1.0.0 scala-2.10.4.tgz    下载下载:Scala 2.10.4 hadoop-1.2.1-bin.tar.gz   下载地址:hadoop-1.2.1-bin.tar.gz jdk-7u60-linux-i586.tar.gz  下载地址:去官网下载就行,这个1.7.x都行 二.安装步骤 hadoop-1.2.1安装步骤,请看: http://my.oschina.

httpfs安装指南

安装环境 Linux maven3 jdk1.6 本地的maven源(有些依赖的jar包Cloudera已不再维护) 1.下载httfs源码包 https://github.com/cloudera/httpfs 使用git下载 git clone https://github.com/cloudera/httpfs.git 2.修改pom.xml文件 在<dependencies>中增加依赖 <dependency> <groupId>org.apache.hadoo

MyCAT安装指南

MyCAT安装指南 MyCAT 1.2版本 快速上手-安装指南(安装单机) Mycat的server和mysql位于同一台服务器,centos6.2.4环境 Mycat:10.191.116.175 Mysql:10.191.116.175 是用Java开发,需要有JAVA运行环境,mycat依赖jdk1.7的环境,若本机没有,则需要下载安装: http://www.java.com/zh_CN/ 获取MyCAT的最新开源版本,项目主页http://code.google.com/p/MyCAT

Ubuntu软件安装指南:dpkg、apt 与源码包安装

基础知识: 通常情况下,linux会这样放软件的组件(一般规范): 程序的文档->/usr/share/doc; /usr/local/share/doc 程序->/usr/share; /usr/local/share 程序的启动项->/usr/share/apps; /usr/local/share 程序的语言包->/usr/share/locale; /usr/local/share/locale 可执行文件->/usr/bin; /usr/local/bin 而有的软

Scrapy 1.4 文档 02 安装指南

安装 Scrapy Scrapy 运行在 Python 2.7 和 Python 3.3 或更高版本上. 如果您使用的是 Anaconda 或 Miniconda,则可以从 conda-forge 通道安装软件包,该通道具有适用于 Linux,Windows 和 OS X 的最新软件包. 使用 conda 安装 Scrapy,运行: conda install -c conda-forge scrapy 或者,如果您已经熟悉 Python 软件包的安装,可以从 PyPI 安装 Scrapy 及其

深度学习caffe:Ubuntu16.04安装指南(3)

caffe [完全版] 2017-01-19 配置如下: caffe + cuda8.0[GPU加速[只支持N卡]] + cudnn5.1 + opencv3.1 + python2.7 + boost58 , 主要参考了caffe官方教程 Ubuntu 16.04 or 15.10 Installation Guide 开始前,请先阅读: 深度学习caffe:Ubuntu16.04安装指南(2) 正式开始安装前,你需要一台已经安装好了Ubuntu16.04系统的电脑,然后/home分区最好有尽

P6 EPPM手动安装指南(Oracle数据库)(一)

P6 EPPM手动安装指南(Oracle数据库) P6 EPPM Manual Installation Guide (Oracle Database) 1.      内容... 1 1.1.         Oracle数据库手动配置的概述... 1 1.1.1.            Oracle数据库安装... 2 1.1.1.1.           创建数据库结构甲骨文和加载应用程序数据... 2 1.1.1.1.1.            创建P6 EPPM为Oracle数据库结构

网页版PPT快速安装指南

https://github.com/hakimel/reveal.js#installation 1.install Node.js brew install nodejs 2. install Grunt http://gruntjs.com/getting-started#installing-the-cli npm install -g grunt-cli npm install grunt --save-dev 3. Clone the reveal.js repository $ g

mac osx 系统 brew install hadoop 安装指南

mac osx 系统 brew  install hadoop 安装指南 brew install hadoop 配置 core-site.xml:配置hdfs文件地址(记得chmod 对应文件夹,否则无法正常启动hdfs)和namenode的rpc通行端口 配置mapred-site.xml  中的map reduce通信端口 配置hdfs-site.xml 中的datanode 副本数. 格式化hdfs文件系统 启动Hadoop 和 yarn  namenode  datanode  map