nGrinder安装指南

NGrinder 由两个模块组成,其运行环境为 Oracle JDK 1.6

  • nGrinder controller  web 应用程序,部署在Tomcat 6.x 或更高的版本
  • nGrinder Agent     Java 应用程序

    安装程序下载地址:

     https://sourceforge.net/projects/ngrinder/files/ngrinder-3.2.3/

 

1.安装Controller

首先将nGrinder-controler.war 放在Tomcat 的webapps 目录下。

在Tomcat的启动文件catalina.sh/catalina.sh.bat 中设置如下参数可以使Controller更稳定快速运行!

JAVA_OPTS="-Xms600m -Xmx1024m -XX:MaxPermSize=200m"    # for catalina.sh

set JAVA_OPTS=-Xms600m -Xmx1024m -XX:MaxPermSize=200m  # for catalina.bat

现在就可以启动nGrinder-controller。如果你不想在浏览器里 输入 http://hostname:8080/ngrinder-controller

登录账号admin/admin ,可以将nGrinder-controler.war 改为 ROOT.war

2.安装Agent

   Agent作为一个Java应用程序,它可以做如下工作

1. 作为性能测试的一个监控服务器

2.作为执行测试脚本对目标站点进行测试的服务器

运行Agent很简单!

Windows:  ngrinder-core-{VersionNumber}-agent-package.zip  --> run_agent.bat

Linux:  ngrinder-core-{VersionNumber}-agent-package.tar.gz --> run_agent.sh

当Agent正常启动后,它会在用户目录下创建

${user.home}/.ngrinder_agent
例如本机 D:\Users\Administrator\.ngrinder_agent

然后,请在agent.conf 配置如下

#start.mode=monitor
#monitor.listen.port=13243
# If you want to monitor bind to the different local ip not automatically selected ip. Specify below field.
#monitor.host=hostname_or_ip

start.mode=agent
agent.console.ip=127.0.0.1
#agent.console.port=16001
#agent.region=
#agent.hostid=
#agent.servermode=true

# provide more agent java execution option if necessary.
#agent.javaopt=
# set following false if you want to use more than 1G Xmx memory per a agent process.
#agent.useXmxLimit=true
#agent.same.console.host=true
# please uncomment the following option if you want to send all logs to the controller.
#agent.send.all.logs=true

然后在重新运行!

下载地址:https://sourceforge.net/projects/ngrinder/files/ngrinder-3.2.3/

安装指南http://my.oschina.net/u/939534/blog/102878

问题解答http://ngrinder.642.n7.nabble.com/ngrinder-user-cn-f114.html

时间: 2024-12-16 16:06:08

nGrinder安装指南的相关文章

Spark1.0.0伪分布安装指南

?一.下载须知 软件准备: spark-1.0.0-bin-hadoop1.tgz   下载地址:spark1.0.0 scala-2.10.4.tgz    下载下载:Scala 2.10.4 hadoop-1.2.1-bin.tar.gz   下载地址:hadoop-1.2.1-bin.tar.gz jdk-7u60-linux-i586.tar.gz  下载地址:去官网下载就行,这个1.7.x都行 二.安装步骤 hadoop-1.2.1安装步骤,请看: http://my.oschina.

httpfs安装指南

安装环境 Linux maven3 jdk1.6 本地的maven源(有些依赖的jar包Cloudera已不再维护) 1.下载httfs源码包 https://github.com/cloudera/httpfs 使用git下载 git clone https://github.com/cloudera/httpfs.git 2.修改pom.xml文件 在<dependencies>中增加依赖 <dependency> <groupId>org.apache.hadoo

MyCAT安装指南

MyCAT安装指南 MyCAT 1.2版本 快速上手-安装指南(安装单机) Mycat的server和mysql位于同一台服务器,centos6.2.4环境 Mycat:10.191.116.175 Mysql:10.191.116.175 是用Java开发,需要有JAVA运行环境,mycat依赖jdk1.7的环境,若本机没有,则需要下载安装: http://www.java.com/zh_CN/ 获取MyCAT的最新开源版本,项目主页http://code.google.com/p/MyCAT

Ubuntu软件安装指南:dpkg、apt 与源码包安装

基础知识: 通常情况下,linux会这样放软件的组件(一般规范): 程序的文档->/usr/share/doc; /usr/local/share/doc 程序->/usr/share; /usr/local/share 程序的启动项->/usr/share/apps; /usr/local/share 程序的语言包->/usr/share/locale; /usr/local/share/locale 可执行文件->/usr/bin; /usr/local/bin 而有的软

Scrapy 1.4 文档 02 安装指南

安装 Scrapy Scrapy 运行在 Python 2.7 和 Python 3.3 或更高版本上. 如果您使用的是 Anaconda 或 Miniconda,则可以从 conda-forge 通道安装软件包,该通道具有适用于 Linux,Windows 和 OS X 的最新软件包. 使用 conda 安装 Scrapy,运行: conda install -c conda-forge scrapy 或者,如果您已经熟悉 Python 软件包的安装,可以从 PyPI 安装 Scrapy 及其

深度学习caffe:Ubuntu16.04安装指南(3)

caffe [完全版] 2017-01-19 配置如下: caffe + cuda8.0[GPU加速[只支持N卡]] + cudnn5.1 + opencv3.1 + python2.7 + boost58 , 主要参考了caffe官方教程 Ubuntu 16.04 or 15.10 Installation Guide 开始前,请先阅读: 深度学习caffe:Ubuntu16.04安装指南(2) 正式开始安装前,你需要一台已经安装好了Ubuntu16.04系统的电脑,然后/home分区最好有尽

P6 EPPM手动安装指南(Oracle数据库)(一)

P6 EPPM手动安装指南(Oracle数据库) P6 EPPM Manual Installation Guide (Oracle Database) 1.      内容... 1 1.1.         Oracle数据库手动配置的概述... 1 1.1.1.            Oracle数据库安装... 2 1.1.1.1.           创建数据库结构甲骨文和加载应用程序数据... 2 1.1.1.1.1.            创建P6 EPPM为Oracle数据库结构

网页版PPT快速安装指南

https://github.com/hakimel/reveal.js#installation 1.install Node.js brew install nodejs 2. install Grunt http://gruntjs.com/getting-started#installing-the-cli npm install -g grunt-cli npm install grunt --save-dev 3. Clone the reveal.js repository $ g

mac osx 系统 brew install hadoop 安装指南

mac osx 系统 brew  install hadoop 安装指南 brew install hadoop 配置 core-site.xml:配置hdfs文件地址(记得chmod 对应文件夹,否则无法正常启动hdfs)和namenode的rpc通行端口 配置mapred-site.xml  中的map reduce通信端口 配置hdfs-site.xml 中的datanode 副本数. 格式化hdfs文件系统 启动Hadoop 和 yarn  namenode  datanode  map