Boss7 Standalone模式开发配置

PS:以下配置均添加到standalone.xml文件中。

1.Get请求编码设置,将如下配置添加到标签之后

2.开启开发模式:搜索“urn:jboss:domain:web:1.1”,在此标签下添加如下配置:

3.虚拟域名设置

搜索“urn:jboss:domain:web:1.1”,在此标签下添加类似如下配置:

www.xxx.com">              
         www.xxx.com"/>

4.端口设置

5.“无聊”异常屏蔽

部署应用启动后,出现JBAS011054和JBAS011006警告:官方已经承认该警告为BUG,可以忽略,如果实在看着不习惯,可以配置log进行屏蔽:修改matser的domain.xml的日志配置(有多个地方需要修改)。

搜索“urn:jboss:domain:logging:1.1”,在此标签的子标签下添加如下配置:

EAP6.1屏蔽方式:

JBoss7.1.1屏蔽方式


6.数据源配置(Mysql)

(1).创建JBoss数据库组件:

a).创建目录$JBOSS_HOME/modules/com/mysql;

b).新建module.xml文件(此文件可参照jboss自带的h2创建);

c).将mysql的驱动包复制到此目录

PS:mysql-connector-java-5.1.34-bin.jar.index文件,JBoss启动时会自动创建。
module.xml文件内容如下:

(2).添加数据源
搜索“urn:jboss:domain:datasources:1.0”,仿照h2添加mysql数据源配置。

其中,pool-name任意取,jndi-name是程序中需要用到的名称。

7.MyEclipse 配置JBoss7

8.热部署配置(开发模式下)

搜索“urn:jboss:domain:deployment-scanner:1.1”,将scan-interval修改为0

9.JBOSS AS 7.1.1与7.1.0

a).7.1.1Bug描述

设置自动扫描为仅启动加载一次时,并开启开发模式(实测非必须),再以Debug模式启动,当修改jsp后,JBoss不能显示修改后的内容。

可通过jboss-as-web-7.1.1.Final-RECOMPILE.jar修复此Bug。

b).建议使用jboss-as-7.1.0.Final

时间: 2024-08-10 17:08:43

Boss7 Standalone模式开发配置的相关文章

在myeclipse中使用Java语言进行spark Standalone模式应用程序开发

一.环境配置 Myeclipse中虽然已经集成了maven插件,但是由于这个插件版本较低,建立maven project会出现错误. 解决办法:自己到官网http://maven.apache.org/下载最新版本的maven插件,解压,在环境变量中注册. 新建环境变量M2_HOME 在PATH里加入maven的bin的路径 配置完毕后,在Windows命令提示符下,输入mvn -v测试一下,配置成功显示如图: 配置成功后,还需要在Myeclipse中用新的maven插件将就得替换掉,如图: 二

jboss7开发配置指南

1      Jboss7下载与安装 1.1     官方下载 路径:http://www.jboss.org/jbossas/downloads,目前最新稳定版本为7.1.1 final,分别有zip和gz两个版本,本文介绍xp下的zip版本. 1.2     目录介绍与启动 把下载的zip包解压到相关目录,如目录E:/dev_tools/jboss7/,jboss7的目录结构与之前jboss其他版本大为不同,名称非常陌生,以下图所示: 1.2.1  目录介绍 目录  描述 bin Unix

【Spark】Spark的Standalone模式安装部署

Spark执行模式 Spark 有非常多种模式,最简单就是单机本地模式,还有单机伪分布式模式,复杂的则执行在集群中,眼下能非常好的执行在 Yarn和 Mesos 中.当然 Spark 还有自带的 Standalone 模式,对于大多数情况 Standalone 模式就足够了,假设企业已经有 Yarn 或者 Mesos 环境.也是非常方便部署的. local(本地模式):经常使用于本地开发測试,本地还分为local单线程和local-cluster多线程; standalone(集群模式):典型的

Spark新手入门——3.Spark集群(standalone模式)安装

主要包括以下三部分,本文为第三部分: 一. Scala环境准备 查看二. Hadoop集群(伪分布模式)安装 查看三. Spark集群(standalone模式)安装 Spark集群(standalone模式)安装 若使用spark对本地文件进行测试学习,可以不用安装上面的hadoop环境,若要结合hdfs使用spark,则可以参考上面的步骤搭建hadoop. 1. 下载安装包并解压(如:~/tools/spark-2.3.1-bin-hadoop2.7): 2. 启动服务 a.启动master

Spark Standalone模式

Spark Standalone模式 安装Spark Standalone集群 手动启动集群 集群创建脚本 提交应用到集群 创建Spark应用 资源调度及分配 监控与日志 与Hadoop共存 配置网络安全端口 高可用性 基于Zookeeper的Master 本地系统的单节点恢复 除了运行在mesos或yarn集群管理器中,spark也提供了简单的standalone部署模式.你可以通过手动启动master和worker节点来创建集群,或者用官网提供的启动脚本.这些守护进程也可以只在一台机器上以便

Nutch搜索引擎(第4期)_ Eclipse开发配置

1.环境准备 1.1 本期引言 前三期分别介绍了Nutch与Solr在Linux上面的安装,并做了简单的应用,这一期从开发的角度进行,因为我们日常最熟悉的开发环境是Windows,所以本期详细介绍Windows平台的Nutch二次开发所需要进行的配置安装.当我们开发好之后,最后在部署到Linux环境中. 为了方便以后Nutch开发以及软件安装的管理,我们对开发环境配置进行如下安排: E:/(盘符) |----cygwin |----NutchWorkPlat |----ant |----solr

Jlink V7在MDK下使用Cortex-M3-Jlink模式开发STM32的说明

Jlink V7在MDK下使用Cortex-M3-Jlink模式开发STM32的说明 开发环境:STM32F103RB(128K Flash 20K RAM)+MDK3.50+JLINK V7(v4.04) mdk3.50 新增一种cortex-ms-Jlink调试模式,可以很好地支持Jlink.Jlink-SWD调试,无RDI需要按复位的缺点.烧写速度比RDI慢一些. 1 软件安装 1.1 安装Segger jlink V4.04驱动 安装在c:\Program Files\SEGGER\JL

Spark2.1集群安装(standalone模式)

机器部署 准备三台Linux服务器,安装好JDK1.7 下载Spark安装包 上传spark-2.1.0-bin-hadoop2.6.tgz安装包到Linux(intsmaze-131)上 解压安装包到指定位置tar -zxvf spark-2.1.0-bin-hadoop2.6.tgz -C /home/hadoop/app/spark2.0/ 原文和作者一起讨论:http://www.cnblogs.com/intsmaze/p/6569036.html 微信:intsmaze 配置Spar

《连载 | 物联网框架ServerSuperIO教程》- 7.自控通讯模式开发及注意事项

感谢唯笑志在分享 原博主原地址:http://www.cnblogs.com/lsjwq/ 目       录 7. 自控通讯模式开发及注意事项... 2 7.1           概述... 2 7.2           通讯机制说明... 2 7.3           设备驱动开发注意事项... 3 7.3.1    实时发送数据... 3 7.3.2    发送固定实时请求数据命令... 4 7.3.3    优先发送其他数据... 4 7.3.4    如何选择IO通道发送数据..