20170317_ssh日志处理

log4j错误级别:

fatal:严重错误信息

error:错误信息

warn:警告信息

info:一般信息

debug:调试信息

log4j.properties

 1 ### direct log messages to stdout ###
 2 log4j.appender.stdout=org.apache.log4j.ConsoleAppender
 3 log4j.appender.stdout.Target=System.out
 4 log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
 5 log4j.appender.stdout.layout.ConversionPattern=%d{ABSOLUTE} %5p %c{1}:%L - %m%n
 6
 7 ### direct messages to file hibernate.log ###
 8 #log4j.appender.file=org.apache.log4j.FileAppender
 9 #log4j.appender.file.File=hibernate.log
10 #log4j.appender.file.layout=org.apache.log4j.PatternLayout
11 #log4j.appender.file.layout.ConversionPattern=%d{ABSOLUTE} %5p %c{1}:%L - %m%n
12
13 ### set log levels - for more verbose logging change ‘info‘ to ‘debug‘ ###
14
15 log4j.rootLogger=error, stdout
16
17 #log4j.logger.org.hibernate=info
18 #log4j.logger.org.hibernate=debug
19
20 ### log HQL query parser activity
21 #log4j.logger.org.hibernate.hql.ast.AST=debug
22
23 ### log just the SQL
24 #log4j.logger.org.hibernate.SQL=debug
25
26 ### log JDBC bind parameters ###
27 #log4j.logger.org.hibernate.type=info
28 #log4j.logger.org.hibernate.type=debug
29
30 ### log schema export/update ###
31 #log4j.logger.org.hibernate.tool.hbm2ddl=debug
32
33 ### log HQL parse trees
34 #log4j.logger.org.hibernate.hql=debug
35
36 ### log cache activity ###
37 #log4j.logger.org.hibernate.cache=debug
38
39 ### log transaction activity
40 #log4j.logger.org.hibernate.transaction=debug
41
42 ### log JDBC resource acquisition
43 #log4j.logger.org.hibernate.jdbc=debug
44
45 ### enable the following line if you want to track down connection ###
46 ### leakages when using DriverManagerConnectionProvider ###
47 #log4j.logger.org.hibernate.connection.DriverManagerConnectionProvider=trace

springTest.java

 1 package cn.itcast.oa.test;
 2
 3 import org.apache.commons.logging.Log;
 4 import org.apache.commons.logging.LogFactory;
 5 import org.hibernate.SessionFactory;
 6 import org.junit.Test;
 7 import org.springframework.context.ApplicationContext;
 8 import org.springframework.context.support.ClassPathXmlApplicationContext;
 9
10 public class SpringTest {
11
12     private ApplicationContext ac = new ClassPathXmlApplicationContext("applicationContext.xml");
13
14     private Log log = LogFactory.getLog(getClass());
15
16     @Test
17     public void testLog() throws Exception {
18         log.debug("这是debug信息");
19         log.info("这是info信息");
20         log.warn("这是warn信息");
21         log.error("这是error信息");
22         log.fatal("这是fatal信息");
23     }
24
25     //测试SessionFactory
26     @Test
27     public void testSessionFactory() throws Exception {
28         SessionFactory sessionFactory = (SessionFactory) ac.getBean("sessionFactory");
29         System.out.println(sessionFactory);
30     }
31
32     //测试Transaction
33         @Test
34         public void testTransaction() throws Exception {
35             TestService testService = (TestService) ac.getBean("testService");
36             testService.saveTwoUser();
37         }
38 }

jsp为什么放在web-inf下面:

为了不让直接访问到,jsp是一个半成品,是一个用来显示数据的模板,直接访问得到的是一个不完整的页面。

资源分类:

=========================================================================、

第一段:设计BaseDao

BaseDao测试:

========================================================================================

第二段:设计BaseDaoImpl

=================================================================

第三段:实现具体方法

在子类实现上加@Repr

下图是子类实现的演示: getSession()直接调用即可。

时间: 2024-07-30 03:21:23

20170317_ssh日志处理的相关文章

winform学习日志(二十三)---------------socket(TCP)发送文件

一:由于在上一个随笔的基础之上拓展的所以直接上代码,客户端: using System; using System.Collections.Generic; using System.ComponentModel; using System.Data; using System.Drawing; using System.Linq; using System.Text; using System.Windows.Forms; using System.Net.Sockets; using Sys

MySQL binlog日志恢复数据

我们了解了MySQL 的 binlog 日志的开启方式以及 binlog 日志的一些原理和常用操作,我们知道,binlog 有两大作用,一个是使用 binlog 恢复数据,另一个就是用来做主从复制.本篇笔记就是来记录如何使用 binlog 日志来做数据恢复.当然了,使用 binlog 日志所恢复的数据只能是部分数据,并不能够使用 binlog 日志来做数据库的备份,如果想要做数据库备份,依然要使用我们传统的备份方法,而 binlog 可以作为增量备份. 视频链接:http://www.ronco

sparkStreaming结合sparkSql进行日志分析

package testimport java.util.Propertiesimport org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{SQLContext, SaveMode}import org.apache.spark.streaming.Secondsimport org.apache.spark.streaming.StreamingContext

ELK 日志分析系统

架构如下,logstash-agent ---->redis---->logstash-server----->elasticsearch---->kibana 需求:想收集多个log文件,例如/var/log/messages,  /var/log/logstash/logstash.err  两个日志文件: logstash     input和output  如何写, input { file  { path => "/var/log/messages&quo

log4j日志基本配置

Log4j有三个主要的组件:Loggers(记录器),Appenders (输出源)和Layouts(布局).这里可简单理解为日志类别,日志要输出的地方和日志以何种形式输出.综合使用这三个组件可以轻松地记录信息的类型和级别,并可以在运行时控制日志输出的样式和位置. 1.Loggers Loggers组件在此系统中被分为五个级别:DEBUG.INFO.WARN.ERROR和FATAL.这五个级别是有顺序的,DEBUG < INFO < WARN < ERROR < FATAL,分别用

【Docker常见问题2】如何设置容器日志大小和保留个数

举例:当tomcat容器的运行,容器占用空间越来越大,约1个月就会超过2G,如何解决? 步骤1:查看容器日志大小:假设容器目录为/var/lib/docker/containers,那么执行如下命令 cd /var/lib/docker/containers  #进入默认容器空间目录 du -sh *            #统计文件大小2.4G  de92a5643f7ffb106f8abba21fc0f93996842917a52879153adc95a73312934a-json.log

ABP官方文档翻译 4.6 审计日志

审计日志 介绍 关于IAuditingStore 配置 通过特性启用/禁用 注意事项 介绍 维基百科:“审计追踪(也称为审计日志)是与安全相关的按时间先后的记录.记录集合.记录的目的地和源,提供一系列活动的纪实证据,这些活动可能在任何时刻影响一个特定操作.过程或事件.” ABP提供了基础设施自动记录应用所有的交互.它可以记录方法调用的调用者和参数. 基本上,保存的字段有:相关的tenant id,调用者user id,调用者service name(调用方法的类),调用者method name,

Log4j日志框架

引入依赖 在maven远程仓库引入依赖 <dependencies> <dependency> <groupId>log4j</groupId> <artifactId>log4j</artifactId> <version>1.2.17</version> </dependency> </dependencies> 配置文件 在 src/main/resources 目录下新建配置文件

日志应该满足的要求

中文: 时间戳-  表示事件何时发生 格式化- 日志行应该容易让人理解,同时便于程序解析 日志地点- 它应该是标准输出和错误,应用不需要关心日志的地点 日志等级- 日志事件应该有不同的服务等级,大部分情况下我们比较关心debug 和info 级别的事件 英文: timestamps - it is crucial to know which event happened when, formatting - log lines must be easily understandable by h