将spark默认日志log4j替换为logback

1.将jars文件夹下apache-log4j-extras-1.2.17.jar,commons-logging-1.1.3.jar, log4j-1.2.17.jar, slf4j-log4j12-1.7.16.jar

替换成log4j-over-slf4j-1.7.23.jar,logback-access-1.2.1.jar, logback-classic-1.2.1.jar, logback-core-1.2.1.jar。

2.将conf文件夹下的log4j.properties.template通过 log4j.properties Translator 转换成logback.xml即可

运行试例:

时间: 2024-08-06 15:41:04

将spark默认日志log4j替换为logback的相关文章

tomcat 日志log4j,slf4j,logback冲突

问题描述: 启动tomcat,发现tomcat无法启动,catalina.out有如下错误日志: INFO [localhost-startStop-1] org.apache.catalina.core.ApplicationContext.log Closing Spring root WebApplicationContext SEVERE [localhost-startStop-1] org.apache.catalina.core.StandardContext.listenerSt

从log4j日志无缝迁移至logback

logback对比log4j的有点在此就不赘述了. 由于在项目的原有代码中,大量的日志生成是通过log4j实现的,新的代码希望通过logback的方式生成日志,同时希望将老的代码在不修改的情况下直接将日志生成至logback指定配置中. log4j迁移到logback 此文中介绍了一种迁移方式,但是需要修改代码,此种迁移风险太高. <slf4j官方文档>传统桥接API 一文中介绍了使用log4j-over-slf4j.jar替代log4j.jar,通过桥接的方式将原有的日志生成至logback

log4j升级到logback

虽然现在log4j已经基本上不更新很久了,但实际上升级log4j到logback最大的难度并不在于本身的替换,而是现有大量的三方jar依然使用log4j,以至于无法100%的exclude掉,所以很有可能是无法做到纯粹将log4j升级到logback的.在我们的很多系统中,就如此. 如果是使用slf4j作为facade的话,是可以无缝的升级的,但是如果直接使用了Log4j中的类,恐怕就无能为力了. maven依赖: <dependency>              <groupId&g

Java日志:集成slf4j和logback

Java日志方案有很多,包括:java.util.logging.Apache的commons-logging和log4j.slf4j以及logback. 一个大型项目会用到众多第三方jar包,这些jar包可能会用到上述各种日志方案,如何在新的项目中使用slf4j+logback的组合,让所有其他jar包的日志也输出到logback,并避免冲突和异常? SLF4J is a simple facade for logging systems allowing the end-user to pl

从Log4j迁移到LogBack的理由

英文原文:Reasons to prefer logback over log4j 无论从设计上还是实现上,Logback相对log4j而言有了相对多的改进.不过尽管难以一一细数,这里还是列举部分理由为什么选择logback而不是log4j.牢记logback与log4j在概念上面是很相似的,它们都是有同一群开发者建立.所以如果你已经对log4j很熟悉,你也可以很快上手logback.如果你喜欢使用log4j,你也许会迷上使用logback. 更快的执行速度 基于我们先前在log4j上的工作,l

老系统中log4j切换到logback

基于SLF4J,可以无缝的将log4j切换到logback. 1.引入logback依赖 <slf4j-version>1.7.5</slf4j-version><log4j-over-slf4j-version>1.7.5</log4j-over-slf4j-version><logback-version>1.1.7</logback-version> ......<dependency>    <groupId

Spark设置日志级别

默认是INFO级别,输出内容太多,影响真正输出结果的查找,需要修改成 WARN 或 ERROR 级别 1 spark根目录conf/log4j.properties.template拷贝到工程的resources目录下,并改名成 log4j.properties 2 修改log4j.properties配置文件中的日志级别:如下红字ERROR,表示日志级别为ERROR # Set everything to be logged to the console log4j.rootCategory=

打造基于hadoop的网站日志分析系统(5)之spark在日志分析系统里的简单应用

1.下载spark和运行 wget http://apache.fayea.com/apache-mirror/spark/spark-1.0.0/spark-1.0.0-bin-hadoop2.tgz 我这里下载的是1.0.0版,由于我们只是测试spark的用法所以不需要配置spark集群,只需把下好的文件解压,进入bin/文件夹. spark支持scala,java和python. scala和java输入命令:./spark-shell python 输入命令 ./pyspark 进入控制

spring学习总结(mybatis,事务,测试JUnit4,日志log4j&amp;slf4j,定时任务quartz&amp;spring-task,jetty,Restful-jersey等)

在实战中学习,模仿博客园的部分功能.包括用户的注册,登陆:发表新随笔,阅读随笔:发表评论,以及定时任务等.Entity层设计3张表,分别为user表(用户),essay表(随笔)以及comment表(评论).表结构如下: 项目开发采用Intellij IDEA + maven,整个项目结构如下如下图所示: 在项目的pom.xml文件中,导入项目需要的依赖.pom.xml内容如下所示: 1 <project xmlns="http://maven.apache.org/POM/4.0.0&q