spark2.1与hadoop2.7.3集成,spark on yarn模式下,需要对hadoop的配置文件yarn-site.xml增加内容,如下:
<property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> <property> <name>yarn.log.server.url</name> <value>http://node2:19888/jobhistory/logs</value> </property> <property> <name>yarn.nodemanager.pmem-check-enabled</name> <value>false</value> </property> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property>
1、我先运行一个spark程序
bin/spark-shell --master local
2、登录Spark History server的web ui
http://node1:18080/
3、如下图,找到我刚才运行的程序
4、点击红框位置App ID,进入如下图页面
5、点击红框位置Executor,进入下图页面
6、右下角的stderr和stdout就是我们此行的目标了
<property> <name>yarn.log.server.url</name> <value>http://node2:19888/jobhistory/logs</value> </property>
当你点击stderr或stdout,就会重定向到node2:19888。如下图
时间: 2024-12-11 20:22:27