A master URL must be set in your configuration问题解决方法

 1 Using Spark‘s default log4j profile: org/apache/spark/log4j-defaults.properties
 2 16/10/21 18:13:00 INFO SparkContext: Running Spark version 2.0.0
 3 16/10/21 18:13:02 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
 4 16/10/21 18:13:04 ERROR SparkContext: Error initializing SparkContext.
 5 org.apache.spark.SparkException: A master URL must be set in your configuration
 6     at org.apache.spark.SparkContext.<init>(SparkContext.scala:371)
 7     at SummaryStatisticsExample$.main(SummaryStatisticsExample.scala:17)
 8     at SummaryStatisticsExample.main(SummaryStatisticsExample.scala)
 9     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
10     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
11     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
12     at java.lang.reflect.Method.invoke(Method.java:606)
13     at com.intellij.rt.execution.application.AppMain.main(AppMain.java:147)
14 16/10/21 18:13:04 INFO SparkContext: Successfully stopped SparkContext
15 Exception in thread "main" org.apache.spark.SparkException: A master URL must be set in your configuration
16     at org.apache.spark.SparkContext.<init>(SparkContext.scala:371)
17     at SummaryStatisticsExample$.main(SummaryStatisticsExample.scala:17)
18     at SummaryStatisticsExample.main(SummaryStatisticsExample.scala)
19     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
20     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
21     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
22     at java.lang.reflect.Method.invoke(Method.java:606)
23     at com.intellij.rt.execution.application.AppMain.main(AppMain.java:147)
24
25
26 Process finished with exit code 1

在第5行位置提示:A master URL must be set in your configuration

解决方法:

Run->Edit Configurations->Configuration界面下,将VM-optionsz设置为“-Dspark.master=local”

时间: 2024-12-14 19:05:44

A master URL must be set in your configuration问题解决方法的相关文章

jquery.ajax的url中传递中文乱码问题的解决方法

jquery.ajax的url中传递中文乱码问题的解决方法 JQuery JQuery默认的contentType:application/x-www-form-urlencoded 这才是JQuery正在乱码的原因,在未指定字符集的时候,是使用ISO-8859-1 ISO8859-1,通常叫做Latin-1.Latin-1包括了书写所有西方欧洲语言不可缺少的附加字符. JQuery的Ajax根本没有考虑到国际化的问题,使用了欧洲的字符集,所以才引起了传递中文出现乱码的问题. 而我们的UTF-8

获取网页URL地址及参数等的两种方法(js和C#)

转:获取网页URL地址及参数等的两种方法(js和C#) 一 js 先看一个示例 用javascript获取url网址信息 <script type="text/javascript"> document.write("location.host="+location.host+"<br>"); document.write("location.hostname="+location.hostname+&

thinkphp在IIS7.5+环境下部署出现的URL重写问题解决方法

简单点说,就是需要安装微软本身的url重写插件,可以使用IIS自带的web安装平台去查找安装.如果未安装这个平台,请自行百度搜索. 安装完成后,重启下IIS,在相应站点的IIS设置里会看到URL Rewrite 创建一个空的重写规则 然后在网站的根目录下,找到web.config文件打开 <rewrite>  <rules>  <rule name="OrgPage" stopProcessing="true">  <mat

url中向后台传递中文乱码解决方法

1.jsp中代码 var userNo = $('#prisoner_id').val();      userNo = encodeURI(userNo);      allPrisonerGrid.datagrid('options').url = 'mobilemanage!allPrisonerPage.action?test=' + userNo;      allPrisonerGrid.datagrid('reload'); 2.action中代码 String userNo =

当shiro做成动态URL管理时出现循环注入BeanCurrentlyInCreationException的问题解决方法

<!-- Shiro的Web过滤器 --> <bean id="shiroFilter" class="org.apache.shiro.spring.web.ShiroFilterFactoryBean"> <property name="securityManager" ref="securityManager"/> </bean> <bean class="

vue_相同组件,不同url跳转不重新渲染的解决方法

最近写的这个项目,有很多下拉菜单,每个菜单会有相应的两种类型.现在产品的需求是,跳转到不同的类型 需要页面重新渲染数据 那么问题来了. 我试了好几种方法,用watch监听路由去判断,但是发现输在input里面的值是不会被替换掉的 所以想到了用key 去如果不使用key,Vue会使用一种最大限度减少动态元素并且尽可能的尝试修复/再利用相同类型元素的算法.使用key,它会基于key的变化重新排列元素顺序,并且会移除key不存在的元素. 因为工作性质,不能贴代码 所以 <router-view v-i

大数据常见错误

1.用./bin/spark-shell启动spark时遇到异常:java.net.BindException: Can't assign requested address: Service 'sparkDriver' failed after 16 retries! 解决方法:add export SPARK_LOCAL_IP="127.0.0.1" to spark-env.sh 2.java Kafka producer error:ERROR kafka.utils.Util

大数据常见错误解决方案(转载)

1.用./bin/spark-shell启动spark时遇到异常:java.net.BindException: Can't assign requested address: Service 'sparkDriver' failed after 16 retries! 解决方法:add export SPARK_LOCAL_IP="127.0.0.1" to spark-env.sh 2.java Kafka producer error:ERROR kafka.utils.Util

在IntelliJ中运行Spark Demo时遇到的问题及解决办法

这一阶段主要是在学习Scala,知乎上说推荐先学习一下Haskell再学习Scala,但我觉得不一定要曲线救国.不过在学习过程中遇到的困难的确不少,好歹Scala是公认的其特性的复杂程度是要超过C++的嘛:-) 我学习Scala的主要动机是想研究Spark,尽管Python和Java等都可以用来开发Spark应用,但是Spark本身就是一个Scala项目,而且Spark也不能算是一个成熟的产品,也许在我遇到问题的时候用Scala可以更加高效的解决问题 今天初步看了部分Spark的官方文档,在In