Scala安装配置

下载Scala安装包

Scala2.10.4安装包下载链接为:http://www.scala-lang.org/download/2.10.4.html

拷贝Scala2.10.4到/home/sparkuser/upload目录下

解压缩

[[email protected] ~]#cd /home/sparkuser/upload

[[email protected] upload]#tar -zxvf Scala2.10.4.tgz.gz

[[email protected] upload]#sudo mv Scala2.10.4 /app/

[[email protected] upload]#su

[[email protected] upload]#vim /etc/profile

export SCALA_HOME=/app/scala-2.10.4

export PATH=$PATH:${SCALA_HOME}/bin

#保存退出

#验证scala配置

[[email protected] upload]#exit

[[email protected] upload]#scala -version

时间: 2024-10-27 03:29:48

Scala安装配置的相关文章

docker中spark+scala安装配置

一.scala安装首先下载scala压缩包 wget https://downloads.lightbend.com/scala/2.11.7/scala-2.11.7.tgz 解压 tar -zxvf scala-2.11.7.tgz 移动目录 mv scala-2.11.7 /usr/local/ 改名 cd /usr/local/mv scala-2.11.7 scala 配置环境变量 vim /etc/profileexport SCALA_HOME=/usr/local/scalaex

1.Scala-概述-安装配置

Scala 安装配置   1.1 为什么选择 Scala   Scala 产生于瑞士的洛桑联邦理工学院( EPFL),是“ 可扩展语言” (Scalable Language)的缩写,Sala 是一门静态类型语言, 是一门以 Java 虚拟机为目标运行环境并将面向对象和函数式编程语言的最佳特性结合在一起的编程语言.你可以使用 Scala 编写出更加精简的程序, 也能用于构建大型复杂系统, 并且他可以访问任何 Java 类库并且与 Java 框架进行互操作. 1. 运行在 JVM 和 JavaSc

Scala下载安装配置(Mac)

---恢复内容开始--- 1.访问scala的官网这里下载最新版的scala. 2.解压缩文件包,可将其移动至/usr/local/share下 1 mv /download/scalapath /usr/local/share 3.修改环境变量,在mac下使用sudo su进入管理员权限,修改配置文件profile, 1 vim /etc/profile 在文件的末尾加入 1 export PATH="$PATH:/usr/local/share/scala/bin" :wq!保存退

spark1.1.0集群安装配置

和分布式文件系统和NoSQL数据库相比而言,spark集群的安装配置还算是比较简单的: 安装JDK,这个几乎不用介绍了(很多软件都需要JDK嘛) wget http://download.oracle.com/otn-pub/java/jdk/7u71-b14/jdk-7u71-linux-x64.tar.gz?AuthParam=1416666050_dca8969bfc01e3d8d42d04040f76ff1 tar -zxvf jdk-7u71-linux-x64.tar.gz 安装sc

ubuntu14.04中spark集群安装配置

一. Spark简介 Spark是一个通用的并行计算框架,由UCBerkeley的AMP实验室开发.Spark基于map reduce 算法模式实现的分布式计算,拥有Hadoop MapReduce所具有的优点:但不同于Hadoop MapReduce的是Job中间输出和结果可以保存在内存中,从而不再需要读写HDFS,节省了磁盘IO耗时,性能比Hadoop更快. 所以,相对来说Hadoop更适合做批处理,而Spark更适合做需要反复迭代的机器学习.下面是我在ubuntu14.04中配置Spark

spark安装配置

在装spark之前先装Scala  Scala 的安装在hadoop安装配置中已经介绍了 1.下载spark安装包 下载地址如下 http://spark.apache.org/downloads.html 我选择的是 spark-1.4.1-bin-hadoop2.6.tgz  放在/root/software 解压 tar zxvf  spark-1.4.1-bin-hadoop2.6.tgz 2.配置系统环境变量 vim /etc/profile export SPARK_HOME=/ro

Hive_on_Spark安装配置详解

简介 本文主要记录如何安装配置Hive on Spark,在执行以下步骤之前,请先确保已经安装Hadoop集群,Hive,MySQL,JDK,Scala,具体安装步骤不再赘述. 背景 Hive默认使用MapReduce作为执行引擎,即Hive on mr.实际上,Hive还可以使用Tez和Spark作为其执行引擎,分别为Hive on Tez和Hive on Spark.由于MapReduce中间计算均需要写入磁盘,而Spark是放在内存中,所以总体来讲Spark比MapReduce快很多.因此

spark集群安装配置

spark集群安装配置 一. Spark简介 Spark是一个通用的并行计算框架,由UCBerkeley的AMP实验室开发.Spark基于map reduce 算法模式实现的分布式计算,拥有Hadoop MapReduce所具有的优点:但不同于Hadoop MapReduce的是Job中间输出和结果可以保存在内存中,从而不再需要读写HDFS,节省了磁盘IO耗时,性能比Hadoop更快. 所以,相对来说Hadoop更适合做批处理,而Spark更适合做需要反复迭代的机器学习.下面是我在ubuntu1

Scala安装及开发环境搭建

最近想学习下scala,为后面转大数据做一些沉淀. 1. 首先保证jdk已经成功安装 2. 去官网下载scala安装程序 http://www.scala-lang.org/download/all.html 会列出不同的版本. 3. 安装scala  安装路径记得不要有空格否则可能会出现以下这种状况,还有,如果jkd版本不支持你安装的scala 也会出现下面的情况,需要升级jdk. 4. 安装成功后,环境变量 path中会自动加入路径,所以不需要自己配置,如果想根据自己的意思配置,则另行修改.