在cdh5.3中的spark,已经包含了sparksql,只需要做以下几步配置,就可以在使用该功能
1)确保hive的cli和jdbc都可以正常工作
2)把hive-site.xml 复制到 SPARK_HOME/conf目录下
3)将hive的类库添加到spark classpath中:编辑 SPARK_HOME/bin/compute-classpath.sh文件
在文件中添加CLASSPATH="$CLASSPATH:/opt/cloudera/parcels/CDH-5.3.0-1.cdh5.3.0.p0.30/lib/hive/lib/*"
(根据自己hive的安装位置添加路径,这是安装时的hive类库目录)
4)重启spark让配置生效
时间: 2024-08-11 07:49:01