Spark SQL的介绍和DataFrame的建立及使用

1.

Spark SQL定位处理结构化数据的模块。SparkSQL提供相应的优化机制,并支持不同语言的开发API。
java、scala、Python,类SQL的方法调用(DSL)
2.

RDD与Spark SQL的比较说明:
  使用Spark SQL的优势:a.面向结构化数据;b.优化机制;
  RDD缺点:a.没有优化机制,如对RDD执行Filter操作;
     b.RDD类型转换后无法进行模式推断
3.

DataFrame/SchemaRDD
  DataFrame是一个分布式的数据集合,该数据集合以命名列的方式进行整合。
  Dateframe=RDD(数据集)+Schema(元数据/模型)
  SchemaRDD就是DataFrame的前身,在1.3.0版本后。
  DataFrame存放的是ROW对象。每个Row 对象代表一行记录。      

  SchemaRDD还包含记录的结构信息(即数据字段)
4.

创建Spark SQL环境
  a.将SparkSQL依赖库添加至pom.xml文件中
    <dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-sql_2.11</artifactId>
    <version>2.1.2</version>
    </dependency>
  b.创建SparkSQL Context-->SparkSession
    通过SparkSession.builder()创建构造器;
    并调用.appName("sparkSQL").master("local")设置集群模式以及app名称
    最后必须调用getOrCreate()方法创建SparkSession对象。
    val spark = SparkSession.builder().appName("sparkSQL").master("local").getOrCreate()
  c.加载外部数据源:
    通过SparkSession的read()方法加载不同的数据源:json、CVS、jdbc、textfile、parquert等
    val df = spark.read.textFile("file:///d:/测试数据/users.txt").toDF()
    df.show()

DF的创建方式

  

  (1)通过SparkSession的createDataFrame(...)方法创建DF对象
    a.将Seq序列转换为DF
    b.将RDD[Product]多元素转换为DF
  (2)通过SparkSession的read读取外部文件调用toDF()
  (3)通过导入隐式转换,可直接将Scala中的序列转换为DF
    val spark = SparkSession.builder().appName("sparkSQL").master("local").getOrCreate()
    import spark.implicits._
    val list = List(("zhangsan",12,"changchun"),("lilei",25,"haerbin"))
    val df_implicits = list.toDF()

 查看DF的Schema

1.案例说明:
  val rdd = sc.textFile("file:///d:/测试数据/users.txt").map(x=>x.split(" ")).map(x=>(x(0),x(1),x(2)))
  val df_rdd = spark.createDataFrame(rdd)
  df_rdd.show()
  df_rdd.select("_1","_2").where("_1 like ‘%o%‘").show()
  df_rdd.printSchema()
    root
      |-- _1: string (nullable = true)
      |-- _2: string (nullable = true)
      |-- _3: string (nullable = true)
  通过case用例类可以对DF进行Schema匹配
  case class Person(name:String,age:Int,address:String)

  val rdd = sc.textFile("file:///d:/测试数据/users.txt").map(x=>x.split(" ")).map(x=>new Person(x(0),x(1).toInt,x(2)))
  val df_rdd = spark.createDataFrame(rdd)
  df_rdd.printSchema()
    root
      |-- name: string (nullable = true)
      |-- age: integer (nullable = true)
      |-- address: string (nullable = true)
  df_rdd.show()
    +------+---+-------+
    | name|age|address|
    +------+---+-------+
    | anne| 22| NY|
    | joe| 39| CO|
    |alison| 35| NY|
    +------+---+-------+
2.实现简单的select操作
  df_rdd.select("name","age").where("name like ‘%o%‘").show()
    +------+---+
    | name|age|
    +------+---+
    | joe| 39|
    |alison| 35|
    | bob| 71|
    +------+---+

 DF的操作方式

1.显示:
  df_rdd.show()
2.查询:
  df_rdd.select("name").show()
3.条件查询:
  df_rdd.select($"name",$"age").where("name like ‘%o%‘").show() //注:引入spark.implicits._
    +------+---+
    | name|age|
    +------+---+
    | joe| 39|
    |alison| 35|
    | bob| 71|
    +------+---+
4.条件查询:
  df_rdd.select($"name",$"age"+1).where("name like ‘%o%‘").show() //$是scala的用法,需要隐式转换 import spark.implicits._
    +------+---------+
    | name|(age + 1)|
    +------+---------+
    | joe| 40|
    |alison| 36|
    | bob| 72|
    +------+---------+
5.过滤操作
  a.通过过滤表达式:
    df_rdd.filter("age > 36").show()
  b.通过func式编程进行处理,DF中每个元素均为ROW
    df_rdd.filter(x=>{if(x.getAs[Int]("age") > 36) true else false }).show()
6.分组操作
    df_rdd.groupBy("address").count().show
      +-------+-----+
      |address|count|
      +-------+-----+
      | OR| 2|
      | VA| 2|
      | CA| 2|
      | NY| 3|
      | CO| 1|
      +-------+-----+

原文地址:https://www.cnblogs.com/lyr999736/p/10202276.html

时间: 2024-11-05 14:40:18

Spark SQL的介绍和DataFrame的建立及使用的相关文章

spark sql 之 RDD与DataFrame互相转化

一.RDD转DataFrame 方法一:通过 case class 创建 DataFrames import org.apache.spark.SparkConf import org.apache.spark.SparkContext import org.apache.spark.sql.SQLContext object TestDataFrame { def main(args: Array[String]): Unit = { /** * 1.初始化 spark config */ v

Spark SQL初始化和创建DataFrame的几种方式

一.前述       1.SparkSQL介绍 Hive是Shark的前身,Shark是SparkSQL的前身,SparkSQL产生的根本原因是其完全脱离了Hive的限制. SparkSQL支持查询原生的RDD. RDD是Spark平台的核心概念,是Spark能够高效的处理大数据的各种场景的基础. 能够在Scala中写SQL语句.支持简单的SQL语法检查,能够在Scala中写Hive语句访问Hive数据,并将结果取回作为RDD使用.     2.Spark on Hive和Hive on Spa

Spark Sql的介绍

1.hive 与sparkSql比较 2.使用的语言 3.使用的框架 4.描述

第56课:Spark SQL和DataFrame的本质

一.Spark SQL与Dataframe Spark SQL之所以是除Spark core以外最大和最受关注的组件的原因: a) 能处理一切存储介质和各种格式的数据(你同时可以方便的扩展Spark SQL的功能来支持更多的数据类型,例如KUDO) b)Spark SQL 把数据仓库的计算能力推向了一个新的高度.不仅是无敌的计算速度(Spark SQL比Shark快了一个数量级,Shark比Hive快了一个数量级),尤其是在tungsten成熟以后会更加无可匹敌.更为重要的是把数据仓库的计算复杂

Spark SQL数据加载和保存实战

一:前置知识详解: Spark SQL重要是操作DataFrame,DataFrame本身提供了save和load的操作, Load:可以创建DataFrame, Save:把DataFrame中的数据保存到文件或者说与具体的格式来指明我们要读取的文件的类型以及与具体的格式来指出我们要输出的文件是什么类型. 二:Spark SQL读写数据代码实战: import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRD

Spark SQL数据载入和保存实战

一:前置知识具体解释: Spark SQL重要是操作DataFrame,DataFrame本身提供了save和load的操作. Load:能够创建DataFrame. Save:把DataFrame中的数据保存到文件或者说与具体的格式来指明我们要读取的文件的类型以及与具体的格式来指出我们要输出的文件是什么类型. 二:Spark SQL读写数据代码实战: import org.apache.spark.SparkConf; import org.apache.spark.api.java.Java

10.spark sql之快速入门

前世今生 Hive&Shark ??随着大数据时代的来临,Hadoop风靡一时.为了使熟悉RDBMS但又不理解MapReduce的技术人员快速进行大数据开发,Hive应运而生.Hive是当时唯一运行在Hadoop上的SQL-on-Hadoop工具. ??但是MapReduce计算过程中大量的中间磁盘落地过程消耗了大量的I/O,降低的运行效率.为了提高SQL-on-Hadoop的效率,大量的SQL-on-Hadoop工具开始产生,其中表现较为突出的是: MapR的Drill Cloudera的Im

Spark SQL, DataFrames and Datasets 指南

概述 Spark SQL 是 Spark 处理结构化数据的模块; 与基础的 Spark RDD API 不同, Spark SQL 提供的接口提供给 Spark 更多的关于数据和执行计算的结; 内在的, Spark SQL 使用这些额外的信息去执行额外的优化; 这里有几种包括 SQL 和 Datasets API 在内的与 Spark SQL 交互的方法; 当计算结果使用相同的执行引擎, 独立于你使用的表达计算的 API/语言; 这种统一意味着开发者可以依据哪种 APIs 对于给定的表达式提供了

Spark SQL和DataFrame的学习总结

1.DataFrame 一个以命名列组织的分布式数据集.概念上相当于关系数据库中一张表或在R / Python中的data frame数据结构,但DataFrame有丰富的优化.在spark 1.3之前,核心的新类型为RDD-schemaRDD,现改为DataFrame.spark 通过DataFrame操作大量的数据源,包括外部文件(如 json.avro.parquet.sequencefile 等等).hive.关系数据库.cassandra等. DataFrame与RDD区别: RDD以