Scala 元组

与列表一样,元组也是不可变的,但与列表不同的是元组可以包含不同类型的元素。

元组的值是通过将单个的值包含在圆括号中构成的。例如:

val t = (1, 3.14, "Fred")  

以上实例在元组中定义了三个元素,对应的类型分别为[Int, Double, java.lang.String]。

此外我们也可以使用以上方式来定义:

val t = new Tuple3(1, 3.14, "Fred")

元组的实际类型取决于它的元素的类型,比如 (99, "runoob") 是 Tuple2[Int, String]。 (‘u‘, ‘r‘, "the", 1, 4, "me") 为 Tuple6[Char, Char, String, Int, Int, String]。

目前 Scala 支持的元组最大长度为 22。对于更大长度你可以使用集合,或者扩展元组。

访问元组的元素可以通过数字索引,如:

val t = (4,3,2,1)

我们可以使用 t._1 访问第一个元素, t._2 访问第二个元素,如下所示:

object Test {
   def main(args: Array[String]) {
      val t = (4,3,2,1)

      val sum = t._1 + t._2 + t._3 + t._4

      println( "元素之和为: "  + sum )
   }
}

  

执行以上代码,输出结果为:

$ scalac Test.scala
$ scala Test
元素之和为: 10

迭代元组

你可以使用 Tuple.productIterator() 方法来迭代输出元组的所有元素:

object Test {
   def main(args: Array[String]) {
      val t = (4,3,2,1)
      t.productIterator.foreach{ i =>println("Value = " + i )}
   }
}

执行以上代码,输出结果为:

$ scalac Test.scala
$ scala Test
Value = 4
Value = 3
Value = 2
Value = 1

元组转为字符串

你可以使用 Tuple.toString() 方法将元组的所有元素组合成一个字符串,实例如下:

object Test {
   def main(args: Array[String]) {
      val t = new Tuple3(1, "hello", Console)
      println("连接后的字符串为: " + t.toString() )
   }
}

  

执行以上代码,输出结果为:

$ scalac Test.scala
$ scala Test
连接后的字符串为: (1,hello,[email protected])

元素交换

你可以使用 Tuple.swap 方法来交换元组的元素。如下实例:

object Test {
   def main(args: Array[String]) {
      val t = new Tuple2("www.google.com", "www.runoob.com")
      println("交换后的元组: " + t.swap )
   }
}

  

执行以上代码,输出结果为:

$ scalac Test.scala
$ scala Test
交换后的元组: (www.runoob.com,www.google.com)
时间: 2024-10-05 23:27:06

Scala 元组的相关文章

scala元组

映射是二元的元组,元组是不同类型的值得聚集 元组   () val g=(1,1.2,'A') val h=g._1 或者 val h=g空格_1 元组把多个值捆绑在一起,以便scala可以一起处理到 #zip 把集合结合 val one=Array('a','b','c') val tow=Array(1,2,3) one.zip(two)   one zip two   //二维数组 val four=one.zip(two).toMap  val four=one zip two toMa

Scala 元组(tuple)

元组是不同类型的值的聚集.元组和列表不同,列表中各个元素必须是相同类型,而元组可以包含不同类型的元素. scala> val tuple=("hadoop",1,"101",0.2) tuple: (String, Int, String, Double) = (hadoop,1,101,0.2) 注意元组下标是从1开始,下面给出元组元素获取方法 scala> tuple._1 res17: String = hadoop scala> tuple

大数据技术之_27_电商平台数据分析项目_02_预备知识 + Scala + Spark Core + Spark SQL + Spark Streaming + Java 对象池

第0章 预备知识0.1 Scala0.1.1 Scala 操作符0.1.2 拉链操作0.2 Spark Core0.2.1 Spark RDD 持久化0.2.2 Spark 共享变量0.3 Spark SQL0.3.1 RDD.DataFrame 与 DataSet0.3.2 DataSet 与 RDD 互操作0.3.3 RDD.DataFrame 与 DataSet 之间的转换0.3.4 用户自定义聚合函数(UDAF)0.3.5 开窗函数0.4 Spark Streaming0.4.1 Dst

Spark SQL应用解析

一  Spark SQL概述 1.1 什么是Spark SQL Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个编程抽象叫做DataFrame并且作为分布式SQL查询引擎的作用. Hive是将Hive SQL转换成MapReduce然后提交到集群上执行,大大简化了编写MapReduce的程序的复杂性,由于MapReduce这种计算模型执行效率比较慢.所有Spark SQL的应运而生,它是将Spark SQL转换成RDD,然后提交到集群执行,执行效率非常快! 1.易整合 2

3. Spark SQL解析

3.1 新的起始点SparkSession 在老的版本中,SparkSQL提供两种SQL查询起始点,一个叫SQLContext,用于Spark自己提供的SQL查询,一个叫HiveContext,用于连接Hive的查询,SparkSession是Spark最新的SQL查询起始点,实质上是SQLCotext和HiveContext的组合,所以在SQLContext和HiveContext上可用的API在SparkSession上同样是可以使用的.SparkSession内部封装了sparkConte

【翻译】Flink Table 和 SQL API 概念与通用API

本文翻译自官网:https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/common.html Table API和SQL集成在共同API中.该API的中心概念是Table,用作查询的输入和输出.本文档介绍了使用Table API和SQL查询的程序的通用结构,如何注册 Table,如何查询Table以及如何发出 Table(数据). 两个 planner 之间的主要区别 表API和SQL程序的结构 创建一个Tab

Scala--第二天

一.Scala中有方法和函数俩种技术 1.方法 定义:def 方法名(参数名:参数类型,参数名:参数类型):[返回值类型] = { 方法体 } e.g: 1 def test1(): Unit = { 2 println("我是一个方法") 3 } 4 //return需要同返回值类型一起使用,不可独立存在 5 def test2(x: Int, y: Int): Int = { 6 return x + y 7 } 8 //返回值类型可以省略 ,Scala会根据方法体的最后一行内容进

Scala:映射和元组

映射是键值对偶的集合.Scala有一个通用的叫法——元组:n个对象的聚集,并不一定要相同的类型. 构造映射 键A -> 值B scala> val scores = Map("wcc100"->100)//不可变映射 scores: scala.collection.immutable.Map[String,Int] = Map(wcc100 -> 100) scala> val scores1 = scala.collection.mutable.Map

scala学习手记5 - 元组与多重赋值

假定要在一个方法中返回多个值.比如需要返回一个人的名.姓和邮箱地址.在Java中最常用的方法是定义一个Person类,其中包括相对应的字段:还有些不常用的方法就是返回一个集合或数组,拿到结果后再进行循环取值.在Scala中我们又多一个选择:元组. 元组是一个不可变的对象序列,可以使用逗号分隔的值进行创建,比如这个有3个对象的元组:("robin", "zhang", "[email protected]"). 元组的一个特性就是多重赋值,就是可以