第42讲:Scala中泛型类、泛型函数、泛型在Spark中的广泛应用

今天来了解下scala的泛型

先让我们看下这段代码

  class Triple[F,S,T](val first:F,val second: S,val third: T)

val triple = new Triple("Spark",3,3.1415)
   
    val bigData = new Triple[String,String,Char]("Spark","Hadoop",‘R‘)
   
    def getData[T](list:List[T]) = list(list.length / 2)
    println(getData(List("Spark","Hadoop",‘R‘)))
   
    val f = getData[Int] _
    println(f(List(1,2,3,4,5,6,7,8)))

首先,定义一个Triple类,我们可以看到,它的类的类型是[F,S,T],并不是明确的scala下的某个类型。这样的叫做泛型。

比如我们定义一个List[A],它是any类型,而List[Int]是整数类型,Int是Any的子类型,因此List[A]是List[Int]的父类型。

这样的做法,可以使类定义后,适应很多种类型。比如上面的代码中,很一个triple,我们可以看出,它的类型就是[String,Int,Double],而bigData的类型是[String,String,Char],他们都属于[F,S,T]类型。

再来看看函数泛型。它与类的泛型一样,可以用[T]来表示。这样就可以有很多的适用性。

分享下更多的scala资源吧:

百度云盘:http://pan.baidu.com/s/1gd7133t

微云云盘:http://share.weiyun.com/047efd6cc76d6c0cb21605cfaa88c416

360云盘: http://yunpan.cn/cQN9gvcKXe26M (提取码:13cd)

信息来源于 DT大数据梦工厂微信公众账号:DT_Spark

关注微信账号,获取更多关于scala学习内容

时间: 2025-01-01 00:06:41

第42讲:Scala中泛型类、泛型函数、泛型在Spark中的广泛应用的相关文章

Scala 深入浅出实战经典 第42讲:scala 泛型类,泛型函数,泛型在spark中的广泛应用

王家林亲授<DT大数据梦工厂>大数据实战视频 Scala 深入浅出实战经典(1-64讲)完整视频.PPT.代码下载:百度云盘:http://pan.baidu.com/s/1c0noOt6 腾讯微云:http://url.cn/TnGbdC 360云盘:http://yunpan.cn/cQ4c2UALDjSKy 访问密码 45e2 技术爱好者尤其是大数据爱好者 可以加DT大数据梦工厂的qq群 DT大数据梦工厂① :462923555 DT大数据梦工厂②:437123764 DT大数据梦工厂③

Scala 深入浅出实战经典 第48讲:Scala类型约束代码实战及其在Spark中的应用源码解析

王家林亲授<DT大数据梦工厂>大数据实战视频 Scala 深入浅出实战经典(1-64讲)完整视频.PPT.代码下载:百度云盘:http://pan.baidu.com/s/1c0noOt6 腾讯微云:http://url.cn/TnGbdC 360云盘:http://yunpan.cn/cQ4c2UALDjSKy 访问密码 45e2 技术爱好者尤其是大数据爱好者 可以加DT大数据梦工厂的qq群 DT大数据梦工厂① :462923555 DT大数据梦工厂②:437123764 DT大数据梦工厂③

Scala 深入浅出实战经典 第47讲:Scala多重界定代码实战及其在Spark中的应用

王家林亲授<DT大数据梦工厂>大数据实战视频 Scala 深入浅出实战经典(1-64讲)完整视频.PPT.代码下载:百度云盘:http://pan.baidu.com/s/1c0noOt6 腾讯微云:http://url.cn/TnGbdC 360云盘:http://yunpan.cn/cQ4c2UALDjSKy 访问密码 45e2 技术爱好者尤其是大数据爱好者 可以加DT大数据梦工厂的qq群 DT大数据梦工厂① :462923555 DT大数据梦工厂②:437123764 DT大数据梦工厂③

Oracle中使用Table()函数解决For循环中不写成 in (l_idlist)形式的问题

转: Oracle中使用Table()函数解决For循环中不写成 in (l_idlist)形式的问题 在实际PL/SQL编程中,我们要对动态取出来的一组数据,进行For循环处理,其基本程序逻辑为: 1 2 3 4 5 6 7 8 9 10 11 12 create or replace procedure getidlist is   l_idlist varchar2(200); begin   l_idlist:='1,2,3,4';   for brrs in (select * fro

python中的enumerate函数用于遍历序列中的元素以及它们的下标

enumerate 函数用于遍历序列中的元素以及它们的下标: >>> for i,j in enumerate(('a','b','c')): print i,j 0 a1 b2 c>>> for i,j in enumerate([1,2,3]): print i,j 0 11 22 3>>> for i,j in enumerate({'a':1,'b':2}):    #注意字典,只返回KEY值!! print i,j 0 a1 b >&g

第47讲:Scala多重界定代码实战及其在Spark中的应用源码解析

今天学习了scala的多重界定 T >: A <: B 表示T同时有下界和下界,下界为A,上界为B,A为B的子类型.下界必须写在前面,上界必须写在后面,位置不能颠倒. T<:A with B T是A或B的子类. T>:A with B A或B是T的子类 T <% A <% B T同时满足能够即可以通过隐式转换转变为A的类型,也可以通过隐式转换变为B的类型. T : A : B T必须同时满足存在A[T]这种类型的隐式值和B[T]类型的隐式值. 分享下更多的scala资源

Scala类型约束代码实战及其在Spark中的应用源码解析之Scala学习笔记-39

package com.leegh.parameterization /** * @author Guohui Li */object Type_Contraints { def main(args: Array[String]): Unit = { def rocky[T](i: T)(implicit ev: T <:< java.io.Serializable) { println("Life is too short,you need Spark!") } rock

Scala中Variance代码实战及其在Spark中的应用源码解析之Scala学习笔记-40

package com.leegh.parameterization /** * @author Guohui Li */ class Personclass Student extends Personclass C[+T](val args: T) trait Friend[-T] { def makeFriend(somebody: T)}object Variance { def makeFriendWithYou(s: Student, f: Friend[Student]) { f.

LoadRunner中的Web 函数列表

web test LoadRunner fuction_list D:\Program Files (x86)\Mercury Interactive\Mercury LoadRunner\bin>ls -l *.chm -rw-rw-rw-   1 user     group       25893 May 20  2004 FuncRef.chm -rw-rw-rw-   1 user     group       29443 May 20  2004 RPM_Configuration

BIRT 中的indexOf函数

原以为BIRT中的indexOf函数直接与JavaScript中的一样,就如同substr和replace一样,但是一直遇到function undefined的错误. domain = row["MEDIUM_STRING_VAL"].substr(1); i = BirtStr.indexOf('\|', domain); domain.substr(0, i);