【甘道夫】开发Hive自定义UDF,生成32位字母数字随机串

引言

曾经认为Hive自带的函数应该可以cover住我的日常所需,心想那些需要使用自定义函数的场景是不是太奇葩,谁知命运弄人,自己还是碰上了。

需求很简单,我需要模拟Oracle中的SYS_GUID()函数,生成一个32位的字母数字随机串。

开发环境:Eclipse+Maven,引入Hive0.13.1的依赖。


欢迎转载,请注明来源:

http://blog.csdn.net/u010967382/article/details/41083617


代码

package cn.fulong.bigdata.tools;

import java.util.Random;

import org.apache.hadoop.hive.ql.exec.UDF;

import org.apache.hadoop.hive.ql.udf.UDFType;

import org.apache.hadoop.io.Text;

@UDFType(deterministic = false)

public class HiveUDFOracleSysguid extends UDF {

private Random random = new Random();

private Text result = new Text();

public Text evaluate(int length) {

result.set(getCharAndNumr(length));

return result;

}

private String getCharAndNumr(int length) {

StringBuffer val = new StringBuffer();

for (int i = 0; i < length; i++) {

String charOrNum = random.nextInt(2) % 2 == 0 ? "char" : "num"; // 输出字母还是数字

if ("char".equalsIgnoreCase(charOrNum)) // 字符串

{

int choice = 65; // 大写字母65,小写字母96

val.append((char) (choice + random.nextInt(26)));

else if ("num".equalsIgnoreCase(charOrNum)) // 数字

{

val.append(String.valueOf(random.nextInt(10)));

}

}

return val.toString();

}

}


部署

步骤一:

打包该类,上传到集群中,进入hive cli;

步骤二:

将jar包添加到hive的classpath中:

hive> add jar /home/hive-tools-sysguid-for-oracle.jar;

步骤三:

基于自定义UDF类创建自定义函数:

hive> create temporary function fbi_guid as ‘cn.bigdata.tools.HiveUDFOracleSysguid‘;

其中,fbi_guid 是自己命名的函数名称,将用于hive sql中,cn.bigdata.tools.HiveUDFOracleSysguid是类名。


执行

和内置函数使用方法一样:

select fbi_guid(32) from sp_t_re_valid_service limit 20;


填坑记录

官网给出的示例代码是:

package com.example.hive.udf;

import org.apache.hadoop.hive.ql.exec.UDF;

import org.apache.hadoop.io.Text;

public final class Lower extends UDF
{

  public Text
evaluate(
final Text
s) {

    if (s
== 
null)
return null;
}

    return new Text(s.toString().toLowerCase());

  }

}

但,如果仅仅按照以上模板改写,最终运行时会遇到一个很恶心的问题:

生成随机串的逻辑只被执行了一遍,所有行的该字段字符串都是一样的,并不会像预想的那样,即每行一个随机串。

该问题请教了无数知名公司的大虾都没给出解决方案,查阅无数篇“UDF开发详解”类博客也没找到解药,情急之下灵机一动,想到了HIVE内置的rand()函数,功能其实和我这个类似,但是rand()就能很好的每行输出一个随机数,所以决定从rand()的源码找答案。

rand()函数的实现类是 org.apache.hadoop.hive.ql.udf.UDFRand,各位可自行查阅。

我先将核心逻辑拷贝到自己的UDF中测试了一下,发现问题还是存在,核心逻辑只被执行了一遍,每行的对应字段都是相同的数字。

出现该现象是好事,因为问题的关键肯定在源码核心逻辑以外的某个角落!

通过观察核心逻辑以外可能对该结果造成影响的代码,发现了@UDFType(deterministic = false),该注解指定了当前UDF的类型是否是确定性,默认为true,然而,rand()的源码中将该属性设置为了false!

经测试,@UDFType(deterministic = false)果然是结症所在,加上这句注解后,我的UDF可以正常执行了,每行输出不同的32位随机字母数字串,over。

时间: 2025-01-12 02:25:12

【甘道夫】开发Hive自定义UDF,生成32位字母数字随机串的相关文章

生成32位字母数字的随机数

<?php function createNoncestr( $length = 32 ) { $chars ="abcdefghijklmnopqrstuvwxyz0123456789"; $str =""; for($i=0;$i<$length;$i++) { $str.= substr($chars, mt_rand(0, strlen($chars)-1), 1); } return $str; }

【甘道夫】Hive 0.13.1 on Hadoop2.2.0 + Oracle10g部署详解

环境: hadoop2.2.0 hive0.13.1 Ubuntu 14.04 LTS java version "1.7.0_60" Oracle10g ***欢迎转载,请注明来源***    http://blog.csdn.net/u010967382/article/details/38709751 到以下地址下载安装包 http://mirrors.cnnic.cn/apache/hive/stable/apache-hive-0.13.1-bin.tar.gz 安装包解压到

【甘道夫】Hive 0.13.1 on Hadoop2.2.0 + Oracle10g部署详细解释

环境: hadoop2.2.0 hive0.13.1 Ubuntu 14.04 LTS java version "1.7.0_60" Oracle10g ***欢迎转载.请注明来源***    http://blog.csdn.net/u010967382/article/details/38709751 到下面地址下载安装包 http://mirrors.cnnic.cn/apache/hive/stable/apache-hive-0.13.1-bin.tar.gz 安装包解压到

【甘道夫】Eclipse+Maven搭建HBase开发环境及HBaseDAO代码示例

环境: Win764bit Eclipse Version: Kepler Service Release 1 java version "1.7.0_40" 第一步:Eclipse中新建Maven项目,编辑pom.xml并更新下载jar包 <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance&qu

【甘道夫】Sqoop1.4.4 实现将 Oracle10g 中的增量数据导入 Hive0.13.1 ,并更新Hive中的主表

需求 将Oracle中的业务基础表增量数据导入Hive中,与当前的全量表合并为最新的全量表. ***欢迎转载,请注明来源***    http://blog.csdn.net/u010967382/article/details/38735381 设计 涉及的三张表: 全量表:保存了截止上一次同步时间的全量基础数据表 增量表:增量临时表 更新后的全量表:更新后的全量数据表 步骤: 通过Sqoop将Oracle中的表导入Hive,模拟全量表和增量表 通过Hive将"全量表+增量表"合并为

【甘道夫】HBase开发环境搭建过程中可能遇到的异常:No FileSystem for scheme: hdfs

异常: 2014-02-24 12:15:48,507 WARN  [Thread-2] util.DynamicClassLoader (DynamicClassLoader.java:<init>(106)) - Failed to identify the fs of dir hdfs://fulonghadoop/hbase/lib, ignored java.io.IOException: No FileSystem for scheme: hdfs 解决: 在pom文件中加入: &

【甘道夫】实现Hive数据同步更新的shell脚本

引言: 上一篇文章<[甘道夫]Sqoop1.4.4 实现将 Oracle10g 中的增量数据导入 Hive0.13.1 ,并更新Hive中的主表>http://blog.csdn.net/u010967382/article/details/38735381 描述了增量更新Hive表的原理和Sqoop,Hive命令,本文基于上一篇文章的内容实现了shell脚本的编写,稍加修改就可用于实际工程. ***欢迎转载,请注明来源***    http://blog.csdn.net/u01096738

【甘道夫】用贝叶斯文本分类测试打过1329-3.patch的Mahout0.9 on Hadoop2.2.0

引言 接前一篇文章<[甘道夫]Mahout0.9 打patch使其支持 Hadoop2.2.0> http://blog.csdn.net/u010967382/article/details/39088035, 为Mahout0.9打过Patch编译成功后,使用贝叶斯文本分类来测试Mahout0.9对Hadoop2.2.0的兼容性. 欢迎转载,转载请注明出处: http://blog.csdn.net/u010967382/article/details/39088285 步骤一:将20ne

【甘道夫】Win7x64环境下编译Apache Hadoop2.2.0的Eclipse小工具

目标: 编译Apache Hadoop2.2.0在win7x64环境下的Eclipse插件 环境: win7x64家庭普通版 eclipse-jee-kepler-SR1-win32-x86_64.zip Apache Ant(TM) version 1.8.4 compiled on May 22 2012 java version "1.7.0_45" 參考文章: http://kangfoo.u.qiniudn.com/article/2013/12/build-hadoop2x