微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Hadoop基础四十八:函数

1 系统内置函数

1.查看系统自带函数
hive> show functions;
2.显示自带函数用法
hive> desc function upper;
3.详细显示自带函数用法
hive> desc function extended upper;

2 自定义函数

1)Hive 自带了一些函数,比如:max/min 等,但是数量有限,自己可以通过自定义 UDF来方便的扩展。 2)当 Hive 提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF:user-defined function)。 3)根据用户自定义函数类别分为以下三种: (1)UDF(user-defined-Function) 一进一出 (2)UDAF(user-defined Aggregation Function) 聚集函数,多进一出 类似于:count/max/min (3)UDTF(user-defined Table-Generating Functions)       一进多出 如 lateral view explore() 4)官方文档地址 https://cwiki.apache.org/confluence/display/Hive/HivePlugins 5)编程步骤: (1)继承 org.apache.hadoop.hive.ql.UDF (2)需要实现 evaluate 函数;evaluate 函数支持重载; (3)在 hive 的命令行窗口创建函数 a)添加 jar
add jar linux_jar_path
b)创建 function
create [temporary] function [dbname.]function_name AS class_name;
(4)在 hive 的命令行窗口删除函数
Drop [temporary] function [if exists] [dbname.]function_name;
6)注意事项 (1)UDF 必须要有返回类型,可以返回 null,但是返回类型不能为 void;

3 自定义 UDF 函数

1.创建一个 Maven 工程 Hive 2.导入依赖
<dependencies>
<!-- https://mvnrepository.com/artifact/org.apache.hive/hive-exec -->
<dependency>
<groupId>org.apache.hive</groupId>
<artifactId>hive-exec</artifactId>
<version>1.2.1</version>
</dependency>
</dependencies>
3.创建一个
package com.atguigu.hive;
import org.apache.hadoop.hive.ql.exec.UDF;
public class Lower extends UDF {
public String evaluate (final String s) {
if (s == null) {
return null;
}
return s.toLowerCase();
} }
4.打成 jar 包上传到服务器/opt/module/jars/udf.jar 5.将 jar 包添加到 hive 的 classpath
hive (default)> add jar /opt/module/datas/udf.jar;
6.创建临时函数与开发好的 java class 关联
hive (default)> create temporary function mylower as "com.atguigu.hive.Lower";
7.即可在 hql 中使用自定义函数 strip
hive (default)> select ename, mylower(ename) lowername from emp;

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐