微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Spark SQL 添加第三方依赖包

最近在使用spark sql 执行hive语句时碰到异常信息如下:

Class org.openx.data.jsonserde.JsonSerDe not found Exception

开始以为时hive环境有问题,把sql语句拿到hive环境单独跑没有问题,排除掉这项。若有问题,参考解决方案。

https://www.it610.com/article/1282643683400761344.htm

 

使用spark-submit --jar 提交掉时候已经引入了json-serde-1.3-jar-with-dependencies.jar包,Class.forName("org.openx.data.jsonserde.JsonSerDe")也能找到。

但是执行sql掉时候还是报ClassNotFound exception。想到hive 提交UDF依赖报时使用了add jar命令,于是在spark sql中执行命令:

sparkSession.sql("add jar hdfs://nameservice1/application/lib/spark2/json-serde-1.3-jar-with-dependencies.jar")

解决问题。

 

总结:Spark sql 缺少依赖包时,使用命令 “add jar *.jar”来添加。 

 

参考文章

https://www.it610.com/article/1282643683400761344.htm

http://lxw1234.com/archives/2015/07/428.htm

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐