微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

fs.defaultFS变更使spark-sql查询hive失败是怎么回事

这篇文章将为大家详细讲解有关fs.defaultFS变更使spark-SQL查询hive失败是怎么回事,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。


我们在将hdfs换成⾼可⽤后,我们的namede地址发⽣变更,也就是我们的fs.defaultFS发⽣变更后, 需要注意:这些修改会影响到我们的hive的正常运⾏,因为我们hive在建表的时候,其实已经改变了该表 的数据存放路径。会导致我们在提交spark脚本【执⾏spark-sql】的脚本,报错。如下图所示:⼀直显 示,读取⽼的hdfs的namenode路径。  

fs.defaultFS变更使spark-sql查询hive失败是怎么回事

这⾥,我们可以访问我们的hive元数据表 SDS,如下图所示:发现还是以未升级前的namenode地 址,也就是master:9000。  

fs.defaultFS变更使spark-sql查询hive失败是怎么回事

因此,我们需要修改这些存储信息,有两种⽅式:
  1. 直接修改表的信息 
  2. 利⽤hive⾃带的⼯具
Metatool -updateLocation <new-location> <old-location>
在装有hive的节点执⾏命令
   
     
   
   
   Metatool -updateLocation hdfs://bi hdfs://master:9000/
查询元数据信息是否发⽣更改

   
     
   
   
   Metatool -listFSRoot

fs.defaultFS变更使spark-sql查询hive失败是怎么回事

此时,hive的元数据信息已经发生变更,可以正常使用

关于“fs.defaultFS变更使spark-SQL查询hive失败是怎么回事”这篇文章分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐