微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

pyspark.sql.utils.AnalysisException: u"Table or view not found:`ods_fpos`.`sales_order_item_pro

解决 

pyspark.sql.utils.AnalysisException: u"Table or view not found:`ods_fpos`.`sales_order_item_promotion`

第一步:启动 hive的metastore元数据服务

hive --service metastore

第二步:配置hive的元数据

conf = SparkConf()  # 创建spark config 对象
        config = (
            ("spark.app.name",self.SPARK_APP_NAME), # 设置启动spark 的app名字
            ("spark.executor.memory",self.SPARK_EXECUTOR_MEMORY), # 设置app启动时占用的内存用量
            ('spark.executor.cores',self.SPARK_EXECUTOR_CORE), # 设置spark executor使用的cpu核心数,认是1核心
            ("spark.master", self.SPARK_URL),  # spark master的地址
            ("spark.executor.instances", self.SPARK_EXECUTOR_INSTANCES),
            # ("spark.sql.warehouse.dir",self.HIVE_URL),
            ("hive.metastore.uris",self.HIVE_metastore),

        )
        conf.setAll(config)

第三步:设置配置

SparkSession.builder.config(conf=conf).enableHiveSupport().getorCreate()

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐