Spark SQL连接Hive的一些常见报错

Spark SQL连接Hive的一些常见报错,第1张

Spark SQL连接Hive的一些常见报错 错误一:Unable to locate hive jars to connect to metastore. Please set spark.sql.hive.metastore.jars.


解决方案:将JDK11切换为JDK8,问题解决。JDK11和Spark/Hive应该存在版本兼容性问题

错误二:连接成功后只显示一个default数据库


解决方案:把HIVE_HOME/conf目录下的hive-site.xml文件拷贝到本地IDEA的maven项目的resources目录下


完美解决

欢迎分享,转载请注明来源:内存溢出

原文地址: https://www.outofmemory.cn/zaji/5721635.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-18
下一篇 2022-12-18

发表评论

登录后才能评论

评论列表(0条)

保存