加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Java > 正文

java – Apache Spark,创建hive上下文 – NoSuchMethodException

发布时间:2020-12-15 02:13:30 所属栏目:Java 来源:网络整理
导读:我有以下问题,我的主要方法是: static public void main(String args[]){ SparkConf conf = new SparkConf().setAppName("TestHive"); SparkContext sc = new org.apache.spark.SparkContext(conf); HiveContext hiveContext = new org.apache.spark.sql.hi
我有以下问题,我的主要方法是:

static public void main(String args[]){
     SparkConf conf = new SparkConf().setAppName("TestHive");
     SparkContext sc = new org.apache.spark.SparkContext(conf);
     HiveContext hiveContext = new org.apache.spark.sql.hive.HiveContext(sc);    
}

我用mvn包构建它
然后我提交我的代码,但是我得到以下异常.我不知道出了什么问题:

sh spark-submit --class "TestHive" --master local[4] ~/target/test-1.0-SNAPSHOT-jar-with-dependencies.jar 

Exception in thread "main" java.lang.NoSuchMethodException: org.apache.hadoop.hive.conf.HiveConf.getTimeVar(org.apache.hadoop.hive.conf.HiveConf$ConfVars,java.util.concurrent.TimeUnit)

请告诉我,我错了.

PS我用hive和thriftServer建立了我的火花.

Spark 1.5.2 built for Hadoop 2.4.0
Build flags: -Psparkr -Phadoop-2.4 -Phive -Phive-thriftserver -Pyarn

解决方法

它似乎是火花组件之间的版本冲突(spark-core,spark-sql和spark-hive)

为了避免这种混乱,这些组件的所有版本应该是相同的.您可以通过设置名为spark.version的peroperty来在pom.xml中执行此操作,例如:

<properties>
    <spark.version>1.6.0</spark.version>
</properties>
<dependencies>
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.10</artifactId>
        <version>${spark.version}</version>
    </dependency>
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-hive_2.10</artifactId>
        <version>${spark.version}</version>
    </dependency>
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-sql_2.10</artifactId>
        <version>${spark.version}</version>
    </dependency>
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-streaming_2.10</artifactId>
        <version>${spark.version}</version>
    </dependency>
</dependencies>

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读