加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > 安全 > 正文

scala – 在SBT上Spark 2.0.1的“未解决的依赖”

发布时间:2020-12-16 08:45:35 所属栏目:安全 来源:网络整理
导读:用我的build.sbt version := "1.0"scalaVersion := "2.11.8"// https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.11libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.1" 我试图让Spark进入我的sbt 0.13项目,但Intel
用我的build.sbt

version := "1.0"
scalaVersion := "2.11.8"

// https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.11
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.1"

我试图让Spark进入我的sbt 0.13项目,但IntelliJ 2016.2.5给出错误“未解决的依赖”.我做错了什么?

没有代理,如果我说“2.0.0”而不是“2.0.1”,它可以使用,但那不太好……

另外:它似乎在CLI中工作,但在IntelliJ中不起作用.

解决方法

开箱即用SBT只加载 https://repo1.maven.org/maven2/存储库,据我所知,目前没有Apache Spark.也许你建造的另一个项目从其他仓库获取它现在它使用你当地的常春藤缓存解决?

您可以通过向项目添加另一个maven reporotory来解决此问题,例如:

resolvers ++= Seq(
  Resolver sonatypeRepo "public",Resolver typesafeRepo "releases",)

更新:如果你想使用MavenRepository(你没有开箱即用),你可以尝试添加:

resolvers += "MavenRepository" at "https://mvnrepository.com/"

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读