加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > Linux > 正文

linux – 在键入spark-shell时找不到spark提交

发布时间:2020-12-14 01:27:03 所属栏目:Linux 来源:网络整理
导读:我一直在关注本教程为 scala安装spark: https://www.tutorialspoint.com/apache_spark/apache_spark_installation.htm 但是,当我尝试运行spark-shell时,我在控制台中收到此错误. /usr/local/spark/bin/spark-shell: line 57: /usr/local/spark/bin/bin/spar
我一直在关注本教程为 scala安装spark:
https://www.tutorialspoint.com/apache_spark/apache_spark_installation.htm

但是,当我尝试运行spark-shell时,我在控制台中收到此错误.

/usr/local/spark/bin/spark-shell: line 57: /usr/local/spark/bin/bin/spark-submit: No such file or directory

我的bashrc看起来像这样:

export PATH = $PATH:/usr/local/spark/bin
export SCALA_HOME=/usr/local/scala/bin
export PYTHONPATH=$SPARK_HOME/python

我错了什么?我以前为python安装了spark,但现在我正在尝试使用scala.火花会使变量混淆吗?谢谢.

解决方法

你正在搜索的路径中有一个bin太多了:

/usr/local/spark/bin/bin/spark-submit

应该

/usr/local/spark/bin/spark-submit

在你的情况下SPARK_HOME应该是/usr/local/spark /,而不是/usr/local/spark / bin /,因为现在看起来似乎是这样.

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读