linux – 在键入spark-shell时找不到spark提交
发布时间:2020-12-14 01:27:03 所属栏目:Linux 来源:网络整理
导读:我一直在关注本教程为 scala安装spark: https://www.tutorialspoint.com/apache_spark/apache_spark_installation.htm 但是,当我尝试运行spark-shell时,我在控制台中收到此错误. /usr/local/spark/bin/spark-shell: line 57: /usr/local/spark/bin/bin/spar
我一直在关注本教程为
scala安装spark:
https://www.tutorialspoint.com/apache_spark/apache_spark_installation.htm 但是,当我尝试运行spark-shell时,我在控制台中收到此错误. /usr/local/spark/bin/spark-shell: line 57: /usr/local/spark/bin/bin/spark-submit: No such file or directory 我的bashrc看起来像这样: export PATH = $PATH:/usr/local/spark/bin export SCALA_HOME=/usr/local/scala/bin export PYTHONPATH=$SPARK_HOME/python 我错了什么?我以前为python安装了spark,但现在我正在尝试使用scala.火花会使变量混淆吗?谢谢. 解决方法
你正在搜索的路径中有一个bin太多了:
/usr/local/spark/bin/bin/spark-submit 应该 /usr/local/spark/bin/spark-submit 在你的情况下SPARK_HOME应该是/usr/local/spark /,而不是/usr/local/spark / bin /,因为现在看起来似乎是这样. (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
相关内容
- 丢失Linux管理员后收拾件
- Linux上Netbeans中的奇怪字体渲染
- linux – 是否有可能将CentOS从(Mac)VMware Fusion迁移到(C
- linux – 使用PTRACE_SYSEMU的任何好的指南?
- linux-kernel – 将设备树中断标志映射到devm_request_irq
- Linux系统Docker启动问题Job for docker.service failed be
- 如何保护您的Linux服务器免受pass-the-hash攻击
- linux – 使用“ip”命令在CentOS / RHEL 6中重新启动时保留
- 在自定义libc中实现线程本地存储
- linux – SFTP与chroot取决于连接用户的公钥