• 手机版

    扫码体验手机版

  • 微信公众号

    扫码关注公众号

国内首家协议开发

软芯音视解码保护平台

在线
客服

发布
需求

在线
聊天

天盟
APP

天盟APP下载

关注
微信

微信扫一扫访问
顶部

linux环境下,使用local模式启动spark时报找不到主类

报错信息是:Error: Could not find or load main class org.apache.spark.launcher.Main


spark环境说明:(SPARK_HOME环境变量中我尝试了自己编译的和网上下载的,都报同一个错误)
    spark-2.1.0-bin-2.6.0-cdh5.7.0 这个包是从网上下载的,
    spark-2.4.3-bin-hadoop-2.6.0-cdh5.7.0 这个是我自己编译源码的:
        编译命令:(最后能编译成功)
./dev/make-distribution.sh --name hadoop-2.6.0-cdh5.7.0 --tgz -Pyarn -Phadoop-2.6 -Phive -Phive-thriftserver -Dhadoop.version=2.6.0-cdh5.7.0
   



以下是我的环境变量配置信息:
export SPARK_HOME=/home/hadoop/app/spark-2.1.0-bin-2.6.0-cdh5.7.0
export PATH=$SPARK_HOME/bin:$PATH


export JAVA_HOME=/home/hadoop/app/jdk1.8.0_201
export PATH=$JAVA_HOME/bin:$PATH


export MAVEN_HOME=/home/hadoop/app/apache-maven-3.6.1
export PATH=$MAVEN_HOME/bin:$PATH


export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.7.0
export PATH=$HADOOP_HOME/bin:$PATH


export HIVE_HOME=/home/hadoop/app/hive-1.1.0-cdh5.7.0
export PATH=$HIVE_HOME/bin:$PATH


export SCALA_HOME=/home/hadoop/app/scala-2.11.8
export PATH=$SCALA_HOME/bin:$PATH

免责声明:本内容仅代表回答会员见解不代表天盟观点,请谨慎对待。

版权声明:作者保留权利,不代表天盟立场。

使用道具 举报

发新帖

发布任务需求已有1031166位用户正在使用天盟网服务

发布分类: *
任务预算: *
需求内容: *
手机号码: *
任务商家报价为
  • 预算价 :
  • 成交价 :
  • 完工期 :
  • 质保期 :

* 最终任务项目以服务商报价、双方协商为准!