我在idea建的maven项目
public class App {
    public static void main(String[] args){
        System.out.println("asfasd");
    }
}
打包成jar运行没有问题
但当我添加了spark-core依赖以后在java -jar javaspark.jar以后就提示错误
错误: 找不到或无法加载主类 App
<dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.11</artifactId>
        <version>2.2.0</version>
    </dependency>
我用spark-submit 的方法提交,也提示相同的错误

解决方案 »

  1.   

    spark的程序打包成jar以后。要把什么spark,hadoop,scala的依赖删除掉在打包
    不然会 报找不到或无法加载主类,打包成JAR以后只能在linux的spark集群中运行spark-submit。本地不能运行
      

  2.   

    如果要提交到yarn-cluster中的话,不要设置setMaster("local"),在spark-submit --master spark://master:7077可以有setMaster("local"),这样.foreach(println)才会显示到终端
    在IDEA里运行时可以用setMaster("local")