我在idea建的maven项目
public class App {
public static void main(String[] args){
System.out.println("asfasd");
}
}
打包成jar运行没有问题
但当我添加了spark-core依赖以后在java -jar javaspark.jar以后就提示错误
错误: 找不到或无法加载主类 App
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.2.0</version>
</dependency>
我用spark-submit 的方法提交,也提示相同的错误
public class App {
public static void main(String[] args){
System.out.println("asfasd");
}
}
打包成jar运行没有问题
但当我添加了spark-core依赖以后在java -jar javaspark.jar以后就提示错误
错误: 找不到或无法加载主类 App
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.2.0</version>
</dependency>
我用spark-submit 的方法提交,也提示相同的错误
不然会 报找不到或无法加载主类,打包成JAR以后只能在linux的spark集群中运行spark-submit。本地不能运行
在IDEA里运行时可以用setMaster("local")