问题描述:
我用maven创建的项目,就导入了一个scala-sdk-2.11.8库,其他什么也没导入,也没导入网上说的spark-assembly-*-hadoop*.jar各种jar包,但是我setMaster('local'),运行没有问题,但是参数改为setMaster('spark://1172.17.0.2:7077)),会出现以下错误提示:
18/10/13 09:15:54 WARN StandaloneAppClient$ClientEndpoint: Failed to connect to master 172.17.0.2:7077
org.apache.spark.SparkException: Exception thrown in awaitResult
因为我的spark实在docker环境下跑的,所有地址是172.17.0.2
请问大佬们,到底哪里出了问题?
我用maven创建的项目,就导入了一个scala-sdk-2.11.8库,其他什么也没导入,也没导入网上说的spark-assembly-*-hadoop*.jar各种jar包,但是我setMaster('local'),运行没有问题,但是参数改为setMaster('spark://1172.17.0.2:7077)),会出现以下错误提示:
18/10/13 09:15:54 WARN StandaloneAppClient$ClientEndpoint: Failed to connect to master 172.17.0.2:7077
org.apache.spark.SparkException: Exception thrown in awaitResult
因为我的spark实在docker环境下跑的,所有地址是172.17.0.2
请问大佬们,到底哪里出了问题?
解决方案 »
免费领取超大流量手机卡,每月29元包185G流量+100分钟通话, 中国电信官方发货