新手小白求助~
import spark.implicits._  不能导入:not found:object spark编译器:eclipse
版本:spark-2.1.1 hadoop-2.7.3 scala2.1.2.2 

解决方案 »

  1.   

    打错了,scala版本应该是scala-2.12.2
      

  2.   

    在eclipse上单机跑,没有打开hadoop和spark,设置conf为local模式
      

  3.   

    这里的是spark不是某个类里的东西,应该是某个变量,如下:
    val  spark =SparkSession.builder().getOrCreate();
        import spark.implicits._
        spark.sql("")
      

  4.   

    用scala2.11编译,我之前用scala2.12有问题,也是不能run
      

  5.   

    import spark.implicits._  这里面的spark是一个变量,你要先定义出这个变量,导入他对应的implicits._。所以这段代码应该不是写在最前面的,应该是写在某个代码块里面。
      

  6.   

    在创建了SparkSession后,再进行导入即可
    官方在Saprk SQL的SparkSession.scala源码中有对这个导入进行说明