HashMap<Integer,Integer> map1 = new HashMap<>();
        map1.put(1,100);
        map1.put(2,150);
        map1.put(3,120);
HashMap<Integer,Integer> map2 = new HashMap<>();
        map2.put(2,200);
        map2.put(7,20);
        map2.put(3,66);
        //可能还有很多map,数量不确定,并且键值也可能会重复
        List<HashMap<Integer,Integer>> mylist = new ArrayList<>();然后现在我拿到sc对象,想要做个单词计数测试
JavaRDD<String> lines = sc.parallelize(mylist);
结果no instance(s) of type variable(s) T exist so that List<T> conforms to Seq<T>
想问一下该怎么初始化这个数据?

解决方案 »

  1.   

    sc.parallelize 要求参数为Seq类型,你把ArrayList 替换为Seq的继承类试试
      

  2.   

    我项目里只引入了spark core的依赖,和这个有关系么
      

  3.   

    就看你执行的时候,会不会报错提示类缺失等等,有的话就找到相应的jar报添加就可以了
      

  4.   

    hashmap 对象需要序列化
      

  5.   


    不方便导出,直接截图看了~~Scala版本的,改为Java版本的工作量也不大。居然发了两次。