当rdd是自定义的list的时候可以这么写
val rdd = List((1,"lilei",14), (2,"hanmei",18), (3,"someone",38))
val localData = sc.parallelize(rdd).map(convert)
localData.saveAsHadoopDataset(jobConf)def convert(triple: (String, String, String)) = {
          val p = new Put(Bytes.toBytes(triple._1))
          p.addColumn(Bytes.toBytes("cf"),Bytes.toBytes("name"),Bytes.toBytes(triple._2))
          p.addColumn(Bytes.toBytes("cf"),Bytes.toBytes("age"),Bytes.toBytes(triple._3))
          (new ImmutableBytesWritable, p)
     }
那读一个hdfs上的文件的时候要怎么转换?
那在千万条数据的情况下需要怎么设置么? 0.98的可以设置不自动提交而是5M一提 但是1.0以后好像没有那个方法了啊