我想把一个spark dataframe内的数据与另一个dataframe比较大小,然后筛选出结果,请问我应该使用什么函数?求大神解答,感觉很简单
解决方案 »
- 是不是在转化CString对象的时候出了问题,第二个参数没有正确传入?
- libvirt能配置统一给CPU加掩码吗?
- openstack instance无法得到IP
- 阿里和腾讯PK,华为消失了?--阿里分析
- glance index 出错问题 Unexpected response: 500
- 新手使用docker,docker run ubuntu 出现错误不知道怎么解决
- 求助,sqoop从Mysql导入数据到Hive,为何有两行数据换行了?
- Spark on yarn模式报错
- EXSI中安装fuel之后不能访问http://10.20.0.2:8000
- 新人学习云计算,会有前途吗?
- spark 分组后, 取 pay_time 最小的记录的pay_amount
- SparkSQL读取Hbase表,操作DataFrame时报错
f1.rdd.zip(df2.rdd).map{case Tuple2(row1, row2) =>
val data1 = row1.getInt(0)
val data2 = row1.getInt(0)
data1 > data2
}
.filter(_)