现在有一组数据数据(K,V),我想用sparkStream实现更新累加的功能,同时对k和v都做累加
但是发现sparkStreaming中只有updateStateBykey(与spark中reduceByKey对应),但是没有与spark中的reduce方法相对应的
请问各位大神有什么方便的解法,不用重新map数据。
但是发现sparkStreaming中只有updateStateBykey(与spark中reduceByKey对应),但是没有与spark中的reduce方法相对应的
请问各位大神有什么方便的解法,不用重新map数据。
解决方案 »
免费领取超大流量手机卡,每月29元包185G流量+100分钟通话, 中国电信官方发货