进入spark-shell,进行测试:输入,
然后执行:,输出结果总是1,无语,折腾了我好久,已疯,希望大神们帮个忙!!!下面是我的hdfs文件:
,从最后一图看,单词数那么多,怎么也不是一个啊
然后执行:,输出结果总是1,无语,折腾了我好久,已疯,希望大神们帮个忙!!!下面是我的hdfs文件:
,从最后一图看,单词数那么多,怎么也不是一个啊
解决方案 »
- 求助---安装nova后,实例的状态一直是error
- nova-volume和swift的区别
- 给你5000个节点的计算机集群,你最想做什么?
- 【福利大放送】FusionSphere Foundation版(试用版)下载
- 如何在openstack启动instance时指定参数?
- ftp连接不了
- nutch 爬取的数据能用来干什么?
- 为什么操作系统能安装到虚拟机
- spark 分组后, 取 pay_time 最小的记录的pay_amount
- 配置openstack时,遇到了一个问题,ping不通203.0.103.xxx?
- 请教关于AWS的学习方法
- Amazon EC2如何配置IPV6?具体是怎么收费的?
val wordCounts = words.map(x => (x, 1)).reduceByKey(_ + _)
wordCounts.print()
这样才是统计单词的个数。
可以加入spark技术交流群366436387,共同交流学习。
textFile就是默认以回车换行符作为默认分割,因此输出值为1val words = readmeFile.flatMap(_.split(" "))
val wordCounts = words.map(x => (x, 1)).reduceByKey(_ + _)