sparkstreaming怎么从一个共享的内存读数据? 现在我有很多个任务,比如说每隔十秒统计最近一天的数据,其中根据不同维度,不同条件有很多种统计方式,但是每个任务其实需要的数据都是一样的,就是最近一天的数据(不是自然天,是当前时间前24小时的数据),假如把数据都放到每个任务的内存里就浪费空间了,以后增加任务也还是会有问题,所以有没有一个共享的空间可以读呢?让所有任务都读同一块共享的数据,我有一个疑问可以在sparkstreaming里直接读mongodb的数据吗? 解决方案 » 免费领取超大流量手机卡,每月29元包185G流量+100分钟通话, 中国电信官方发货 如果你的集群本身能让那么多作业同时跑的话,你可以把作业的处理方法封装成类,然后每个作业开启一条线程,每个线程执行各自的处理类。然后开启dynamicAllocation。那就在一个应用里同时执行多个作业了 是否有REST API可以查到虚拟机的MAC 请教用java访问API问题 wget: command not found 刚刚已经安装来wget 。退出容器后再进去怎么这个wget又没了 centos 6.5 2.6内核 # docker -d & docker: relocation error: docker: symbol dm_tas 想请教一个问题,比如nginx在一个container中正在运行,现在我要修改容器中的nginx.conf,增加一个子域名,那么我该怎么做? 难道新建一个ima spark分析日志 用scala写 该怎么入手啊? spark的一个初级问题 docker中-t -i的疑问 为什么说分析操作是实现业务价值的关键? Spark.mllib中ALS predictAll返回结果缺失 docker run容器的时候/bin/bash到底在表达什么 如何解决IT管理中的存储异构兼容性问题
解决方案 »
免费领取超大流量手机卡,每月29元包185G流量+100分钟通话, 中国电信官方发货