为什么spark程序提交运行一次就结束了??? 每执行一次计算就要编写一次程序么??还是编写一次脚本不断地去submit应用程序??  拿web应用来说,我写一个servlet,然后就可以丢到tomcat里面运行,浏览器每提交一次请求,我的servlet代码就执行一次,  spark没有类似这样的功能么?????????     求大神指点一二

解决方案 »

  1.   

    web服务中创建一个sparkcontext实例,然后就可以来个请求就向spark提交一次了
      

  2.   

    spark分为实时和离线,如果是离线,你提交一次它运行完了当然停了。如果是实时,只要你喂他数据,他就不停计算,你得结合具体需求呀亲
      

  3.   

    Spark 可以启动ThrifServer作为JDBC Server来持续运行,响应查询语句(一个job)
      

  4.   

    哪些是实时的?哪些是离线的??我目前貌似只发现spark Stream有点持续运行的味道..., 连个官网的Demo都没弄出来, 都不敢继续看下去了,哎,小菜的悲哀啊,i'm so sad
      

  5.   

    ThrifServer是个什么东西呢??而且我希望的效果是类似web项目的效果, 一个jdbc server貌似没有太大的用处
      

  6.   

    spark-streaming 就是实时计算,我自己写过一些demo,地址是:http://blog.csdn.net/qq_23660243/article/details/51481407 你可以参照一些,就是些最基础的
      

  7.   

    ThrifServer是个什么东西呢??而且我希望的效果是类似web项目的效果, 一个jdbc server貌似没有太大的用处我猜测你没有完全理解我的意思,JDBC只是一个接口方式,它允许你提交SQL,然后它会被转换为Spark 的Job 来执行。这个Server启动后会一直监听在那里。
      

  8.   

    我对spark不懂,抱歉,帮不了你。