项目需要,要对spark的一些任务进行监控,有些任务积压过多,要kill掉。
求大家指导一下,如何kill掉提交的application
求大家指导一下,如何kill掉提交的application
解决方案 »
- openstack如何为虚拟机实例选择存放的分区?
- 万国数据何政:未来5年重点发展云计算
- openstack,启动ceilometer的ceilometer-api服务报错
- docker 是用go语言 , 将 lxc 重写了一遍 ,, 提供了更加友好的接口?
- CoreOS如何设定默认用户密码?
- spark vector 和 breeze自带的vector
- 关于dockerfile建立镜像的一些困惑
- jar包提交到spark集群后mapPartition及mapPartitionWithIndex取不到数据了,大神帮忙出出招,谢谢!萌新求助
- 新人求教一个生成镜像的问题
- 阿里云物联网平台调用api,验签通过了怎么错误code:2000或者2003
- 采用scala提取column中的二维数组
- 有什么方式能让java后台程序直接调用spark,并且直接收到spark计算后的返回值?
================================>>>
spark rest 客户端有停止job的函数
然后使用yarn application -kill <appId>
不知道行不行