使用pyspark的时候非正常退出操作结果出现多个sparksubmit进程并且无法结束,pyspark也无法启动,纠结了半天才知道是defunct进程(僵尸进程)的原因,杀掉sparksubmit进程后pyspark就可以启动了。
如图jps里出现多个SparkSubmit进程
直接kill <进程号> 发现并没有杀死,于是使用 kill -s 9 <进程号>再杀,查看java进程(ps -ef|grep java)。
发现还是没有杀死,但是刚kill的进程(1961)后面状态栏出现了个
的僵尸进程(关于这个不加介绍了),网上找了下杀死僵尸进程的两个办法:
- 重启计算机
- 使用kill -9 <父进程号> ,如果此法还没有只能重启了…
|
|