发布网友 发布时间:2022-04-22 06:43
我来回答
共2个回答
热心网友 时间:2022-06-16 17:40
可以的,spark提交job的方式有client和cluster两种,同时提交多个的话最好用cluster方式,但是需要注意的是:如果集群的资源不能同时支持两个job运行,则后提交的job会一直等待资源,直到第一个job运行完成释放出足够的资源。具体的行为依赖资源管理框架(如yarn)
可以的呀,只有有资源就行