在spark集群上可以同时运行多个提交的应用程序吗

发布网友 发布时间:2022-04-22 06:43

我来回答

2个回答

热心网友 时间:2022-06-16 17:40

可以的,spark提交job的方式有client和cluster两种,同时提交多个的话最好用cluster方式,但是需要注意的是:如果集群的资源不能同时支持两个job运行,则后提交的job会一直等待资源,直到第一个job运行完成释放出足够的资源。具体的行为依赖资源管理框架(如yarn)

热心网友 时间:2022-06-16 17:40

可以的呀,只有有资源就行

声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com