Thinbug
News
Spark - 每个工人限制为1个任务
时间:2016-01-01 21:43:03
标签:
apache-spark
有没有办法限制Spark使用Spark的独立集群管理器在每个工作人员上只启动1个任务?我想运行一个访问外部资源的工作,并有办法对其进行速率限制。
0 个答案:
没有答案
相关问题
Textarea - 每行限制内容
将celery并发设置为每个队列1个worker
每个任务的Gnu并行资源限制?
如何设置每个节点的工作人员数量,以及Spark中每个工作人员的执行者数量?
Spark - 每个工人限制为1个任务
Laravel Spark:将每位用户的团队数量限制为1
每个分区限制的spark-cassandra-connector
使用GPU的Spark:如何为每个执行程序强制执行1个任务
如何为每个工作人员平衡1个任务?
最新问题
我写了这段代码,但我无法理解我的错误
我无法从一个代码实例的列表中删除 None 值,但我可以在另一个实例中。为什么它适用于一个细分市场而不适用于另一个细分市场?
是否有可能使 loadstring 不可能等于打印?卢阿
java中的random.expovariate()
Appscript 通过会议在 Google 日历中发送电子邮件和创建活动
为什么我的 Onclick 箭头功能在 React 中不起作用?
在此代码中是否有使用“this”的替代方法?
在 SQL Server 和 PostgreSQL 上查询,我如何从第一个表获得第二个表的可视化
每千个数字得到
更新了城市边界 KML 文件的来源?