有没有办法杀死Hadoop作业本身或发送信号来杀死它。 我已经从jobConf中读取了配置设置,其中说如果用户指定了错误的设置我需要终止作业或抛出错误,因为map / reduce config 方法不允许抛出异常
public void configure(JobConf job) {
System.out.println("Inside config start processing");
try {
String strFileName = job.get("hadoop.rules");
LoadFile(strFileName );
} catch (Exception e) {
e.printStackTrace();
//Here i need to write code to kill job
}
}
答案 0 :(得分:2)
在configure()方法中,只抛出一个RuntimeException。
更好的是,如果可能的话,最好在作业运行之前执行验证步骤。
答案 1 :(得分:0)
只需将状态保存到名为kill
的布尔变量中,并在地图步骤中评估变量,然后抛出IOException
。