Map Reduce hadoop中Java拆分函数的奇怪行为

时间:2017-04-28 08:09:50

标签: java string hadoop split

我正在尝试使用split()函数拆分字符串。现在我的代码是这样的:

String s = "from1x1";
String [] parts = s.split("x");  

现在当我使用下面的代码输出我的结果时,它会显示输出" from1"

System.out.println(parts[0]);

但是当我尝试使用下面的代码输出我的结果时,它会抛出异常java.lang.ArrayIndexOutOfBoundsException: 1

System.out.println(parts[1]);  

这是最奇怪的事情,因为当我制作简单的java程序时,不会抛出此错误,也不会在hadoop的Map函数中抛出。但只有Redo函数的hadoop发生这种错误。有人知道这里有什么问题吗?

0 个答案:

没有答案