我使用Kerberized hadoop集群(Hadoop 2.6.0-cdh5.4.4)与Spark 1.3和YARN。我一直试图找出scala 2.10应用程序产生的这个错误的起源:
16/04/16 10:32:33 WARN ipc.Client:连接服务器时遇到异常:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.token.SecretManager $ InvalidToken) :在缓存中找不到令牌(XXXXXX的HDFS_DELEGATION_TOKEN令牌210) 16/04/16 10:32:33 WARN hdfs.LeaseRenewer:未能续订[DFSClient_NONMAPREDUCE_462399399_14]的租约30秒。很快就会重试...... org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.token.SecretManager $ InvalidToken):在缓存中找不到令牌(XXXXXX的HDFS_DELEGATION_TOKEN令牌210) 在org.apache.hadoop.ipc.Client.call(Client.java:1410) 在org.apache.hadoop.ipc.Client.call(Client.java:1363) 在org.apache.hadoop.ipc.ProtobufRpcEngine $ Invoker.invoke(ProtobufRpcEngine.java:206)
我使用pyspark重现代码并得到了同样的东西。
答案 0 :(得分:1)
网络上的大部分内容都与配置问题无关,而这些问题对我没有用。
最后我发现它是由程序设计决定引起的。代码创建并停止了几个火花上下文,而不是同时发生。删除此多个创建并使用单个spark上下文后,错误消失,应用程序完成且没有问题。
希望这对某人有帮助。