Hive 1.2.1。如何增加google.protobuf限制?

时间:2016-02-10 17:22:58

标签: hadoop hive protocol-buffers

尝试从Hive读取一些数据时出现以下错误:

  

请求TFetchResultsReq的错误状态(fetchType = 0,   operationHandle = TOperationHandle(hasResultSet =真,   modifiedRowCount = None,operationType = 0,   operationId = THandleIdentifier(秘密=' \ X02 \ xa83 \ XF3 \ xd8xB \ X17 \ XBF \ X96 \ X92 \ x80A \ XBF \ X89 \ X04&#39 ;,   guid =' \ x03 * \ x85g \ x11CE \ xcd \ xb2< \ x8c \ xbc \ xacC \ xcd"')),orientation = 4,   maxRows = 100):TFetchResultsResp(status = TStatus(errorCode = 0,   的errorMessage =' java.io.IOException的:   com.google.protobuf.InvalidProtocolBufferException:协议消息   太大了可能是恶意的。使用CodedInputStream.setSizeLimit()   增加尺寸限制。',

Google表示无法通过配置增加默认限制,但只能通过重建Hive来实现。这是真的吗?以及如何检查我目前的限制?

此外,我在Hive的JIRA中发现问题,其中添加了用于将默认缓冲区限制从64MB增加到1GB的补丁。似乎补丁将在未来版本中出现,但我不确定。

感谢。

0 个答案:

没有答案