Hive不会通过flume查询存储在hdfs中的数据

时间:2017-02-06 21:08:16

标签: json hadoop hive hdfs hortonworks-sandbox

我正在做一个大数据项目并在Hive中创建了一个外部表,它应该查询存储在HDFS中的数据。使用Flume将数据流式传输到HDFS。但是,当我查询存储在HDFS中的数据时,我收到错误。所有权限似乎都没问题。 HDFS中存储数据的权限为-rw-r--r--

创建的表格如下:

create external table recommendation.bets (
 betId int,
 odds decimal,
 selectionID String,
 eventID String,
 match String,
 categoryID int,
 subCategoryID String,
 leagueName String,
 parentSubCategory String,
 marketID String,
 preMatchBet String,
 name String,
 matchOdds decimal,
 stake decimal,
 mobile boolean,
 providerName String,
 totalOdds decimal,
 totalStake decimal,
 nation String,
 `betDate` Date,
 currency String,
 calendarDate String)
 row format serde 'org.apache.hive.hcatalog.data.JsonSerDe'
 location 'hdfs://sandbox.hortonworks.com/archiving/bets';

我花了几个小时搜索这个案子,没有运气。生成的错误日志如下:

{"message":"H170 Unable to fetch results. java.io.IOException: java.lang.IllegalArgumentException [ERROR_STATUS]","status":500,"trace":"org.apache.ambari.view.hive.client.HiveErrorStatusException: H170 Unable to fetch results. java.io.IOException: java.lang.IllegalArgumentException [ERROR_STATUS]\n\norg.apache.ambari.view.hive.client.HiveErrorStatusException: H170 Unable to fetch results. java.io.IOException: java.lang.IllegalArgumentException [ERROR_STATUS]\n\tat 

我只粘贴了错误日志的开头,因为它生成了一个巨大的日志。我很乐意感谢任何有关错误的帮助和指导。提前谢谢。

0 个答案:

没有答案