我使用hbase
批量加载在csv
表中存储了3百万条记录,并尝试使用phoenix获取一些sql数据但是我有更多时间来获取记录,所以我使用凤凰创建了索引但是不能使用phoenix map reduce进程插入索引表记录。我使用了以下命令来插入索引数据。
我不确定这个hfile在hdfs
中的存储位置。请帮助我存储或我做错的地方然后请帮助我。
sudo -u hdfs hbase org.apache.phoenix.mapreduce.index.IndexTool --data-table BIGSS --index-table BIG_STATUS_INDEXS --output-path STATUS_HFILES
我附上截图,其中提到了我所面临的错误。请帮忙。
我使用以下链接作为参考。 https://phoenix.apache.org/secondary_indexing.html