我正在运行Apache Hive,它使用Spark独立版本作为执行引擎,而Derby作为数据库。我的问题是,如果我在表中输入两个连续的插入,则只有最后一个插入持续存在。
以下是我的问题的一个示例:
0: jdbc:hive2://localhost:10000> create table t5 (val int);
No rows affected (0.23 seconds)
0: jdbc:hive2://localhost:10000> insert into t5 values(1);
No rows affected (1.3 seconds)
0: jdbc:hive2://localhost:10000> select * from t5;
+---------+
| t5.val |
+---------+
| 1 |
+---------+
1 row selected (0.078 seconds)
0: jdbc:hive2://localhost:10000> insert into t5 values(2);
No rows affected (1.256 seconds)
0: jdbc:hive2://localhost:10000> select * from t5;
+---------+
| t5.val |
+---------+
| 2 | # <--- "1" is gone
+---------+
1 row selected (0.068 seconds)
是否可以设置任何防止清除前几行的设置,或者我的配置是否可能存在其他问题?
我正在运行的软件是Spark 2.2.0(本机不带hive构建)和Apache Hive 2.3.0。