执行INSERT INTO TABLE会覆盖表的前几行

时间:2019-01-24 14:27:27

标签: apache-spark hive derby

我正在运行Apache Hive,它使用Spark独立版本作为执行引擎,而Derby作为数据库。我的问题是,如果我在表中输入两个连续的插入,则只有最后一个插入持续存在。

以下是我的问题的一个示例:

0: jdbc:hive2://localhost:10000> create table t5 (val int);
No rows affected (0.23 seconds)
0: jdbc:hive2://localhost:10000> insert into t5 values(1);
No rows affected (1.3 seconds)
0: jdbc:hive2://localhost:10000> select * from t5;
+---------+
| t5.val  |
+---------+
| 1       |
+---------+
1 row selected (0.078 seconds)
0: jdbc:hive2://localhost:10000> insert into t5 values(2);
No rows affected (1.256 seconds)
0: jdbc:hive2://localhost:10000> select * from t5;
+---------+
| t5.val  |
+---------+
| 2       | # <--- "1" is gone
+---------+
1 row selected (0.068 seconds)

是否可以设置任何防止清除前几行的设置,或者我的配置是否可能存在其他问题?

我正在运行的软件是Spark 2.2.0(本机不带hive构建)和Apache Hive 2.3.0。

0 个答案:

没有答案