导入内部有大字段的记录(长度超过124214个字符)时,我收到错误
"字段大于字段限制(131072)"
我在其他帖子中看到如何在Python上解决这个问题,但我不知道CQLSH是否可以解决这个问题。
由于
答案 0 :(得分:16)
看一下这个答案:
_csv.Error: field larger than field limit (131072)
您需要将此解决方案添加到cqlsh文件的顶部。所以之后:
import csv
import getpass
csv.field_size_limit(sys.maxsize)
答案 1 :(得分:9)
cassandra提供了一个标准选项来更改field_size_limit
,而不是入侵cqlsh文件。 Cassandra安装包含tarball分发的conf目录中的cqlshrc.sample
文件。在此文件中,可以找到并更改field_size_limit
选项。要使cqlsh从该文件中读取它的选项,您需要将cqlshrc.sample
文件从conf目录复制到用户主文件夹的隐藏.cassandra
文件夹,并将其重命名为cqlshrc。
Cassandra文档包含有关它的更多详细信息:http://docs.datastax.com/en/cql/3.1/cql/cql_reference/cqlsh.html?scroll=refCqlsh__cqlshUsingCqlshrc
答案 2 :(得分:0)
从以下位置下载并提取 cassandra 发行版 https://cassandra.apache.org/download/
解压后会在conf目录下找到cqlshrc.sample文件
将 cqlshrc.sample 复制到 ~/.cassandra 并重命名为 cqlshrc
打开 cqlshrc 文件并将 ; field_size_limit = 131072
更改为 field_size_limit = 1000000000
不要忘记删除“;”在上面的步骤中
打开一个新终端并运行您的查询