我通过pandas的read_sql和外部应用程序(DbVisualizer)运行完全相同的查询。
DbVisualizer返回206行,而pandas返回178.
我尝试根据How to create a large pandas dataframe from an sql query without running out of memory?提供的信息从chucks中读取数据,但没有做出改变。
这可能是什么原因以及解决方法?
查询:
<li>
列包含:日期,年份,工作日,当天的降雨量,温度,地理位置(每个地点的行数),风测量,前一天的降雨量等。
确切的python代码(减去连接细节)是:
select *
from rainy_days
where year=’2010’ and day=‘weekend’
答案 0 :(得分:1)
https://github.com/xzkostyan/clickhouse-sqlalchemy/issues/14
如果你使用纯 engine.execute 你应该关心手动格式化
答案 1 :(得分:0)
对我有用的是什么:
删除所有行:
DELETE FROM table
将csv导入
我认为如果我使用过熊猫会更快:
df = read_csv(..)
df.to_sql(..)
我认为这应该可以轻松地工作到x mm行表,但对于非常大的表,它可能会变慢。