1

我有一个 *.csv 文件,其中包含列式数字和字符串(磁盘上 13GB),我将其导入新的duckdb(或 sqlite)数据库并将其保存,以便稍后在 R 中访问它。但是重新连接会重复它并且非常慢,这是错的吗?

在 R 中,我正在执行以下操作:

library(duckdb)
library(dplyr)
library(DBI)

#Create the DB
con <- dbConnect(duckdb::duckdb(), "FINAL_data.duckdb")

#Read in the csv
duckdb_read_csv(con, "data", "FINAL_data_new.csv") 

然后我关闭 R 并重新启动它以查看它是否有效:

#这超级慢(大约 10 分钟),因为它看起来像是在某处再次写入数据库。但为什么?

con <- dbConnect(duckdb::duckdb(), "FINAL_data.duckdb")

注意。我已将 sqlite 添加为标签,因为我认为这不是鸭子数据库特有的

4

1 回答 1

4

您遇到的减速是由于启动时的数据库检查点。这已经在 master 分支上修复了。

于 2021-02-22T08:28:18.750 回答