我有一个 *.csv 文件,其中包含列式数字和字符串(磁盘上 13GB),我将其导入新的duckdb(或 sqlite)数据库并将其保存,以便稍后在 R 中访问它。但是重新连接会重复它并且非常慢,这是错的吗?
在 R 中,我正在执行以下操作:
library(duckdb)
library(dplyr)
library(DBI)
#Create the DB
con <- dbConnect(duckdb::duckdb(), "FINAL_data.duckdb")
#Read in the csv
duckdb_read_csv(con, "data", "FINAL_data_new.csv")
然后我关闭 R 并重新启动它以查看它是否有效:
#这超级慢(大约 10 分钟),因为它看起来像是在某处再次写入数据库。但为什么?
con <- dbConnect(duckdb::duckdb(), "FINAL_data.duckdb")
注意。我已将 sqlite 添加为标签,因为我认为这不是鸭子数据库特有的