查看最新的pandas
文档,实际kwarg
使用的是chunksize
,而不是chunk_size
。请参阅https://pandas.pydata.org/docs/reference/api/pandas.DataFrame.to_sql.html。因为kedro
只包装你save_args
并将它们传递给pd.DataFrame.to_sql
这些需要匹配:
def _save(self, data: pd.DataFrame) -> None:
try:
data.to_sql(**self._save_args)
except ImportError as import_error:
raise _get_missing_module_error(import_error) from import_error
except NoSuchModuleError as exc:
raise _get_sql_alchemy_missing_error() from exc
编辑:一旦你在你的管道中工作,文档显示pandas.DataFrame.read_sql
with chunksize
set 将返回 type Iterator[DataFrame]
。这意味着在您的节点函数中,您应该遍历输入(并在适当的情况下进行相应的注释),例如:
def my_node_func(input_dfs: Iterator[pd.DataFrame], *args):
for df in input_dfs:
...
这适用于最新版本的pandas
. 但是,我注意到这是pandas
对齐 API 以便set 返回 a from所以我希望这种更改也会发生。read_csv
chunksize
ContextManager
pandas>=1.2
read_sql