0

我想合并 2 个文件 CSV 数据,但不是所有数据。例如:a.csv + b.csv,其中 b.csv 有 20 个数据。但我只想从中获取 10 个数据,然后获取 11-20 个数据。或前 10 和后 10

然后将前 10 个数据插入 a.csv,后 10 个数据也插入 a.csv 我的问题是如何只获取特定的总数据?

这是我的代码:

import pandas as pd

df1 = pd.read_csv('testNegatif.csv')
df2 = pd.read_csv('trainNegatif.csv', nrows=10)

output=df1.append(df2)
output.to_csv("output.csv", sep=',')

我希望得到我想要的结果,但实际结果是结合所有数据。

4

3 回答 3

0

不使用熊猫。读取每个文件的行;将一个文件数据中的十行添加到另一个文件中;将结果写入另一个文件。

with open('a.csv') as f:
    data = f.readlines()
with open('b.csv') as f:
    bdata = f.readlines()

data.extend(bdata[:10])

with open('output.csv', 'w'):
    f.writelines(data)

如果文件很大并且您不想将全部内容读入内存,请使用一些 itertools 函数。

import itertools
with open('a.csv') as a, open('b.csv') as b, open('output.csv', 'w') as out:
    first_ten = itertools.islice(b, 10)
    for line in itertools.chain(a, first_ten):
        out.write(line)

假设两个文件具有相同的列数。

于 2019-05-19T16:10:13.207 回答
0
import pandas as pd
import numpy as np
# Creating two dataframes with data that overlap, so we don't want all of the 'b' data.
# We want to strip off '3,4,5' as they exist in 'a' as well
# ----------Creating the data frames----------
a = [1,2,3,4,5]
b = [3,4,5,6,7,8,9,10]

dfa = pd.DataFrame(a)
dfa.to_csv('one.csv', index=False)

dfb = pd.DataFrame(b)
dfb.to_csv('two.csv', index = False)
# ---------------------------------------------

# --------Reading through the dataframes-------
one = pd.read_csv('one.csv')
two = pd.read_csv('two.csv')
# ---------------------------------------------

# Stripping off the first 3 data of 'two' the list
output = one.append(two[3:])
output.to_csv("output.csv", sep=',', index=False)
# ---------------------------------------------

我希望这回答了你的问题。对你来说重要的部分是output = one.append(two[3:])。有更复杂的方法可以做同样的事情,但这是最简单的。

于 2019-05-19T16:17:20.860 回答
0

正如我的评论中提到的,你可以使用nrows

import pandas as pd

df1 = pd.read_csv('testNegatif.csv')
df2 = pd.read_csv('trainNegatif.csv', nrows=10)

output=df1.append(df2)
output.to_csv("output.csv", sep=',')

有关更多选项,请参见:https ://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.read_csv.html

于 2019-05-19T16:30:07.323 回答