我创建了一个熊猫数据框
df = DataFrame(index=['A','B','C'], columns=['x','y'])
并得到了这个
xy 南南 B 南南 C 南 南
现在,我想为特定单元格分配一个值,例如 rowC
和 column x
。我希望得到这个结果:
xy 南南 B 南南 C 10 NaN
使用此代码:
df.xs('C')['x'] = 10
但是,内容df
并没有改变。数据框再次仅包含NaN
s。
有什么建议么?
RukTech 的答案,df.set_value('C', 'x', 10)
远远快于我在下面建议的选项。但是,它已被弃用。
展望未来,推荐的方法是.iat/.at
.
为什么df.xs('C')['x']=10
不起作用:
df.xs('C')
默认情况下,返回一个带有数据副本的新数据框,所以
df.xs('C')['x']=10
仅修改此新数据框。
df['x']
返回数据框的视图df
,因此
df['x']['C'] = 10
修改df
自己。
警告:有时很难预测操作是否返回副本或视图。出于这个原因,文档建议避免使用 "chained indexing" 进行分配。
所以推荐的替代方案是
df.at['C', 'x'] = 10
这确实修改了df
.
In [18]: %timeit df.set_value('C', 'x', 10)
100000 loops, best of 3: 2.9 µs per loop
In [20]: %timeit df['x']['C'] = 10
100000 loops, best of 3: 6.31 µs per loop
In [81]: %timeit df.at['C', 'x'] = 10
100000 loops, best of 3: 9.2 µs per loop
您还可以使用.loc
如下所示的条件查找:
df.loc[df[<some_column_name>] == <condition>, [<another_column_name>]] = <value_to_add>
where<some_column_name
是您要检查<condition>
变量<another_column_name>
的列,是您要添加到的列(可以是新列或已经存在的列)。<value_to_add>
是您要添加到该列/行的值。
此示例不适用于手头的问题,但对于想要根据条件添加特定值的人可能很有用。
尝试使用df.loc[row_index,col_indexer] = value
设置值的推荐方式(根据维护者)是:
df.ix['x','C']=10
使用“链式索引”( df['x']['C']
) 可能会导致问题。
看:
要设置值,请使用:
df.at[0, 'clm1'] = 0
set_value
,ix
已被弃用。iloc
和loc
.iat/.at
是很好的解决方案。假设你有这个简单的 data_frame:
A B C
0 1 8 4
1 3 9 6
2 22 33 52
如果我们想修改单元格的值,[0,"A"]
您可以使用以下解决方案之一:
df.iat[0,0] = 2
df.at[0,'A'] = 2
这是一个完整的示例,如何使用iat
来获取和设置 cell 的值:
def prepossessing(df):
for index in range(0,len(df)):
df.iat[index,0] = df.iat[index,0] * 2
return df
y_train 之前:
0
0 54
1 15
2 15
3 8
4 31
5 63
6 11
y_train 在调用iat
要更改为将每个单元格的值乘以 2 的预置函数后:
0
0 108
1 30
2 30
3 16
4 62
5 126
6 22
我会建议:
df.loc[index_position, "column_name"] = some_value
在我的示例中,我只是在选定的单元格中更改它
for index, row in result.iterrows():
if np.isnan(row['weight']):
result.at[index, 'weight'] = 0.0
“结果”是一个数据字段,列“权重”
你可以使用.iloc
.
df.iloc[[2], [0]] = 10
set_value()
已弃用。
从 0.23.4 版本开始,Pandas“宣告未来”...
>>> df
Cars Prices (U$)
0 Audi TT 120.0
1 Lamborghini Aventador 245.0
2 Chevrolet Malibu 190.0
>>> df.set_value(2, 'Prices (U$)', 240.0)
__main__:1: FutureWarning: set_value is deprecated and will be removed in a future release.
Please use .at[] or .iat[] accessors instead
Cars Prices (U$)
0 Audi TT 120.0
1 Lamborghini Aventador 245.0
2 Chevrolet Malibu 240.0
考虑到这个建议,下面是如何使用它们的演示:
>>> df.iat[1, 1] = 260.0
>>> df
Cars Prices (U$)
0 Audi TT 120.0
1 Lamborghini Aventador 260.0
2 Chevrolet Malibu 240.0
>>> df.at[2, "Cars"] = "Chevrolet Corvette"
>>> df
Cars Prices (U$)
0 Audi TT 120.0
1 Lamborghini Aventador 260.0
2 Chevrolet Corvette 240.0
参考:
将索引与条件一起使用的一种方法是首先获取满足条件的所有行的索引,然后以多种方式简单地使用这些行索引
conditional_index = df.loc[ df['col name'] <condition> ].index
示例条件就像
==5, >10 , =="Any string", >= DateTime
然后您可以通过多种方式使用这些行索引,例如
df.loc[conditional_index , [col name]]= <new value>
df.loc[conditional_index, [col1,col2]]= <new value>
df.loc[conditional_index, [col1,col2]]= df.loc[conditional_index,'col name']
这一切都是可能的,因为 .index 返回一个索引数组, .loc 可以将其用于直接寻址,因此它避免了一次又一次的遍历。
以下是所有用户提供的针对整数和字符串索引的数据帧的有效解决方案的摘要。
df.iloc
,df.loc
并且df.at
适用于两种类型的数据帧,df.iloc
仅适用于行/列整数索引,df.loc
并df.at
支持使用列名和/或整数索引设置值。
当指定的索引不存在时,两者df.loc
和df.at
都会将新插入的行/列附加到现有数据框中,但df.iloc
会 raise "IndexError: positional indexers are out-of-bounds"
。在 Python 2.7 和 3.7 中测试的工作示例如下:
import numpy as np, pandas as pd
df1 = pd.DataFrame(index=np.arange(3), columns=['x','y','z'])
df1['x'] = ['A','B','C']
df1.at[2,'y'] = 400
# rows/columns specified does not exist, appends new rows/columns to existing data frame
df1.at['D','w'] = 9000
df1.loc['E','q'] = 499
# using df[<some_column_name>] == <condition> to retrieve target rows
df1.at[df1['x']=='B', 'y'] = 10000
df1.loc[df1['x']=='B', ['z','w']] = 10000
# using a list of index to setup values
df1.iloc[[1,2,4], 2] = 9999
df1.loc[[0,'D','E'],'w'] = 7500
df1.at[[0,2,"D"],'x'] = 10
df1.at[:, ['y', 'w']] = 8000
df1
>>> df1
x y z w q
0 10 8000 NaN 8000 NaN
1 B 8000 9999 8000 NaN
2 10 8000 9999 8000 NaN
D 10 8000 NaN 8000 NaN
E NaN 8000 9999 8000 499.0
我测试过,输出df.set_value
稍微快一点,但官方方法df.at
看起来是最快的非弃用方法。
import numpy as np
import pandas as pd
df = pd.DataFrame(np.random.rand(100, 100))
%timeit df.iat[50,50]=50 # ✓
%timeit df.at[50,50]=50 # ✔
%timeit df.set_value(50,50,50) # will deprecate
%timeit df.iloc[50,50]=50
%timeit df.loc[50,50]=50
7.06 µs ± 118 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
5.52 µs ± 64.2 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
3.68 µs ± 80.8 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
98.7 µs ± 1.07 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
109 µs ± 1.42 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
请注意,这是为单个单元格设置值。对于向量loc
,iloc
应该是更好的选择,因为它们是向量化的。
Soo,您的问题是将 ['x',C] 处的 NaN 转换为值 10
答案是..
df['x'].loc['C':]=10
df
替代代码是
df.loc['C', 'x']=10
df
df.loc['c','x']=10
这将改变第c行和
第x列的值。
如果想将 df 位置 (0,0) 中的单元格更改为字符串,例如'"236"76"'
,以下选项将起作用:
df[0][0] = '"236"76"'
# %timeit df[0][0] = '"236"76"'
# 938 µs ± 83.4 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
df.at[0, 0] = '"236"76"'
# %timeit df.at[0, 0] = '"236"76"'
#15 µs ± 2.09 µs per loop (mean ± std. dev. of 7 runs, 100000 loops each)
df.iat[0, 0] = '"236"76"'
# %timeit df.iat[0, 0] = '"236"76"'
# 41.1 µs ± 3.09 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
df.loc[0, 0] = '"236"76"'
# %timeit df.loc[0, 0] = '"236"76"'
# 5.21 ms ± 401 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
df.iloc[0, 0] = '"236"76"'
# %timeit df.iloc[0, 0] = '"236"76"'
# 5.12 ms ± 300 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
如果时间相关,使用pandas.DataFrame.at
是最快的方法。
如果您不想更改整行的值,而只想更改某些列的值:
x = pd.DataFrame({'A': [1, 2, 3], 'B': [4, 5, 6]})
x.iloc[1] = dict(A=10, B=-10)
从 0.21.1 版本开始,您还可以使用.at
方法。.loc
与此处提到的相比存在一些差异- pandas .at 与 .loc,但单值替换更快
除了上面的答案,这里是一个基准,比较了将数据行添加到现有数据帧的不同方法。它表明使用 at 或 set-value 是大型数据帧(至少对于这些测试条件)最有效的方法。
对于测试,使用了包含 100,000 行和 1,000 列以及随机 numpy 值的现有数据框。向这个数据框添加了 100 个新行。
代码见下:
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
Created on Wed Nov 21 16:38:46 2018
@author: gebbissimo
"""
import pandas as pd
import numpy as np
import time
NUM_ROWS = 100000
NUM_COLS = 1000
data = np.random.rand(NUM_ROWS,NUM_COLS)
df = pd.DataFrame(data)
NUM_ROWS_NEW = 100
data_tot = np.random.rand(NUM_ROWS + NUM_ROWS_NEW,NUM_COLS)
df_tot = pd.DataFrame(data_tot)
DATA_NEW = np.random.rand(1,NUM_COLS)
#%% FUNCTIONS
# create and append
def create_and_append(df):
for i in range(NUM_ROWS_NEW):
df_new = pd.DataFrame(DATA_NEW)
df = df.append(df_new)
return df
# create and concatenate
def create_and_concat(df):
for i in range(NUM_ROWS_NEW):
df_new = pd.DataFrame(DATA_NEW)
df = pd.concat((df, df_new))
return df
# store as dict and
def store_as_list(df):
lst = [[] for i in range(NUM_ROWS_NEW)]
for i in range(NUM_ROWS_NEW):
for j in range(NUM_COLS):
lst[i].append(DATA_NEW[0,j])
df_new = pd.DataFrame(lst)
df_tot = df.append(df_new)
return df_tot
# store as dict and
def store_as_dict(df):
dct = {}
for j in range(NUM_COLS):
dct[j] = []
for i in range(NUM_ROWS_NEW):
dct[j].append(DATA_NEW[0,j])
df_new = pd.DataFrame(dct)
df_tot = df.append(df_new)
return df_tot
# preallocate and fill using .at
def fill_using_at(df):
for i in range(NUM_ROWS_NEW):
for j in range(NUM_COLS):
#print("i,j={},{}".format(i,j))
df.at[NUM_ROWS+i,j] = DATA_NEW[0,j]
return df
# preallocate and fill using .at
def fill_using_set(df):
for i in range(NUM_ROWS_NEW):
for j in range(NUM_COLS):
#print("i,j={},{}".format(i,j))
df.set_value(NUM_ROWS+i,j,DATA_NEW[0,j])
return df
#%% TESTS
t0 = time.time()
create_and_append(df)
t1 = time.time()
print('Needed {} seconds'.format(t1-t0))
t0 = time.time()
create_and_concat(df)
t1 = time.time()
print('Needed {} seconds'.format(t1-t0))
t0 = time.time()
store_as_list(df)
t1 = time.time()
print('Needed {} seconds'.format(t1-t0))
t0 = time.time()
store_as_dict(df)
t1 = time.time()
print('Needed {} seconds'.format(t1-t0))
t0 = time.time()
fill_using_at(df_tot)
t1 = time.time()
print('Needed {} seconds'.format(t1-t0))
t0 = time.time()
fill_using_set(df_tot)
t1 = time.time()
print('Needed {} seconds'.format(t1-t0))
我也在搜索这个主题,我整理了一种方法来遍历 DataFrame 并使用来自第二个 DataFrame 的查找值更新它。这是我的代码。
src_df = pd.read_sql_query(src_sql,src_connection)
for index1, row1 in src_df.iterrows():
for index, row in vertical_df.iterrows():
src_df.set_value(index=index1,col=u'etl_load_key',value=etl_load_key)
if (row1[u'src_id'] == row['SRC_ID']) is True:
src_df.set_value(index=index1,col=u'vertical',value=row['VERTICAL'])