我试图每隔几个小时检索一次数据,由于数据会有很多重复数据,我将删除所有具有相同日期的重复数据并保留第一个实例。这是我的代码:
import pandas as pd
import datetime
import pandas as pd
from pandas_datareader import data as web
import matplotlib.pyplot as plt
from alpha_vantage.foreignexchange import ForeignExchange
import os
from os import path
from alpha_vantage.timeseries import TimeSeries
import matplotlib.pyplot as plt
import sys
while True:
if path.exists('stockdata.csv') == True:
data1 = pd.read_csv('stockdata.csv', sep= ' ', index_col=0)
ts = TimeSeries(key='1ORS1XLM1YK1GK9Y', output_format='pandas')
data, meta_data = ts.get_intraday(symbol = 'spy', interval='1min', outputsize='full')
data = data.rename(columns={ '1. open':'Open','2. high': 'High','3. low': 'Low', '4. close':'Close', '5. volume': 'Volume'})
data1 = data1.append(data)
data1 = data1.loc[data1.duplicated(keep='first'), :] # This should remove the rows which have duplicate dates
data1.to_csv('stockdata.csv', sep= ' ')
break
else:
data1 = pd.DataFrame()
data1.to_csv('stockdata.csv', sep= ' ')
data1 = data1.loc[data1.duplicated(keep='first'), :]
这应该删除具有重复日期的行的 1 个实例,但是如果我运行代码 2 次,我仍然有两倍的行。
作为一个例子来展示我想要完成的事情:
"2019-11-20 09:57:00" 311.405 311.44 311.4 311.41 42081.0
"2019-11-20 09:56:00" 311.38 311.425 311.33 311.41 63551.0
"2019-11-20 09:55:00" 311.34 311.4525 311.34 311.39 98011.0
"2019-11-20 09:53:00" 311.55 311.59 311.46 311.4832 125541.0
"2019-11-20 09:57:00" 311.405 311.44 311.4 311.41 42081.0
"2019-11-20 09:56:00" 311.38 311.425 311.33 311.41 63551.0
"2019-11-20 09:55:00" 311.34 311.4525 311.34 311.39 98011.0
"2019-11-20 09:54:00" 311.49 311.51 311.33 311.33 85857.0
"2019-11-20 09:53:00" 311.55 311.59 311.46 311.4832 125541.0
正如您所看到的,正在附加数据,因此如上例所示,它被粘贴了 2 次。然而,当添加新数据时,将会有一个新的唯一条目。所以在这里我试图删除所有重复项以保留新条目。
如果我data1.loc[data1.index.duplicated(keep = 'last'), :]
在另一个单元格中运行,我会得到:
所有条目都被删除。