我目前正在从事一个与使用在 EEG 数据集上运行的神经网络有关的研究项目。我正在使用 BCICIV 2a 数据集,它由一系列包含受试者试验数据的文件组成。每个文件包含一组 25 个通道和一个非常长的 ~600000 时间步长的信号数组。我一直在编写代码以将这些数据预处理为可以传递给神经网络的东西,但遇到了一些效率问题。目前,我编写了代码来确定文件中所有试验在数组中的位置,然后尝试提取存储在另一个数组中的 3D NumPy 数组。但是,当我尝试运行此代码时,速度非常慢。我对 NumPy 不是很熟悉,我目前的大部分经验都是在 C 中。我的意图是将预处理的结果写入一个单独的文件,可以加载该文件以避免预处理。从 C 的角度来看,只需移动指针以适当地格式化数据,所以我不确定为什么 NumPy 这么慢。任何建议都会非常有帮助,因为目前对于 1 个文件,提取 1 个试用版需要大约 2 分钟,一个文件中有 288 个试用版和 9 个文件,这比我想要的要长得多。我对如何充分利用 NumPy 对通用列表的效率改进的知识不是很满意。谢谢!任何建议都会非常有帮助,因为目前对于 1 个文件,提取 1 个试用版需要大约 2 分钟,一个文件中有 288 个试用版和 9 个文件,这比我想要的要长得多。我对如何充分利用 NumPy 对通用列表的效率改进的知识不是很满意。谢谢!任何建议都会非常有帮助,因为目前对于 1 个文件,提取 1 个试用版需要大约 2 分钟,一个文件中有 288 个试用版和 9 个文件,这比我想要的要长得多。我对如何充分利用 NumPy 对通用列表的效率改进的知识不是很满意。谢谢!
import glob, os
import numpy as np
import mne
DURATION = 313
XDIM = 7
YDIM = 6
IGNORE = ('EOG-left', 'EOG-central', 'EOG-right')
def getIndex(raw, tagIndex):
return int(raw.annotations[tagIndex]['onset']*250)
def isEvent(raw, tagIndex, events):
for event in events:
if (raw.annotations[tagIndex]['description'] == event):
return True
return False
def getSlice1D(raw, channel, dur, index):
if (type(channel) == int):
channel = raw.ch_names[channel]
return raw[channel][0][0][index:index+dur]
def getSliceFull(raw, dur, index):
trial = np.zeros((XDIM, YDIM, dur))
for channel in raw.ch_names:
if not channel in IGNORE:
x, y = convertIndices(channel)
trial[x][y] = getSlice1D(raw, channel, dur, index)
return trial
def convertIndices(channel):
xDict = {'EEG-Fz':3, 'EEG-0':1, 'EEG-1':2, 'EEG-2':3, 'EEG-3':4, 'EEG-4':5, 'EEG-5':0, 'EEG-C3':1, 'EEG-6':2, 'EEG-Cz':3, 'EEG-7':4, 'EEG-C4':5, 'EEG-8':6, 'EEG-9':1, 'EEG-10':2, 'EEG-11':3, 'EEG-12':4, 'EEG-13':5, 'EEG-14':2, 'EEG-Pz':3, 'EEG-15':4, 'EEG-16':3}
yDict = {'EEG-Fz':0, 'EEG-0':1, 'EEG-1':1, 'EEG-2':1, 'EEG-3':1, 'EEG-4':1, 'EEG-5':2, 'EEG-C3':2, 'EEG-6':2, 'EEG-Cz':2, 'EEG-7':2, 'EEG-C4':2, 'EEG-8':2, 'EEG-9':3, 'EEG-10':3, 'EEG-11':3, 'EEG-12':3, 'EEG-13':3, 'EEG-14':4, 'EEG-Pz':4, 'EEG-15':4, 'EEG-16':5}
return xDict[channel], yDict[channel]
data_files = glob.glob('../datasets/BCICIV_2a_gdf/*.gdf')
try:
raw = mne.io.read_raw_gdf(data_files[0], verbose='ERROR')
except IndexError:
print("No data files found")
event_times = []
for i in range(len(raw.annotations)):
if (isEvent(raw, i, ('769', '770', '771', '772'))):
event_times.append(getIndex(raw, i))
data = np.empty((len(event_times), XDIM, YDIM, DURATION))
print(len(event_times))
for i, event in enumerate(event_times):
data[i] = getSliceFull(raw, DURATION, event)
编辑:我想回来添加一些关于数据集结构的更多细节。有一个包含数据的 25x~600000 数组和一个更短的注释对象,其中包含事件标签并将这些与较大数组中的时间相关联。具体事件表示运动图像提示,这是我的网络正在接受训练的试验,我正在尝试提取一个 3D 切片,其中包括使用时间维度适当格式化的相关通道,发现时间维度为 313 个时间步长。注释为我提供了相关的时间步长进行调查。Ian 推荐的分析结果表明,主要计算时间位于 getSlice1D() 函数中。特别是在我索引原始对象的地方。从注释中提取事件时间的代码可以忽略不计。