4

我有一个 2D 输入(如果考虑样本数量,则为 3D),我想应用一个 keras 层来接收这个输入并输出另一个 2D 矩阵。因此,例如,如果我有一个大小为 (ExV) 的输入,则学习权重矩阵将是 (SxE) 和输出 (SxV)。我可以用密集层做到这一点吗?

编辑(纳西姆请求):

第一层什么都不做。只是给 Lambda 层一个输入:

from keras.models import Sequential
from keras.layers.core import Reshape,Lambda
from keras import backend as K
from keras.models import Model

input_sample = [
[[1,2,3,4,5],[6,7,8,9,10],[11,12,13,14,15],[16,17,18,19,20]]
,[[21,22,23,24,25],[26,27,28,29,30],[31,32,33,34,35],[36,37,38,39,40]]
,[[41,42,43,44,45],[46,47,48,49,50],[51,52,53,54,55],[56,57,58,59,60]]
]


model = Sequential()
model.add(Reshape((4,5), input_shape=(4,5)))
model.add(Lambda(lambda x: K.transpose(x)))
intermediate_layer_model = Model(input=model.input,output=model.layers[0].output)
print "First layer:"
print intermediate_layer_model.predict(input_sample)
print ""
print "Second layer:"
intermediate_layer_model = Model(input=model.input,output=model.layers[1].output)
print intermediate_layer_model.predict(input_sample)
4

2 回答 2

2

这取决于你想做什么。它是二维的,因为它是一个序列吗?然后 LSTM 是为此而设计的,如果您设置 return_sequence=True,它将在需要的大小时返回一个序列。

CNN 也可以处理 2D 输入,并且会根据您使用的内核数量输出可变大小的内容。

否则,您可以将其重塑为 (E x V, ) 1D 张量,使用具有 SxV 维度的 Dense 层并将输出重塑为 (S,V) 2D 张量...

我无法为您提供更多帮助,我们需要了解您的用例 :-) 神经网络有太多的可能性。

编辑 :

您可以使用 TimeDistributed(Dense(S))。如果您的输入具有形状 (E,V),则将其重塑为 (V,E) 以使 V 作为“时间维度”。然后应用 TimeDistributed(Dense(S)),这将是一个具有权重 (ExS) 的密集层,输出将具有 (V,S) 形状,因此您可以将其重塑为 (S,V)。

这能满足你的要求吗?TimeDistributed() 层会将相同的 Dense(S) 层应用到输入的每 V 行,并具有共享权重。

编辑2:

查看 keras 后端的代码后,发现要使用带有“排列模式”选项的 tensorflow 转置,您需要使用 K.permute_dimensions(x,pattern)。必须包含批次维度。在你的情况下:

Lambda(lambda x: K.permute_dimensions(x,[0,2,1]))

K.transpose(x) 在内部使用相同的函数(用于 tf 后端),但排列设置为默认值,即 [n,n-1,...,0]。

于 2017-02-10T13:35:07.823 回答
2

你想要的可能是自动编码器。

https://blog.keras.io/building-autoencoders-in-keras.html

于 2017-02-10T13:07:31.253 回答