加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Python > 正文

python – Keras LSTM输入维度设置

发布时间:2020-12-16 23:32:45 所属栏目:Python 来源:网络整理
导读:我试图用keras训练LSTM模型,但我觉得我在这里弄错了. 我收到了错误 ValueError: Error when checking input: expected lstm_17_input to have 3 dimensions,but got array with shape (10000,20) 而我的代码看起来像 model = Sequential()model.add(LSTM(256
我试图用keras训练LSTM模型,但我觉得我在这里弄错了.

我收到了错误

ValueError: Error when checking input: expected lstm_17_input to have
3 dimensions,but got array with shape (10000,20)

而我的代码看起来像

model = Sequential()
model.add(LSTM(256,activation="relu",dropout=0.25,recurrent_dropout=0.25,input_shape=(None,20,64)))
model.add(Dense(1,activation="sigmoid"))
model.compile(loss='binary_crossentropy',optimizer='adam',metrics=['accuracy'])
model.fit(X_train,y_train,batch_size=batch_size,epochs=10)

其中X_train的形状为(10000,20),前几个数据点类似

array([[ 0,...,40,9],[ 0,33,51],54,50],...

y_train的形状为(10000,),它是二进制(0/1)标签数组.

有人能指出我错在哪里吗?

解决方法

为了完整起见,这就是发生的事情.

首先,LSTM与Keras中的所有图层一样,接受两个参数:input_shape和batch_input_shape.不同之处在于,input_shape不包含批量大小,而batch_input_shape是包含批量大小的完整输入形状.

因此,规范input_shape =(None,64)告诉keras期望一个4维输入,这不是你想要的.正确的只是(20,).

但那还不是全部. LSTM层是一个循环层,因此它需要一个三维输入(batch_size,timesteps,input_dim).这就是为什么正确的规范是input_shape =(20,1)或batch_input_shape =(10000,1).此外,您的训练阵列也应该重新塑造,以表示每步有20个时间步和1个输入功能.

因此,解决方案:

X_train = np.expand_dims(X_train,2)  # makes it (10000,1)
...
model = Sequential()
model.add(LSTM(...,input_shape=(20,1)))

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读