欢迎访问www.allbetgaming.com!

首页科技正文

抚州在线:keras与卷积神经网络(CNN)实现识别minist手写数字

admin2020-04-142

在本篇博文当中,笔者接纳了卷积神经网络来对手写数字举行识别,接纳的神经网络的结构是:输入图片——卷积层——池化层——卷积层——池化层——卷积层——池化层——Flatten层——全毗邻层(64个神经元)——全毗邻层(500个神经元)——softmax函数,最后获得分类的效果。Flatten层用于将池化之后的多个二维数组展开成一维数组,再灌入全毗邻层的神经元当中。

首先导包:

import keras
from keras import layers
from keras import models

确立神经网络的顺序模子:

model = models.Sequential()

添加神经网络的结构(三组卷积层,池化层。一个flatten层,以及两个全毗邻层),激活函数我一样平常喜欢使用relu,固然你也可以使用sigmoid,tanh这两个激活函数,更改我的代码即可。由于是手写数字,最后的softmax一共只能够有十个数字,因此输出写10.激活函数使用softmax。其他都是relu。

model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1)))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Flatten())
model.add(layers.Dense(64, activation='relu'))
model.add(layers.Dense(500, activation='relu'))
model.add(layers.Dense(10, activation='softmax'))

神经网络搭建完毕,最先导minist手写数字,对数字举行分类,分为训练集和验证集,同时将数字举行reshape,代码如下:

from keras.datasets import mnist
from keras.utils import to_categorical
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
train_images = train_images.reshape((60000, 28, 28, 1))
train_images = train_images.astype('float32') / 255
test_images = test_images.reshape((10000, 28, 28, 1))
test_images = test_images.astype('float32') / 255
train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)

紧接着选择需要举行梯度下降的优化器,常见的有adagrad,adam,rmsprop等等,这里选择了rmsprop。损失函数loss function这里选择了Cross Entropy,也就是交织熵(由于最后是一个softmax函数举行分类,我们常常用交织熵来权衡模子的准确度,这个计算起来对照利便,也对照有原理)。模子fit的历程当中我选择了mini—batch小批量梯度下降法,用这个方式对照适合电脑,若是使用所有数据举行梯度下降,那么电脑跑良久才能够完成,若是使用小批量梯度下降,电脑则可以自动举行并行计算,时间削减。迭代次数我选择了10次,每一个mini——batch的批量为128,这个无所谓,这个参数适中即可,不能太大也不能太小。代码如下:

model.compile(optimizer='rmsprop',
loss='categorical_crossentropy',
metrics=['accuracy'])
model.fit(train_images, train_labels, epochs=10, batch_size=128)

输出:

Epoch 1/10
60000/60000 [==============================] - 42s 703us/step - loss: 0.0192 - acc: 0.9940
Epoch 2/10
60000/60000 [==============================] - 42s 706us/step - loss: 0.0166 - acc: 0.9945
Epoch 3/10
60000/60000 [==============================] - 43s 724us/step - loss: 0.0146 - acc: 0.99580s - loss: 0.0145 - acc: 0.9
Epoch 4/10
60000/60000 [==============================] - 43s 720us/step - loss: 0.0129 - acc: 0.9960
Epoch 5/10
60000/60000 [==============================] - 43s 718us/step - loss: 0.0130 - acc: 0.9962
Epoch 6/10
60000/60000 [==============================] - 44s 728us/step - loss: 0.0105 - acc: 0.9966
Epoch 7/10
60000/60000 [==============================] - 44s 737us/step - loss: 0.0095 - acc: 0.9969
Epoch 8/10
60000/60000 [==============================] - 44s 728us/step - loss: 0.0101 - acc: 0.9972
Epoch 9/10
60000/60000 [==============================] - 44s 735us/step - loss: 0.0085 - acc: 0.9974
Epoch 10/10
60000/60000 [==============================] - 45s 743us/step - loss: 0.0081 - acc: 0.99750s - loss: 0.0081 - acc: 0.997

可以看到模子经由十次迭代,训练集的准确度已经达到了%99.7以上,这样会不会泛起过拟合的情形呢?用不用削减一下模子的迭代次数呢?笔者的心里怕怕的,于是用验证集来验证一下模子的准确度:

test_loss, test_acc = model.evaluate(test_images, test_labels)
print(test_acc)

输出:

0.9868

模子的准确度达到了%98.68,靠近百分之九十九的样子,比笔者仅用全毗邻神经网络训练的效果高了零点几的准确度,从中照样可以看出卷积神经网络的有效性,在没有举行调参的情形下准确度已经很高了!

,

申博Sunbet

申博Sunbet www.xzsxzxx.cn是Sunbet娱乐的官方网站,是亚洲唯一的Sunbet。公司业务主要范围:Sunbet、Sunbet、sunbet娱乐等。

转载声明:本站发布文章及版权归原作者所有,转载本站文章请注明文章来源!

本文链接:https://www.qicaihuayang.com/post/684.html

网友评论