网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
12月19日漏签0天
深度学习吧 关注:14,685贴子:25,054
  • 看贴

  • 图片

  • 吧主推荐

  • 游戏

  • 11回复贴,共1页
<<返回深度学习吧
>0< 加载中...

MNIST数据集 训练过程中accuracy一直不变

  • 只看楼主
  • 收藏

  • 回复
  • summer__zucker
  • 高级粉丝
    3
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
我在运行书本上手写数字识别例子,最后出现训练过程中accuracy一直不变,求告知原因,如何改进
代码附楼下


  • summer__zucker
  • 高级粉丝
    3
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
# MNIST数据集相关常熟
INPUT_NODE = 784 # 输入层节点数,对于MNIST数据集,这个就等于图片的像素
OUTPUT_NODE = 10 # 输出层节点数。类别数目。区分0~9
# 配置神经网络参数
LAYER1_NODE = 500 # 隐藏层节点数
BATCH_SIZE = 100 # 训练batch中训练个数,数字越小,越接近随机梯度下降,数字越大,越接近梯度下降
LEARNING_RATE_BASE = 0.8 # 基础的学习率
LEARNING_RATE_DECAY = 0.99 # 学习速率的衰减率
REGULARIZATION_RATE = 0.0001 # 描述模型复杂化的正则化在损失函数中的系数
TRAINING_STEPS = 30000
MOVING_AVERAGE_DECAY = 0.99 # 滑动平均衰减率
'''
一个辅助函数,给定神经网络的输入和所有参数,计算神经网络前向传播结果。
在这里,定义一个使用ReLU激活函数的三层全连接神经网络,通过加入隐含层实现了多层网络结构,
通过ReLU激活函数实现了去线性化。在这个函数中,也支持传入用于计算参数平均值的类,
这样方便在测试时使用滑动平均模型。
'''
def inference(input_tensor, avg_class, weights1, biases1, weights2, biases2):
# 没有提供滑动平均类,直接使用参数当前的取值。
if avg_class == None:
# 计算隐藏层的前向传播结果,这里使用ReLU激活函数
layer1 = tf.nn.relu(tf.matmul(input_tensor, weights1) + biases1)
'''
计算输出层的前向传播结果。因为在计算损失函数是会一并计算softmax函数。
这里不需要加入激活函数,而且不加入softmax不会影响预测结果。因为预测时使用的是不同类别
对应节点输出值的相对大小,有没有softmax层对最后的分类结果计算没有影响。
在计算前向传播时,可以不加入softmax层
'''
return tf.matmul(layer1, weights2) + biases2
else:
# 首先使用avg_class.average函数来计算得出变量的滑动平均值
# 然后计算相应的神经网络前向传播结果
layer1 = tf.nn.relu(tf.matmul(input_tensor, avg_class.average(weights1)) +
avg_class.average(biases1))
return tf.matmul(layer1, avg_class.average(weights2)) + avg_class.average(biases2)
# 训练模型
def train(mnist):
x = tf.placeholder(tf.float32, [None, INPUT_NODE], name='x-input')
y_ = tf.placeholder(tf.float32, [None, OUTPUT_NODE], name='y-input')
# 生成隐含层的参数
weights1 = tf.Variable(tf.truncated_normal([INPUT_NODE, LAYER1_NODE], stddev=0.1))
biases1 = tf.Variable(tf.constant(0.1, shape=[LAYER1_NODE]))
# 生成输出层参数
weights2 = tf.Variable(tf.truncated_normal([LAYER1_NODE, OUTPUT_NODE], stddev=0.1))
biases2 = tf.Variable(tf.constant(0.1, shape=[OUTPUT_NODE]))
# 计算当前参数下神经网络前向传播结果。这里给出的用于计算滑动平均的类为None,
# 函数不使用参数的滑动平均值
y = inference(x, None, weights1, biases1, weights2, biases2)
# 定义存储训练论述的变量,这个变量不需要计算滑动平均值,
# 所以这里指定这个变量为不可训练的变量(trainable=Fasle)。使用tf训练神经网络时,
# 一般讲代表训练轮数的变量指定为不可训练的参数
global_step = tf.Variable(0, trainable=False)
# 给定滑动平均衰减率和训练轮数的变量初始化滑动平均类,
# 给定训练轮数的变量可以加快训练早期变量的更新速度
variable_averages = tf.train.ExponentialMovingAverage(MOVING_AVERAGE_DECAY, global_step)
# 在所有代表神经网络参数的变量上使用滑动平均。其他辅助变量(global_step)就不要了
# tf.trainable_variables返回的就是图上集合
# GraphKeys.TRAINABLE_VARIABLES中的元素。这个集合的元素就是所有没有指定trainable=False的参数
variables_averages_op = variable_averages.apply(tf.trainable_variables())
# 计算使用了滑动平均之后的前向传播结果。滑动平均不改变变量本身取值,维护一个影子变量记录其滑动平均值。
# 使用滑动平均值时,需要明确调用average函数
average_y = inference(x, variable_averages, weights1, biases1, weights2, biases2)
'''
计算交叉熵作为预测值与真实值差距的损失函数。这里使用了TF中提供的
sparse_softmax_cross_entropy_with_logits函数来计算交叉熵。分类问题只有一个正确答案时,
可以使用这个函数来加速交叉熵的计算,MNIST问题的图片中只包含0~9中一个数字,可以使用。
这个函数的第一个参数是神经网络不包括softmax层的前向传播结果,第二个是训练数据的正确结果。
因为标准答案是一个长度为10的一维数组,此函数需要提供一个正确答案的数字,需要使用tf.argmax函数
得到正确答案对应的类别编号
'''
cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y, labels=tf.argmax(y_, 1))
# 计算当前batch中所有样例的交叉熵平均值
cross_entropy_mean = tf.reduce_mean(cross_entropy)
# 计算L2正则化损失函数
regularizer = tf.contrib.layers.l2_regularizer(REGULARIZATION_RATE)
# 计算模型的正则化损失。一般只计算神经网络边上权重的正则化损失,而不使用偏置项
regularization = regularizer(weights1) + regularizer(weights2)
# 总损失等于交叉熵损失和正则化损失的和
loss = cross_entropy_mean + regularization
# 设置指数衰减的学习率
learning_rate = tf.train.exponential_decay(
LEARNING_RATE_BASE, # 基础学习率,更新变量时使用的学习率在这个基础上递减
global_step, # 当前迭代轮数
mnist.train.num_examples / BATCH_SIZE, # 过完所有训练数据需要迭代次数
LEARNING_RATE_DECAY)
# 使用tf.train.GradientDescentOptimizer优化算法来优化损失函数, 这里损失函数包含交叉熵损失和L2正则化损失
train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_step)
# 在训练神经网络模型是,每过一遍数据既需要通过反向传播来更新神经网络中的参数,又要更新每一个参数的滑动平均值
# tf提供tf.control_dependencies和tf.group两种机制
# train_op = tf.group(train_step, variables_averages_op)与下面两行程序等价
with tf.control_dependencies([train_step, variables_averages_op]):
train_op = tf.no_op(name='train')
'''
检测使用了滑动平均模型的神经网络前向传播结果是否正确,tf.argmax(average_y, 1)计算每一个样例答案。
其中average_y是一个batch_size * 10的二维数组,每一行表示一个样例的前向传播结果。
第二个参数'1'表示选取最大值的操作尽在第一个维度中进行。(旨在每一行选择最大值对应的下标;得到一个长度为batch的一维数组,
这个数组中的值表示每一个样例对应的数字识别结果。tf.equal 判断两个张量的每一位是否相等。
'''
correct_prediction = tf.equal(tf.argmax(average_y, 1), tf.argmax(y_, 1))
# 这个运算先将一个布尔型的数值转化为是属性,然后计算平均值。这个平均值就是模型在这一组数据上的正确率
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
# 初始化会话,开始训练
with tf.Session() as sess:
tf.global_variables_initializer().run()
# 准备验证数据,一般在神经网络的训练过程中会通过验证数据来大致判断停止的条件和评判训练的结果
validate_feed = {x: mnist.validation.images, y_: mnist.validation.labels}
# 准备测试数据,在真是应用中,这部分数据训练时不可见,这个数据作为模型优劣的最后评价标准
test_feed = {x: mnist.test.images, y_: mnist.test.labels}
# 迭代训练神经网络
for i in range(TRAINING_STEPS):
# 每1000轮输出一次在验证数据集上的测试结果
if i % 1000 == 0:
'''
# 计算滑动平均模型在验证数据上结果,因为数据集比较小,所以一次可以处理所有验证数据。
# 为了方便计算,本成语没有将验证数据集划分更小的batch。当神经网络模型比较复杂或者验证数据较大,
# 太大的batch会导致计算时间过长,甚至发生内存溢出的错误。
'''
validate_acc = sess.run(accuracy, feed_dict=validate_feed)
print("After %d training step(s), validation accuracy"
"using average model is %g" % (i, validate_acc))
# 产生这一轮使用的一个batch训练数据,并运行训练过程
xs, ys = mnist.train.next_batch(BATCH_SIZE)
sess.run(train_op, feed_dict={x: xs, y_: ys})
# 在训练结束之后,在测试数据上检测神经网络模型的最终正确率
test_acc = sess.run(accuracy, feed_dict=test_feed)
print(("After %d training step(s), test accuracy using average"
"model is %g" % (TRAINING_STEPS, test_acc)))
# 主程序入口
def main(argv=None):
# 声明处理MNIST数据集的类,这个类在初始化时会自动下载数据。
mnist = input_data.read_data_sets("C:\\Users\\ASUS\\Desktop\\MNIST_DATA", one_hot=True)
train(mnist)
# tf提供一个主程序入口,tf.app.run会调用上面定义的main函数
if __name__ == '__main__':
tf.app.run()


2025-12-19 17:41:53
广告
不感兴趣
开通SVIP免广告
  • 杰少先森
  • 中级粉丝
    2
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
你的问题解决了吗?我和你一样的问题


  • 沥空
  • 知名人士
    10
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
已经训练饱和了吧


  • 无名可起啊啊啊
  • 初级粉丝
    1
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
学习率太高了,0.01就好


  • 花园柳下惠
  • 初级粉丝
    1
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
我的也类似,准确率稳定在0.1左右,基本没起作用。请问哪位大佬能看出是什么问题吗?
step 930, training accuracy 0.06
step 935, training accuracy 0.14
step 940, training accuracy 0.16
step 945, training accuracy 0.08
step 950, training accuracy 0.06
step 955, training accuracy 0.12
step 960, training accuracy 0.06
step 965, training accuracy 0.04
step 970, training accuracy 0.08
step 975, training accuracy 0.12
step 980, training accuracy 0.06
step 985, training accuracy 0
step 990, training accuracy 0.12
step 995, training accuracy 0.08
代码如下:
import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
mnist = input_data.read_data_sets('MNIST_data', one_hot=True)
x_data = tf.placeholder("float", shape=[None, 784])
y_data = tf.placeholder("float", shape=[None, 10])
def weight_variable(shape):
initial = tf.truncated_normal(shape, stddev=0.1)
return tf.Variable(initial)
def bias_variable(shape):
initial = tf.constant(0.1, shape=shape)
return tf.Variable(initial)
def conv2d(x, W):
return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='VALID')
def max_pool_2x2(x):
return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='VALID')
W_conv1 = weight_variable([5, 5, 1, 32])
b_conv1 = bias_variable([32])
x_image = tf.reshape(x_data, [-1, 28, 28, 1])
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
h_pool1 = max_pool_2x2(h_conv1)
W_conv2 = weight_variable([5, 5, 32, 64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
h_pool2 = max_pool_2x2(h_conv2)
W_fc1 = weight_variable([4 * 4 * 64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2, [-1, 4*4*64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
keep_prob = tf.placeholder("float")
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
W_fc2 = weight_variable([1024, 10])
b_fc2 = bias_variable([10])
y_conv=tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)
cross_entropy = -tf.reduce_sum(y_data * tf.log(y_conv))
train_step = tf.train.AdamOptimizer(1e-2).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(y_data, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
sess = tf.Session()
sess.run(tf.initialize_all_variables())
for i in range(1000):
batch = mnist.train.next_batch(50)
if i%5 == 0:
train_accuracy = sess.run(accuracy, feed_dict={x_data:batch[0], y_data: batch[1], keep_prob: 1.0})
print("step %d, training accuracy %g"%(i, train_accuracy))
sess.run(train_step, feed_dict={x_data: batch[0], y_data: batch[1], keep_prob: 0.5})
用的是王晓华《TensorFlow深度学习应用实践》一书中的源代码,python版本3.6,TensorFlow版本1.14


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 11回复贴,共1页
<<返回深度学习吧
分享到:
©2025 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示