TensorFlow用于二进制分类
neural-network
python
tensorflow
5
0

我正在尝试将此MNIST示例调整为二进制分类。

但是,当将我的NLABELSNLABELS=2更改为NLABELS=1 ,损失函数始终返回0(精度为1)。

from __future__ import absolute_import
from __future__ import division
from __future__ import print_function

from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf

# Import data
mnist = input_data.read_data_sets('data', one_hot=True)
NLABELS = 2

sess = tf.InteractiveSession()

# Create the model
x = tf.placeholder(tf.float32, [None, 784], name='x-input')
W = tf.Variable(tf.zeros([784, NLABELS]), name='weights')
b = tf.Variable(tf.zeros([NLABELS], name='bias'))

y = tf.nn.softmax(tf.matmul(x, W) + b)

# Add summary ops to collect data
_ = tf.histogram_summary('weights', W)
_ = tf.histogram_summary('biases', b)
_ = tf.histogram_summary('y', y)

# Define loss and optimizer
y_ = tf.placeholder(tf.float32, [None, NLABELS], name='y-input')

# More name scopes will clean up the graph representation
with tf.name_scope('cross_entropy'):
    cross_entropy = -tf.reduce_mean(y_ * tf.log(y))
    _ = tf.scalar_summary('cross entropy', cross_entropy)
with tf.name_scope('train'):
    train_step = tf.train.GradientDescentOptimizer(10.).minimize(cross_entropy)

with tf.name_scope('test'):
    correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
    _ = tf.scalar_summary('accuracy', accuracy)

# Merge all the summaries and write them out to /tmp/mnist_logs
merged = tf.merge_all_summaries()
writer = tf.train.SummaryWriter('logs', sess.graph_def)
tf.initialize_all_variables().run()

# Train the model, and feed in test data and record summaries every 10 steps

for i in range(1000):
    if i % 10 == 0:  # Record summary data and the accuracy
        labels = mnist.test.labels[:, 0:NLABELS]
        feed = {x: mnist.test.images, y_: labels}

        result = sess.run([merged, accuracy, cross_entropy], feed_dict=feed)
        summary_str = result[0]
        acc = result[1]
        loss = result[2]
        writer.add_summary(summary_str, i)
        print('Accuracy at step %s: %s - loss: %f' % (i, acc, loss)) 
   else:
        batch_xs, batch_ys = mnist.train.next_batch(100)
        batch_ys = batch_ys[:, 0:NLABELS]
        feed = {x: batch_xs, y_: batch_ys}
    sess.run(train_step, feed_dict=feed)

我已经检查了batch_ys (送入y )和_y的尺寸,并且当NLABELS=1时它们都是1xN矩阵,因此问题似乎NLABELS=1 。也许与矩阵乘法有关?

我实际上在一个真实的项目中也遇到了同样的问题,因此,我们将不胜感激...谢谢!

参考资料:
Stack Overflow
收藏
评论
共 1 个回答
高赞 时间 活跃

原始的MNIST示例使用单热编码来表示数据中的标签:这意味着,如果存在NLABELS = 10类(如MNIST),则目标输出为[1 0 0 0 0 0 0 0 0 0]对于类0,对于类[0 1 0 0 0 0 0 0 0 0][0 1 0 0 0 0 0 0 0 0] ,等等tf.nn.softmax()运算符将tf.matmul(x, W) + b计算的对tf.matmul(x, W) + b转换为概率分布跨不同的输出类别,然后将其与y_的馈入值进行比较。

如果NLABELS = 1 ,则这就像只有一个类,并且tf.nn.softmax() op将为该类计算1.0的概率,从而导致交叉熵为0.0 ,因为tf.log(1.0)对于所有示例, tf.log(1.0)0.0

您可以尝试(至少)两种方法进行二进制分类:

  1. 最简单的方法是为两个可能的类设置NLABELS = 2 ,然后将标签0的训练数据编码为[1 0] ,将标签[1 0]训练数据编码为[0 1]此答案对如何做到这一点提出了建议。

  2. 您可以将标签保留为整数01并使用tf.nn.sparse_softmax_cross_entropy_with_logits() ,如该答案所示

收藏
评论
新手导航
  • 社区规范
  • 提出问题
  • 进行投票
  • 个人资料
  • 优化问题
  • 回答问题

关于我们

常见问题

内容许可

联系我们

@2020 AskGo
京ICP备20001863号