禁用Tensorflow调试信息
python
tensorflow
4
0

通过调试信息,我的意思是TensorFlow在终端中显示的有关加载的库和找到的设备等的内容,不是Python错误。

I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcublas.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcudnn.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcufft.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcurand.so locally
I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:900] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
I tensorflow/core/common_runtime/gpu/gpu_init.cc:102] Found device 0 with properties: 
name: Graphics Device
major: 5 minor: 2 memoryClockRate (GHz) 1.0885
pciBusID 0000:04:00.0
Total memory: 12.00GiB
Free memory: 11.83GiB
I tensorflow/core/common_runtime/gpu/gpu_init.cc:126] DMA: 0 
I tensorflow/core/common_runtime/gpu/gpu_init.cc:136] 0:   Y 
I tensorflow/core/common_runtime/gpu/gpu_device.cc:717] Creating TensorFlow device (/gpu:0) -> (device: 0, name: Graphics Device, pci bus id: 0000:04:00.0)
I tensorflow/core/common_runtime/gpu/gpu_bfc_allocator.cc:51] Creating bin of max chunk size 1.0KiB
...
参考资料:
Stack Overflow
收藏
评论
共 9 个回答
高赞 时间 活跃

是的,我正在使用tf 2.0-beta,并且想要启用/禁用默认日志记录。 tf1.X中的环境变量和方法似乎不再存在。

我进入PDB,发现它可以正常工作:

# close the TF2 logger
tf2logger = tf.get_logger()
tf2logger.error('Close TF2 logger handlers')
tf2logger.root.removeHandler(tf2logger.root.handlers[0])

然后,我添加自己的记录器API(在这种情况下,基于文件)

logtf = logging.getLogger('DST')
logtf.setLevel(logging.DEBUG)

# file handler
logfile='/tmp/tf_s.log'
fh = logging.FileHandler(logfile)
fh.setFormatter( logging.Formatter('fh %(asctime)s %(name)s %(filename)s:%(lineno)d :%(message)s') )
logtf.addHandler(fh)
logtf.info('writing to %s', logfile)
收藏
评论

您可以使用os.environ禁用所有调试日志:

import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '3' 
import tensorflow as tf

在tf 0.12和1.0上测试

详细来说,

0 = all messages are logged (default behavior)
1 = INFO messages are not printed
2 = INFO and WARNING messages are not printed
3 = INFO, WARNING, and ERROR messages are not printed
收藏
评论

我也有这个问题(在tensorflow-0.10.0rc0 ),但是无法通过建议的答案解决过多的鼻子测试记录问题。

我设法通过直接研究tensorflow记录器来解决此问题。不是最正确的修复程序,但效果很好,并且只会污染直接或间接导入张量流的测试文件:

# Place this before directly or indirectly importing tensorflow
import logging
logging.getLogger("tensorflow").setLevel(logging.WARNING)
收藏
评论

由于TF_CPP_MIN_LOG_LEVEL对我不起作用,您可以尝试:

tf.logging.set_verbosity(tf.logging.WARN)

在TensorFlow v1.6.0中为我工作

收藏
评论

为了在此处增加一些灵活性,您可以编写一个函数来过滤出您喜欢的消息,从而实现对日志记录级别的更精细控制:

logging.getLogger('tensorflow').addFilter(my_filter_func)

其中my_filter_func接受一个LogRecord对象作为输入[ LogRecord docs ],如果您希望抛出该消息,则返回零;否则为非零。

这是一个示例过滤器,仅保留每第n条信息消息(由于此处使用了nonlocal ,因此保留了Python 3):

def keep_every_nth_info(n):
    i = -1
    def filter_record(record):
        nonlocal i
        i += 1
        return int(record.levelname != 'INFO' or i % n == 0)
    return filter_record

# Example usage for TensorFlow:
logging.getLogger('tensorflow').addFilter(keep_every_nth_info(5))

以上所有假设均已假定TensorFlow已设置其日志记录状态。您可以在添加过滤器之前调用tf.logging.get_verbosity()来确保没有副作用。

收藏
评论

为了与Tensorflow 2.0兼容 ,您可以使用tf.get_logger

import logging
tf.get_logger().setLevel(logging.ERROR)
收藏
评论

2.0更新(10/8/19)设置TF_CPP_MIN_LOG_LEVEL应该仍然有效(请参阅v0.12 +更新中的以下内容),但是当前存在一个问题(请参阅问题#31870 )。如果设置TF_CPP_MIN_LOG_LEVEL对您不起作用(再次参见下文),请尝试执行以下操作来设置日志级别:

import tensorflow as tf
tf.get_logger().setLevel('INFO')

此外,请参阅tf.autograph.set_verbosity上的文档,该文档设置签名日志消息的详细程度-例如:

# Can also be set using the AUTOGRAPH_VERBOSITY environment variable
tf.autograph.set_verbosity(1)

v0.12 +更新(5/20/17),通过TF 2.0+进行工作:

在这个问题的 TensorFlow 0.12+中,您现在可以通过名为TF_CPP_MIN_LOG_LEVEL的环境变量控制日志记录;它默认为0(显示所有日志),但可以在“ Level列下设置为以下值之一。

  Level | Level for Humans | Level Description                  
 -------|------------------|------------------------------------ 
  0     | DEBUG            | [Default] Print all messages       
  1     | INFO             | Filter out INFO messages           
  2     | WARNING          | Filter out INFO & WARNING messages 
  3     | ERROR            | Filter out all messages      

请参阅以下使用Python的通用OS示例:

import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '3'  # or any {'0', '1', '2'}
import tensorflow as tf

为了更全面,您还调用了设置Python tf_logging模块的级别,该模块用于摘要操作,张量板,各种估计器等。

# append to lines above
tf.logging.set_verbosity(tf.logging.ERROR)  # or any {DEBUG, INFO, WARN, ERROR, FATAL}

对于1.14,如果不按以下说明使用v1 API,则会收到警告:

# append to lines above
tf.compat.v1.logging.set_verbosity(tf.compat.v1.logging.ERROR)  # or any {DEBUG, INFO, WARN, ERROR, FATAL}


For Prior Versions of TensorFlow or TF-Learn Logging (v0.11.x or lower):

查看以下页面以获取有关TensorFlow日志记录的信息;使用新的更新,您可以将日志记录的详细程度设置为DEBUGINFOWARNERRORFATAL 。例如:

tf.logging.set_verbosity(tf.logging.ERROR)

该页面还翻过了可与TF-Learn模型一起使用的监视器。 这是页面

但是,这不会阻止所有日志记录(仅TF-Learn)。我有两种解决方案;一种是“技术上正确的”解决方案(Linux),另一种是重建TensorFlow。

script -c 'python [FILENAME].py' | grep -v 'I tensorflow/'

对于其他,请参见此答案 ,其中涉及修改源和重建TensorFlow。

收藏
评论

通常的python3日志管理器为我使用tensorflow == 1.11.0:

import logging
logging.getLogger('tensorflow').setLevel(logging.INFO)
收藏
评论

我用这篇文章解决了无法删除所有警告#27045 ,解决方法是:

import logging
logging.getLogger('tensorflow').disabled = True
收藏
评论
新手导航
  • 社区规范
  • 提出问题
  • 进行投票
  • 个人资料
  • 优化问题
  • 回答问题

关于我们

常见问题

内容许可

联系我们

@2020 AskGo
京ICP备20001863号