您好, 欢迎来到 !    登录 | 注册 | | 设为首页 | 收藏本站

如何在TensorFlow中减少循环中的内存消耗?

5b51 2022/1/14 8:22:12 python 字数 871 阅读 510 来源 www.jb51.cc/python

我在TensorFlow中有一个循环,如下所示: with tf.device("/gpu:1"): losses = [] for target, output in zip(targets, lstm_outputs): logits = tf.matmul(W, output) + b loss = tf.nn.sparse_softmax_

概述

with tf.device("/gpu:1"):
    losses = []

    for target,output in zip(targets,lstm_outputs):
        logits = tf.matmul(W,output) + b
        loss = tf.nn.sparse_softmax_cross_entropy_with_logits(logits,target)
        losses.append(loss)

    total_loss = tf.add_n(losses)

在为此图层分配渐变时,我收到OOM错误,因为每个矩阵乘法在图形记忆中是不同的操作.有没有办法阻止TensorFlow同时分配所有这些操作?

例如,您可以尝试以下操作:

optimizer = tf.train.AdagradOptimizer(...)  # Or another optimization algorithm.
train_op = optimizer.minimize(
    total_loss,aggregation_method=tf.AggregationMethod.EXPERIMENTAL_ACCUMULATE_N)

此选项会急切地聚合反复使用的变量的渐变,而不是将它们全部保留在内存中,直到计算出所有渐变为止.如果这不起作用,tf.AggregationMethod.EXPERIMENTAL_TREE可能会更好.


如果您也喜欢它,动动您的小指点个赞吧

除非注明,文章均由 laddyq.com 整理发布,欢迎转载。

转载请注明:
链接:http://laddyq.com
来源:laddyq.com
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。


联系我
置顶