微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

为什么我的inception和2M参数的LSTM模型占用1G GPU内存?

如何解决为什么我的inception和2M参数的LSTM模型占用1G GPU内存?

该模型主要建立在inception和LSTM之上,由Keras在tensorflow 2.x上实现。保存的模型参数只占用2M空间。该模型是实时训练的,批大小为 32,每批的数据量为 0.25M。 model.fit_generator 中的 worker 为 20,且 use_multiprocessing=True。

但是,我观察到它需要 1G 的 GPU 内存。我想不通原因,也不知道在训练过程中可以使用哪些工具来监控模型不同部分的GPU内存成本。

下面展示模型的细节:

enter image description here

解决方法

分配的 GPU 内存不仅用于参数,还用于反向传递的激活和梯度。

此外,您还必须考虑以下因素会影响使用的内存量:

  • 批量大小:批量中的更多图像意味着更多的激活
  • worker 数量:每个 worker 需要一定数量的内存来操作

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。