欢迎来到代码驿站!

Python代码

当前位置:首页 > 软件编程 > Python代码

Pytorch释放显存占用方式

时间:2020-11-02 17:34:59|栏目:Python代码|点击:

如果在python内调用pytorch有可能显存和GPU占用不会被自动释放,此时需要加入如下代码

torch.cuda.empty_cache()

我们来看一下官方文档的说明

Releases all unoccupied cached memory currently held by the caching allocator so that those can be used in other GPU application and visible in nvidia-smi.

Note

empty_cache() doesn't increase the amount of GPU memory available for PyTorch. See Memory management for more details about GPU memory management.

此外还可以使用

memory_allocated()和max_memory_allocated()

观察显存占用,并使用

memory_cached()和 max_memory_cached()

观察由缓存分配器管理的内存。

上一篇:python 实现二维列表转置

栏    目:Python代码

下一篇:Python开发虚拟环境使用virtualenvwrapper的搭建步骤教程图解

本文标题:Pytorch释放显存占用方式

本文地址:http://www.codeinn.net/misctech/18437.html

推荐教程

广告投放 | 联系我们 | 版权申明

重要申明:本站所有的文章、图片、评论等,均由网友发表或上传并维护或收集自网络,属个人行为,与本站立场无关。

如果侵犯了您的权利,请与我们联系,我们将在24小时内进行处理、任何非本站因素导致的法律后果,本站均不负任何责任。

联系QQ:914707363 | 邮箱:codeinn#126.com(#换成@)

Copyright © 2020 代码驿站 版权所有