我一直试图使用time命令/ usr / bin / time来测量Linux系统上程序的峰值内存消耗。 独立于我所试验的可执行文件,对于运行时间,我得到了正确的答案,但是内存使用数字始终为0。
8.68用户0.04system 0:08.73已用99%cpu(0avgtext + 0avgdata 0maxresident)k 0inputs + 16outputs(0major + 20366minor)pagefaults 0swaps
我不了解的零是:
Linux内核中virt_to_phys和cpu的MMU之间的关系是什么?
如何打包我的开源应用程序的Linux二进制文件?
nc:无效选项 – 'z'
如何在Wine下运行msi文件
无法安装任何pip模块.'module'对象没有属性'Cryptography_HAS_SSL_ST'
0avgtext + 0avgdata 0maxresident
我search了一下,我发现GNU时间实际上不能计算在手册页中提到的那些内存使用数据。 我对么? 什么是我可以使用相同的效果的替代命令? (不需要练习valgrind)
Python迭代一个返回json的subprocess?
如何使用python 3.x来运行程序
Apache Nutch和Solr集成
据我所知,在Linux中没有实现高峰内存使用,所以时间不报告。 大多数人使用少量页面错误(1 == 4Kb块)作为使用的内存量的指示。
看看Linus Torvalds如何使用它来寻找git的性能。
唯一的方法,我会知道来衡量,否则将通过使用'ulimit'和使用二进制搜索找到所需的内存量最少:)
也有替代valgrind,如mempatrol和电围栏,它们没有相同的开销(但具有较少的花式特征)。 Valgrind其实是荒谬的,为此而付出代价。
你也可以看看使用systemtap脚本来实现类似的结果。
顶部也是非常有用的。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。