两行代码统计模型参数量与FLOPs,这个PyTorch小工具值得一试

论坛 期权论坛 期权     
机器之心   2019-7-20 08:52   3342   0
机器之心报道
参与:思源
你的模型到底有多少参数,每秒的浮点运算到底有多少,这些你都知道吗?近日,GitHub 开源了一个小工具,它可以统计 PyTorch 模型的参数量与每秒浮点运算数(FLOPs)。有了这两种信息,模型大小控制也就更合理了。
其实模型的参数量好算,但浮点运算数并不好确定,我们一般也就根据参数量直接估计计算量了。但是像卷积之类的运算,它的参数量比较小,但是运算量非常大,它是一种计算密集型的操作。反观全连接结构,它的参数量非常多,但运算量并没有显得那么大。

此外,机器学习还有很多结构没有参数但存在计算,例如[url=]最大池化[/url]和 [url=]Dropout[/url] 等。因此,PyTorch-OpCounter 这种能直接统计 FLOPs 的工具还是非常有吸引力的。

  • PyTorch-OpCounter GitHub 地址:https://github.com/Lyken17/pytorch-OpCounter

OpCouter

PyTorch-OpCounter 的安装和使用都非常简单,并且还能定制化统计规则,因此那些特殊的运算也能自定义地统计进去。

我们可以使用 pip 简单地完成安装:pip install thop。不过 GitHub 上的代码总是最新的,因此也可以从 GitHub 上的脚本安装。

对于 torchvision 中自带的模型,Flops 统计通过以下几行代码就能完成:
  1. from torchvision.models import resnet50
复制代码
  1. from thop import profile
复制代码
  1. [/code][code]model = resnet50()
复制代码
  1. input = torch.randn(1, 3, 224, 224)
复制代码
  1. flops, params = profile(model, inputs=(input, ))
复制代码
我们测试了一下 DenseNet-121,用 OpCouter 统计了参数量与运算量。API 的输出如下所示,它会告诉我们具体统计了哪些结构,它们的配置又是什么样的。




最后输出的浮点运算数和参数量分别为如下所示,换算一下就能知道 DenseNet-121 的参数量约有 798 万,计算量约有 2.91 GFLOPs。
  1. flops: 2914598912.0
复制代码
  1. parameters: 7978856.0
复制代码
OpCouter 是怎么算的

我们可能会疑惑,OpCouter 到底是怎么统计的浮点运算数。其实它的统计代码在项目中也非常可读,从代码上看,目前该工具主要统计了视觉方面的运算,包括各种卷积、激活函数、池化、批归一化等。例如最常见的二维卷积运算,它的统计代码如下所示:
  1. def count_conv2d(m, x, y):
复制代码
  1.     x = x[0]
复制代码
  1. [/code][code]    cin = m.in_channels
复制代码
  1.     cout = m.out_channels
复制代码
  1.     kh, kw = m.kernel_size
复制代码
  1.     batch_size = x.size()[0]
复制代码
  1. [/code][code]    out_h = y.size(2)
复制代码
  1.     out_w = y.size(3)
复制代码
  1. [/code][code]    # ops per output element
复制代码
  1.     # kernel_mul = kh * kw * cin
复制代码
  1.     # kernel_add = kh * kw * cin - 1
复制代码
  1.     kernel_ops = multiply_adds * kh * kw
复制代码
  1.     bias_ops = 1 if m.bias is not None else 0
复制代码
  1.     ops_per_element = kernel_ops + bias_ops
复制代码
  1. [/code][code]    # total ops
复制代码
  1.     # num_out_elements = y.numel()
复制代码
  1.     output_elements = batch_size * out_w * out_h * cout
复制代码
  1.     total_ops = output_elements * ops_per_element * cin // m.groups
复制代码
  1. [/code][code]    m.total_ops = torch.Tensor([int(total_ops)])
复制代码
总体而言,模型会计算每一个卷积核发生的乘加运算数,再推广到整个卷积层级的总乘加运算数。

定制你的运算统计

有一些运算统计还没有加进去,如果我们知道该怎样算,那么就可以写个自定义函数。
  1. class YourModule(nn.Module):
复制代码
  1.     # your definition
复制代码
  1. def count_your_model(model, x, y):
复制代码
  1.     # your rule here
复制代码
  1. [/code][code]input = torch.randn(1, 3, 224, 224)
复制代码
  1. flops, params = profile(model, inputs=(input, ),
复制代码
  1.                         custom_ops={YourModule: count_your_model})
复制代码
最后,作者利用这个工具统计了各种流行视觉模型的参数量与 FLOPs 量:





深度Pro
理论详解 | 工程实践 | 产业分析 | 行研报告

机器之心最新上线深度内容栏目,汇总AI深度好文,详解理论、工程、产业与应用。这里的每一篇文章,都需要深度阅读15分钟。


今日深度推荐
[url=]爱奇艺短视频分类技术解析[/url]
[url=]CVPR 2019提前看:少样本学习专题[/url]
[url=]万字综述,核心开发者全面解读PyTorch内部机制[/url]

[url=][/url]
点击图片,进入小程序深度Pro栏目


PC点击阅读原文,访问官网
更适合深度阅读
www.jiqizhixin.com/insight


每日重要论文、教程、资讯、报告也不想错过?
点击订阅每日精选

分享到 :
0 人收藏
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:151
帖子:16
精华:0
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP