pytorch框架对RTX 2080Ti RTX 3090的支持与性能测试

时间点:202011-18

一、背景

2020年9月nvidia发布了30系列的显卡。比起20系列网上的评价是:性能翻倍,价格减半。
最近正好本人手上有RTX 2080Ti 和 RTX 3090,所以本人专门对其在深度学习上的性能进行了测试。

二、测试环境

  • 硬件:RTX 2080Ti & RTX 3090
  • nvidia-driver:
    455.45.01(2020-11-17发布最新版,支持2080ti, 3090)
    455.38(支持2080ti, 3090)
    455.23.04 455.38(只支持30系列的稳定版)
    450.80.02(不支持30系列的稳定版)
  • pytorch: 官网pytorch 1.6.0, 官网pytorch 1.7.0, 源码编译pytorch 1.8.0a0+4883d39(cuda11.1+cudnn8.0.5+mkl)
  • 操作系统:nvidia-docker ubuntu18.04(cuda10.2, cuda11.0, cuda11.1三个版本)

三、测试结果

某网络:是本人使用的一个网络模型
Conv1d, Conv2d来源于 //github.com/pytorch/pytorch/issues/47039

四、结论

  • rtx2080ti: 用pytorch1.6版本
  • rtx3090: 用pytorch1.7版本
  • pytorch1.8(源码编译):性能最差。(无法解释😲,编译环境如下,如有高人明白请帮忙指明,在此谢过!)
  • pytorch对30系列的显卡还在支持中,期待其更新版本。有网友测试了,tf在3090上确实能实现比2080Ti翻倍的性能,希望pytorch加油
  • 新东西别太早尝试,其生态不一定完善,需要时间。