Cortex社区的小伙伴大家好!今天给大家带来一个特别的内容分享。
首先介绍一下背景:
感谢Cortex社区十分给力的神秘小伙伴协助联络,我们在9月23日下午顺利拿到了NVIDIA最新发布的旗舰显卡GeForceRTX2080Ti。这款让游戏爱好者和硬件爱好者魂牵梦绕的全新旗舰,终于来到了CortexLabs的办公室。我们后续将会对2080Ti进行深度的测试。
当然,游戏性能等方面的表现,已经有众多评测机构做过。CortexLabs更关心的是2080Ti的机器学习性能和挖矿表现相对于1080Ti显卡的提升。
拿到显卡之后,运营的小伙伴已经按耐不住,用最快的速度,对2080Ti的挖矿性能做了一个简单的测试。并且同时运行了一张1080Ti显卡作为参考和对比。我们先从这一个角度,来看一下2080Ti在挖矿性能上的提升。
推特允许其付费用户发布10000个字符的推文:金色财经报道,推特推出了一项新功能,允许Blue付费订阅用户在消息中最多发10000个字符,同时支持粗体和斜体格式。该新功能允许推文以更长的文字进行呈现,更类似于一篇文章,而不是多年来定义推特的简短文本片段。推特多年来一直有140个字符的限制,2017年翻了一番,达到280个字符。[2023/4/15 14:05:08]
我们先看一下2080Ti的产品外观。
这部分不多介绍,直接看图。我们拿到的是GIGABYTE的非公版卡,具体产品型号是:GIGABYTEGeForceRTX2080TiWindforceOC11G。
好了,下面来给大家看一下这款产品的实拍图,并且和1080Ti进行一下对比。
看完了产品,要对测试环境进行一下准备。
Argent将使用Token Flow数据分析涉及Argent钱包的活动:金色财经报道,区块链数据平台Token Flow宣布与以太坊智能合约钱包Argent达成合作。Argent将使用Token Flow对StarkNet、以太坊以及未来其他链的完全可查询历史来分析涉及Argent钱包的链上活动。Token Flow能够对其以太坊和StarkNet数据集进行改进。[2023/3/8 12:49:01]
我们使用的是办公室现成的SuperMicroSuperServer4028GR-TR机器学习服务器作为测试平台,服务器基础配置如下:
主板:SuperX10DRG-O+-CPU
CPU:intel?Xeon?processorE5-2600v4?/v3family(upto160WTDP)*
数据:5000万枚USDC从未知钱包转移到Binance:金色财经报道,Whale Alert数据显示,5000万枚USDC(50,002,264 USD)从未知钱包转移到Binance。[2022/10/20 16:32:16]
DualSocketR3(LGA2011)
内存:2400MHZDDR4SDRAM72-bit
系统:LinuxUbuntu18.04
然后交代一下测试的挖矿算法:
一般来说,GPU做挖矿性能测试,会主要选择ETH的Ethash算法或者ZEC的Equihash算法。但目前都有矿机厂商针对这两个算法研发并量产了ASIC矿机。不过,Ethash算法由于对显存有比较高的需求,EthashASIC矿机对GPU挖矿的影响并不是很大,而EquihashASIC矿机则对GPU挖矿的影响却很大。因此,我们这里选择ETH的Ethash算法进行测试。
Alameda于昨日22:00至今总计向FTX转入约2.4亿枚稳定币:6月23日消息,据PeckShield监测显示,Alameda FTX Deposit钱包地址(0x83a127952d266A6eA306c40Ac62A4a70668FE3BD)于昨日22:00至今总计向FTX转入约2.4亿枚稳定币,包括约2500万枚BUSD和约2.15亿枚USDC。[2022/6/23 1:25:36]
最后还要介绍一下挖矿软件的选择:
我们最初选择相对矿工更熟悉的Claymore挖矿软件进行测试。但在实际测试中,Claymore还没有对2080Ti进行完美适配。最终我们选择EthMiner作为挖矿软件。
准备工作都已经完毕,我们正式把两个显卡全部装到服务器机上去,并安装好驱动。
1080Ti的驱动版本为:NVIDIA-Linux-x86_64-390.87.run
2080Ti的驱动版本为:NVIDIA-Linux-x86_64-410.57.run
激动人心的时刻马上就要到了!!!
开机,我们可以看到,两个卡驱动都正常。
运行EthMiner,两个卡都能顺利挖矿,并显示出本地算力。趋于稳定后,我们截图来看。
从图中我们可以看到,两款显卡在均未超频情况下,在Ethash算法下的算力表现分别为:
1080Ti算力:32.46MH/s功耗:212W
2080Ti算力:50.90MH/s功耗:257W
这里我们还能看到,2080Ti相对于1080Ti的提升还是相当明显的,Ethash算法下的算力提升达到了56.8%。而功耗则只增加21.2%。
不过,在过去使用1080Ti挖矿的过程中,其实已经有很多对1080Ti算力进行优化的工具。而目前2080Ti则还没有类似的程序出现。我们选择一款常用的软件对1080Ti进行算力优化后,看看差距还有多少?
开启了优化工具后,我们可以看到,GPU1的算力已经从32.46MH/s提升到了45.19MH/s,提升了12.73MH/s。而此优化工具,对2080Ti则没有优化效果。这样一来,1080Ti和2080Ti在Ethash算法下的算力差距只有5.7MH/s左右。
测试到这里,可能大家会吐槽,难道2080Ti的性能提升只有这么一点?
其实并不是这样的,1080Ti的产品周期毕竟已经进入尾声,经过这么多年的沉淀,已经有无数人针对这款产品进行了反反复复的提升和优化。而2080Ti目前还没有太多人拿到产品,更谈不上进行优化。虽然我们这次测试最终的差距结果不是很大,但这是一个“上代产品优化到极致”与“新生产品纯粹原生态”的较量,并且只是在Ethash算法下的性能表现。因此,这个数据测试也仅对当前时间的特定算法下有参考意义。
就在我们运营组的小伙伴测试完挖矿的性能之后,AI部门的小伙伴也迫不及待开始部署机器学习任务到服务器上。用最快的速度,在服务器上实现了以下操作:在cifar10数据集上,使用resnet50进行图片分类任务)。在最新的cuda10.0+pytorch0.4.1+cuDNN7.3环境上,对2080ti和1080ti两块显卡分别进行了训练+推断的测试。测试的结果如下:
通过以上测试,我们发现,2080Ti相对于1080Ti,将训练耗时缩短了16.16%;将推断耗时缩短了7.7%。
不过,考虑到现有的软件支持还不够成熟,此次的结果只是一个初步的参考。这个结果让我们感到差强人意。当然,后续我们还会有更深度的测试,会把我们开发团队的测试进展,分享给全社区的小伙伴。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。