Fusionio性能测试与瓶颈分析

6 21st, 2011 | Posted by jacky | Filed under 大话技术

测试环境:Dell R510,2×E5620,24G,Fusion-io ioDrive 320G MLC

测试工具:Redhat Linux 5.3,Oracle Orion 11

测试一:8K随机读,IOPS超过5W,吞吐量超过400M,响应时间在IOPS达到4W时出现拐点(超过1ms),并迅速上升至最高值9.5ms。



########################################################

测试二:4K随机读,IOPS超过7W,吞吐量达到280M,响应时间在IOPS达到7W时保持在1ms以下,随着并发压力不断增大,IOPS出现波动,响应时间逐步增加。

########################################################

测试三:128K连续读,IOPS迅速上升至5000时,到达吞吐量瓶颈(700M),此时响应时间小于10ms,随后并发压力增大,IOPS与吞吐量指标无变化,响应时间迅速上升。

########################################################

测试四:8K随机写,IOPS到达5.8W,响应时间为1ms,随着压力增大,IOPS逐步下降,响应时间随之快速上升。

########################################################

测试五:读写混合模式,8K随机IO,20%写,IOPS到达4.5W,吞吐量360MB,响应时间在IOPS达到3.7W时保持在1ms左右,随着压力增长,响应时间迅速增加。

########################################################

测试六:读写混合模式,8K随机IO,128K连续IO,20%写,IOPS达到5W,吞吐量580MB,响应时间在IOPS达到4W时保持在1ms左右,随着压力增加,响应时间快速增加。

性能分析:

本次性能测试直接读写fusionio卡,无任何缓存的影响,从测试数据我们看出,ioDrive的随机读性能非常好,4k IO的性能最佳,可以达到7W IOPS,8K IO可以达到5W IOPS,响应时间稳定在1ms以下。随机写的表现也非常优秀,8K随机写可以达到5W+。IOPS,响应时间保持在1ms以下。模拟数据库的8K随机IO和128K连续IO,IOPS可以稳定达到4W左右。总之,ioDrive的表现非常优秀。

瓶颈分析:

存储的瓶颈有两个:一个是IOPS,另一个是吞吐量。对于传统磁盘来说,单块盘的IOPS为150,如果每个IO最大为1MB,那么我们可以计算出磁盘的吞吐量瓶颈为150MB(实测吞吐量大致为170-250MB)。我们可以看到,IOPS是磁盘真正的瓶颈,随机IO对磁盘是致命的,而吞吐量对于磁盘通常不是瓶颈,所以磁盘更适合追求吞吐量的系统。

Fusionio与磁盘相比,随机IO可以轻松到达5w+,响应时间小于1ms,而吞吐量瓶颈则大致在600MB-700MB之间,官方数据与实测数据差异不大。通过上述数据分析可以看到,fusionio的IOPS很高,通常不会成为瓶颈,而吞吐量可能会在IOPS之前成为瓶颈。我们可以计算一下,600MB吞吐量,IO大小为128K,IOPS只有4800;8K的随机读,IOPS达到5W时,吞吐量已经接近400MB。虽然单块fusionio卡的吞吐量比磁盘大,但是考虑到价格因素,fusionio并不适合追求吞吐量的系统。

观察Fusionio的响应时间,我们发现当压力未达到瓶颈之前,响应时间稳定在1ms左右,当快到达性能瓶颈时,IOPS和吞吐量不再增加,此时响应时间会出现一个突变,然后快速增加,直到不可接受。所以在实际使用中,必须控制压力在性能瓶颈之下。

Fusionio具备很高的IOPS性能,所以它更适合随机小IO读写。在实际使用的过程中,可以适当减小IO的大小,将吞吐量瓶颈转化为IOPS瓶颈,这点与磁盘系统刚好相反,磁盘系统应该尽可能将IOPS瓶颈转换为吞吐量瓶颈,比如增加IO的大小,这是个很有趣的话题。

随着Flash存储技术的出现,将会颠覆整个存储行业,甚至会改变未来数据库等存储系统的设计,也给了我们巨大的想象空间。

–EOF–

Fusionio的官方数据:

标签: ,
  1. AMY
    6 22nd, 201108:14

    能给出具体测试的软件环境和硬件环境么?

  2. jacky
    6 22nd, 201109:02

    @AMY
    硬件环境见文章的第一行,软件环境是LINUX 5.3.

  3. dbsnake
    6 22nd, 201109:42

    写的太好了!兄弟是很牛的人,支持一下

  4. yangting
    6 22nd, 201110:07

    测试过随机读写 1:1的情况吗?

  5. jacky
    6 22nd, 201110:34

    @yangting
    没有测试50%写的情况,只有纯读,纯写,20%写的情况。

  6. halfbloodrock
    6 22nd, 201111:51

    如果能有在Red Hat Enterprise Linux 6.1的对比测试就好了。

  7. purchasing_yzl
    6 22nd, 201114:03

    一直潜水关注。写的确实好,忍不住支持一下!原来获得的数据分析报告只有QPS和TPS的数据,可以对INSTANCE有个具体研究。

  8. TQ
    6 24th, 201117:44

    jacky,能把测试对应的summary.txt贴上吗?谢谢!

  9. suyan
    6 25th, 201115:09

    哈哈~真好~学习了@dbsnake

  10. gengmao
    7 1st, 201123:41

    @jacky
    能分享各测试的具体命令么?正好有个SSD设备要测。请教下,是在SDD上创建多个文件来测么?num_disks设为多大好?横坐标的并发压力是如何达到的?
    谢谢!

  11. lyxing.bj
    9 16th, 201119:46

    大牛,能说说你的orion使用方法吗?要做哪些配置?我在测试io时总是出现异步io 读写错误。

  12. eric
    1 20th, 201210:21

    jacky 您好 我想为你一下你得
    读写混合模式,8K随机IO,128K连续IO,20%写,
    这种模式你是怎么测的话 我试了好像这个语句
    orion -run advanced -testname rand_write40 -num_disks 2 -size_small 8 -size_large 1024 -type seq -write 20 -simulate concat -cache_size 0 -matrix detailed
    但是detailed出来的small random的未处理队列只从1到10,large sequence的未处理队列只能从1到4。
    不知道您测的这个随机io和连续io的压力比率是都设置成一样的还是打点设置方式