设为首页加入收藏
群晖首页图片
网站标志
新闻详情
 
当前位置
新闻搜索
 
 
焱融云 Latency指标对于存储系统性能的重要性
作者:管理员    发布于:2018-08-01 07:32:32    文字:【】【】【

Latency指标对于存储系统性能的重要性
我们分析一套分布式存储系统,主要从可靠性、易用性和性能三个维度着手分析。
可靠性:是存储系统的基石,一款存储系统至少需要提供99.99%的数据可靠性,数据丢失或者错乱对于存储系统是致命的,对大数据、云存储这样大规模的分布式集群
易用性:是系统管理员最关心的问题,主要体现产品设计、故障处理和系统的扩展性
性能:如果可靠性是存储系统的基石,那么性能是存储系统的灵魂,对一款优秀存储系统,高可靠与高性能缺一不可
本文将从性能的维度分析分布式存储系统,那么如何分析一款分布式存储系统的性能呢?

让我们先了解评测存储系统的主要参数:IO Type、IO Mode、IO Size和IO Concurrency;这些参数的值的不同组合对应了不同的业务模型,场景的模型如下表所示:

表一:常用业务类型
注1:SPC-1,主要衡量存储系统在随机小IO负荷下的IOPS,而SPC-2则主要衡量在各种高负荷连续读写应用场合下存储系统的带宽。
注2:SPC-1将测试区域抽象为ASU,ASU分为三类:ASU1临时数据区域,ASU2用户数据区域和ASU3日志区域。
根据上表可知,由于业务类型是多种多样的,很难做到全面覆盖,通常使用三个性能指标:IOPS、Throughput和Latency来测评一款存储系统。通常,大IO使用指标Throughput来评测系统性能;小IO使用IOPS来评测系统性能。那么,性能指标:Latency的作用是什么?并且Latency指标往往容易在性能评测中被忽视。在这里介绍一下性能指标Latency的作用,用户评测一款存储系统之前,测试系统的IOPS和Throughput都很满意,但上线后,反映业务系统卡顿,其核心便是Latency过高。

下面引用一段网络博文:“即使供应商新型的存储系统在60/40混合读写条件下能奇迹般地实现1,000,000 4K随机IOPS,我还是想知道它的延迟是多少。Dimitris Krekoukias在最近的一篇关于IOPS和延迟的博客中写道:某供应商的系统能实现15000的IOPS,平均延迟为25ms。但是数据库引擎还是提示高水平I/O等待时间。

一位批评家在Krekoukias's Ruptured Monkey博客中详细叙述了只有在延迟小于4ms的情况下,信用卡处理器才不会减慢防诈骗或提款授权等进程。”同样,冬瓜哥在博文中讲解了如何理解时延,这里简单复述下:“每秒执行 1000 个 IO ,平均每个 IO 的执行耗费了 1000ms/1000IOPS=1ms ,所以每个 IO 的平均时延就是 1ms,这有什么不对呢?”上面的计算忽略了并发度这个因素。对于异步、高并发的业务,这个存储系统可以满足业务需求。但基于OLTP和OLAP的业务一般是同步的且低并发的业务,这款存储系统是否满足业务需求,这仍是一个问号。

通过上面的资料我们得出:实现高性能的关键是高IOPS和低Latency的结合。当存储系统提供更高的IOPS时,单IO的时延不应同步提高过多,否则将影响业务系统的性能。比如JetStress建议平均时延应小于20ms,最大值应小于100ms。
分布式存储中的Latency问题
我们先看下传统存储的时延,在传统存储系统中,其IO时延有着天然的优势。优势一是物理IO路径较短,通常为机头控制器后端再挂载JBOD;优势二是使用Raid5、RAID10或者RAID 2.0等数据保护算法,这些算法是基于Disk或者Chunk,比基于故障域的副本模式开销小很多。

图一:传统SAN IO架构

图二:Raid 2.0原理
在分布式存储中,由多台或者上百台的服务器组成,且使用副本模式。所以一个IO通过网络,在多个副本服务器上处理,且每个副本都有数据一致性检查算法,这些操作都将增加IO的时延。

图三:分布式集群IO流
从上图可知,三副本的分布式存储系统,一个写IO,需要从写Leader和写两个Follower完成后才返回给user;

分布式存储的副本模式对性能的影响到底有多大呢?为了感性的认识,我们先看两个性能对比:

图四:在本地存储跑OLTP业务

图五:在分布式存储上跑OLTP业务
根据上面两图的性能数据,分布式存储的IO时延的确很高。

分布式存储系统的另一个性能问题是IO的抖动,体现在时延上是平均时延与最小时延和最大时延偏离值很大,出现这个问题的主要原因是分布系统的架构原理与IO请求处理不当引起;比如,副本之间的强一致性,只要有一个副本响应稍慢,整个IO的时延将增加或者一致性算法引起IO短暂堆积,IO都发送到相同的存储节点。
焱融自研分布式存储cache引擎
对于如何降低分布式存储Latency,其实是一个系统又复杂的事情,牵一发而动全身,让我们先来看看阿里云云存储和华为的闪存阵列都做了哪些工作:
阿里云ESSD

硬件升级:服务器、SSD、网络(40GB/s, 25GB/s)、网络交换机、RDMA协议

网络通信框架:Luna, RDMA+用户态驱动+私有I/O协议

 线程模型改进:用户态驱动,加入co-routine协程,加run to completion模式

数据布局:采用追加写,修改元数据模式(元数据记录数据的位置)

更细致的分层和抽象;针对不同的IO属性,提供更定制化的策略模块,满足不同的IO Profile需求
 
华为闪存OceanStor Dorado V3

硬件优化,硬盘框采用12Gbps的SAS直连控制框模式;精简NVMe SSD协议

对时延敏感的关键处理不被频繁打断、不被其他任务阻塞

处理器分组技术,将处理器中的各个核按照业务需求划分成不同的分区,关键业务在各个分区上运行,不被打断

为了保证请求的稳定低时延,读请求和写入cache的写请求可以在存储系统内优先拥有各种关键的处理资源,包括:cpu、内存、访盘并发等;cache异步刷盘的请求优先级低

有效聚合,保证大块顺序写入SSD,实现请求处理效率最优

冷热数据分区,减少写放大,提升性能

充分发挥SSD的垃圾回收机制,在擦除块时减少数据搬移量,较少对SSD的性能和寿命的影响
 
等等。。。
可见通常提高性能,优化时延的主要方法概括起来有以下几个方面:
1
硬件升级,诸如NVMe,RDMA
2
优化IO路径,通信框架
3
优化每个模块的处理时间
4
优化磁盘布局
5
增加数据缓存层
 
以NVMe为例,NVMe驱动层直接透过SCSI协议栈,由驱动层与通用块层直接交互,以达到降低IO时延的目标,同时使用通用块层的多队列机制,进一步的提升性能。不过这种方式的弊端是对于客户的成本上升较高。

图七:通用存储设备协议栈与NVMe协议栈
一般存储厂商的通用有效方式是利用增加数据缓存层来降低延迟,即利用在存储节点给多块HDD配置一块SSD,再使用开源BCache方案,此种方案是一种通用的经济实惠解决方案。如下图所示,不过这种方案对性能提升有限,主要原因还是IO路径过长,分布式存储核心层逻辑过于复杂,同时采用开源BCache方案也存在着很多问题诸如:BCache虽然开源,但如果出现问题,基本没有维护的能力;BCache增加运维难度;BCache对成员盘的故障处理能力较弱。 

图八:后端缓存原理
焱融科技存储研发团队,根据多年的技术经验及参考国内外厂商的设计思路,在最初设计焱融分布式存储软件时,针对如何提升性能降低IO延迟的方案设计上,自主设计实现了前后两端的缓存引擎即在后端缓存的基础上增加客户端缓存层,分拆存储核心层的部分功能,在网络层与存储核心层之间实现一个分布式缓存读写层,在网络收到请求后,将数据写入到缓存层中,实现分布式缓存读写,同时可保证数据的可靠性。整体设计思路如下:

图九:分布式读写缓存
通过这种实现方式,焱融分布式存储软件在性能上相对其他只有后端缓存方案有着明显的性能提升,在IOPS上提升近30%,能够达到裸盘SSD性能的85%以上,延迟降低近3倍,具体对比数据如下:


图十:性能比较
目前焱融研发团队,根据现有设计的基础,持续迭代,计划在下个版本的产品release中整体cache引擎架构如下,即通过本地缓存读、分布式缓存读写和后端缓存读写多层次的缓存,满足不同业务对性能高且平稳的总体需求。在IO路径上多层次的缓存,整个集群的IO将更加平稳,从IO处理的层面上降低IO波动。预计性能达到裸盘SSD 90%以上。

焱融云聚集了IBM、华为、VMware等世界顶级IT公司以及阿里云、百度云、腾讯云、金山云等国内一流云计算互联网企业的技术精英,组成了强大的技术团队,是一家以超融合技术为核心竞争力的高新技术企业,在分布式存储等关键技术上拥有自主知识产权。焱融超融合系列产品已服务于金融、政府、制造业、互联网等行业的众多客户。了解更多焱融科技信息,请访问官网www.yanrongyun.com。

IT解决方案:

   文件共享、私有云盘、企业网盘  解决方案

   存储雷电DAS 、SAN、IPSAN ISCSI 解决方案

    企业级存储解决方案

   备份 容灾解决方案

   防勒索病毒解决方案


  NAS 应用场景:完美解决文件共享/文件分享问题,替代传统文件服务器

                              NAS网络存储 文件NAS存储 。

 群晖备份一体机 适用于的企级备份软件有:

(acronis 安克诺斯 /veeam安盟/veritas华睿泰/commvault 慷孚沃德 /arcserver )

  PHD virtual , Nakivo, IBM spectrum protect , (TSM) HP data protector

  DELL  EMC Networker  RecoverPoint Quest  veritas system recovery 18

 国内备份软件:鼎甲,火星仓,UPM,浪擎,爱数

黑群晖无法升级,易丢失数据,建议用白群晖,黑群晖洗白

synology partner:深圳国亿国际(凯洛蜜) 上海世平伟业

服务区域:四川群晖 成都群晖 西藏群晖  重庆群晖贵州群晖 贵阳群晖 云南群晖  昆明群晖 

 群晖配件:群晖钥匙  群晖网卡  群晖内存 群晖电源 群晖主板

群晖维修:群晖保修保内保外维修 群晖硬盘数据恢复 群晖客服 群晖保修 群晖维修)

群晖数据恢复:  服务器数据恢复 raid数据恢复  nas数据恢复   希捷数据恢复  西数硬盘恢复  seagate 数据恢复  WD数据恢复 

 国行原装正品(国代,总代理,总分销商)方案适用机型:

18-系列FS1018RS3618xsDS3018xsRS2818RP+RS2418(RP)+RS818(RP)+DS918+DS718+DS418DS418playDS218+、、DS218playDS418jDS218DS218jDS118

17-系列FS3017FS2017RS18017xs+RS4017xs+RS3617xs+RS3617RPxsRS3617xsDS1817+DS1517+DS1817DS1517RS217

16-系列RS18016xs+RS2416(RP)+DS916+DS716+IIDS716+RS816DS416DS416playDS216+IIDS216+DS216playDS416slimDS416jDS216DS216jDS216seDS116NVR216

15-系列RC18015xs+DS3615xsDS2015xsRS815(RP)+DS2415+DS1515+DS415+RS815DS1515DS715DS415playDS215+DS215jDS115DS115jDS1815+

14-系列RS3614xs+RS2414(RP)+RS814(RP)+RS814DS414DS214+DS214playRS214DS414jDS414slimDS214DS214seDS114EDS14

13-系列RS10613xs+RS3413xs+DS2413+DS1813+DS1513+DS713+DS413DS213+DS413jDS413jDS213DS213jDS213air

12-系列DS212j



科汇科技 --- 专业数据备份服务商

无论您的IT架构是 本地化、云端、还是混和云 都能提供一站式数据备份方案。

京东群晖synology  天猫群晖 线下代理售后维修服务站

四川成都群晖官方授权核心代理商(企业级服务商)

四川成都群晖synology解决方案中心

四川成都群晖synology体验中心

四川成都群晖synology售后维修中心

四川成都群晖synology官方授权专卖店

成都科汇科技有限公司

地址:成都市人民南路四段1号时代数码大厦18F

群晖电话:400-028-1235(群晖400)

QQ:     2231749852

手机:138 8074 7621(微信同号)

微信公众号:群晖Synology技术中心

脚注备案信息
群晖技术群