设为首页加入收藏
群晖首页图片
网站标志
新闻详情
 
新闻搜索
 
 
Ceph RBD灾备方案对比
作者:管理员    发布于:2018-10-14 09:54:39    文字:【】【】【
Ceph RBD灾备方案对比

一、业内灾备方案
1. Snapshot
1.1 介绍
Cluster A & B仍然是独立的Ceph集群,通过RBD的snapshot机制,在Cluster A端,针对image定期通过rbd创建image的snap,

然后通过rbd export-diff, rbd import-diff命令来完成image备份到Cluster B。

1.2 原理
异步备份,基于RBD的snapshot机制

1.3 命令和步骤
把 Cluster A 的 pool rbd 下面 image testimage 异步备份到 Cluster B 的 pool rbd 下的相同image上;

在Cluster A/B上创建rbd/testimage
rbd create -p rbd --size 10240 testimage

在准备备份image前,暂停Cluster A端对testimage的IO操作,然后创建个snapshot
rbd snap create <snap-name>

导出Cluster A端的testimage数据,不指定from-snap
rbd export-diff <image-name> <path>

copy上一步中导出的文件到Cluster B,并导入数据到testimage
rbd import-diff <path> <image-name>

后续需周期性的暂停Cluster A端的testimage的IO,然后创建snapshot,通过 rbd export-diff <image-name> [--from-snap <snap-name>] <path>命令导出incremental diff,

之后把差异数据文件copy到Cluster B上,然后通过命令rbd import-diff <path> <image-name>导入。

【注】:也可不暂停Cluster A端的IO,直接take snapshot;这样并不会引起image的数据不一致,只是有可能会使rbd export-diff时导出的数据在take snapshot之后

1.4 优缺点
优点:

当前Ceph版本就支持rbd snapshot的功能
命令简介方便,通过定制执行脚本就能实现rbd块设备的跨区备份
缺点:

每次同步前都需要在源端take snapshot
持续的snapshots可能导致image的读写性能下降
还要考虑后续删除不用的snapshots
snapshot只能保证IO的一致性,并不能保证使用rbd块设备上的系统一致性;
【可以每次暂停image的IO,sync IO数据来保证rbd块设备上的系统一致性,但需要虚拟机支持qemu-guest-agent】

1.5 参考资料
https://ceph.com/dev-notes/incremental-snapshots-with-rbd/
https://www.rapide.nl/blog/item/ceph_-_rbd_replication.html
http://wiki.libvirt.org/page/Qemu_guest_agent
http://www.zphj1987.com/2016/06/22/rbd
http://ju.outofmemory.cn/entry/243899

2. CEPH BackUp
2.1 介绍
teralytics是一家国外的大数据公司,这个是他们开源的ceph的备份的工具。
这个软件基于python的实现,可以说作者的实现逻辑是很清晰的,并且提供了配置文件的方式,基本上是各个细节都考虑的比较到位,很容易上手,可以直接拿来使用,或者集成到自己的平台中去,是一个很好的软件

软件包含以下功能:

支持存储池和多image的只对
支持自定义备份目标路径
配置文件支持
支持备份窗口设置
支持压缩选项
支持增量和全量备份的配置
2.2 原理
异步备份,基于RBD的snapshot机制。

2.3 命令和步骤
2.3.1 全量备份配置

上面的配置文件已经写好了,直接执行备份命令就可以了

cephbackup
Starting backup for pool rbd
Full ceph backup
Images to backup:
 rbd/zp
Backup folder: /tmp/
Compression: TrueCheck mode: FalseTaking full backup of images: zp
rbd image 'zp':
 size 40960 MB in 10240 objects
 order 22 (4096 kB objects)
 block_name_prefix: rbd_data.25496b8b4567
 format: 2
 features: layering
 flags: 
Exporting image zp to /tmp/rbd/zp/zp_UTC20170119T092933.full
Compress mode activated# rbd export rbd/zp /tmp/rbd/zp/zp_UTC20170119T092933.fullExporting image: 100% complete...done.# tar Scvfz /tmp/rbd/zp/zp_UTC20170119T092933.full.tar.gz /tmp/rbd/zp/zp_UTC20170119T092933.fulltar: Removing leading `/' from member names
压缩的如果开了,正好文件也是稀疏文件的话,需要等很久,压缩的效果很好,dd生成的文件可以压缩到很小

检查备份生成的文件

ll /tmp/rbd/zp/zp_UTC20170119T092933.full*
-rw-r--r-- 1 root root 42949672960 Jan 19 17:29 /tmp/rbd/zp/zp_UTC20170119T092933.full
-rw-r--r-- 1 root root 0 Jan 19 17:29 /tmp/rbd/zp/zp_UTC20170119T092933.full.tar.gz
2.3.2 全量备份的还原

rbd import /tmp/rbd/zp/zp_UTC20170119T092933.full zpbk
检查数据,没有问题

2.3.3 增量备份配置

写下增量配置的文件,修改下备份模式的选项

[rbd]window size = 7window unit = day
destination directory = /tmp/images = zp
compress = yes
ceph config = /etc/ceph/ceph.conf
backup mode = incremental
check mode = no
执行多次进行增量备份以后是这样的

[root@lab8106 ~]#ll /tmp/rbd/zpbk/total 146452-rw-r--r-- 1 root root 42949672960 Jan 19 18:04 zpbk@UTC20170119T100339.full
-rw-r--r-- 1 root root 66150 Jan 19 18:05 zpbk@UTC20170119T100546.diff_from_UTC20170119T100339
-rw-r--r-- 1 root root 68 Jan 19 18:05 zpbk@UTC20170119T100550.diff_from_UTC20170119T100546
-rw-r--r-- 1 root root 68 Jan 19 18:06 zpbk@UTC20170119T100606.diff_from_UTC20170119T100550-rw-r--r-- 1 root root 68 Jan 19 18:06 zpbk@UTC20170119T100638.diff_from_UTC20170119T100606
2.3.4 增量备份的还原

分成多个步骤进行

1、进行全量的恢复# rbd import config@UTC20161130T170848.full dest_image2、重新创建基础快照# rbd snap create dest_image@UTC20161130T1708483、还原增量的快照(多次执行)# rbd import-diff config@UTC20161130T170929.diff_from_UTC20161130T170848 dest_image
本测试用例还原步骤就是

rbd import zpbk@UTC20170119T100339.full zpnew
rbd snap create zpnew@UTC20170119T100339
rbd import-diff zpbk@UTC20170119T100546.diff_from_UTC20170119T100339 zpnew
rbd import-diff zpbk@UTC20170119T100550.diff_from_UTC20170119T100546 zpnew
rbd import-diff zpbk@UTC20170119T100606.diff_from_UTC20170119T100550 zpnew
rbd import-diff zpbk@UTC20170119T100638.diff_from_UTC20170119T100606 zpnew
检查数据,没有问题

3. RBD Mirroring
3.1 介绍
Ceph新的rbd mirror功能支持配置两个Ceph Cluster之间的rbd同步

3.2 原理
利用Journal日志进行异步备份,Ceph自身带有的rbd mirror功能

3.3 命令和步骤
详见:rbd-mirror

3.4 优缺点
优点:

Ceph新的功能,不需要额外开发
同步的粒度比较小,为一个块设备的transaction
保证了Crash consistency
可配置pool的备份,也可单独指定image备份
缺点:

需要升级线上Ceph到Jewel 10.2.2版本以上
Image Journal日志性能影响较为严重
二、结论
1. 方案对比
方案 详细说明 优点 缺点
Snapshot 主站点备份时为存储块打快照,将快照的差异部分发送到备站点重新生成新快照 1.当前Ceph版本就支持rbd snapshot的功能 
2. 命令简介方便,通过定制执行脚本就能实现rbd块设备的跨区备份 
3. 不需要对集群操作升级降级操作
4. 风险较低,简单,易实现 1. 快照对原块的性能有很大影响,尤其是随机IO 
2. 快照间的差异部分是在备份时计算出来的,因此很耗时,即使两个快照间没有差异也要花上很长一段时间来扫描差异部分
3. 定期备份存在差异数据丢失
Ceph-backup 官方社区基于快照的方式,进行包装了下 同上 同上
RBD Mirroring 主要是客户端多写一份日志,然后异步同步到备集群进行实时备份 1. Ceph新的功能,不需要额外开发
2. 同步的粒度比较小,为一个块设备的transaction
3. 保证了Crash consistency 
4. 可配置pool的备份,也可单独指定image备份
5. 实时备份保证数据的一致性 1. 需要升级线上Ceph到Jewel 10.2.2版本以上
2. Image Journal日志性能影响较为严重
2. 总结
结合业内的各大公司的灾备方案,以及社区相关的技术文档。个人建议用快照的方式, 简单、便捷、风险较低、易实现。

并且国内云厂商也普遍都是利用快照的方式实现灾备方案,然后加上自己的策略进行包装。

rbd-mirror功能还是比较新 并且官方的文档也有一些措施进行优化,但是效果不佳。

官方也把这块列为todolist,期待下个版本进行优化。

本文转载自一位专家朋友(Lucien_168)的博客,供大家参考。

作者简介:多年的底层开发经验,在高性能nginx开发和分布式缓存redis cluster以及分布式存储Ceph有着丰富的经验。目前任职滴滴基础平台,负责分布式存储系统。

IT解决方案:

   文件共享、私有云盘、企业网盘  解决方案

   存储雷电DAS 、SAN、IPSAN ISCSI 解决方案

   企业级存储解决方案

   备份 容灾解决方案

   防勒索病毒解决方案


  NAS 应用场景:完美解决文件共享/文件分享问题,替代传统文件服务器

                              NAS网络存储 文件NAS存储 。

 群晖备份一体机 适用于的企级备份软件有:

(acronis 安克诺斯 /veeam卫盟/veritas华睿泰/commvault 慷孚沃德 /arcserver )

  PHD virtual , Nakivo, IBM spectrum protect , (TSM) HP data protector

  DELL  EMC Networker  RecoverPoint Quest  veritas system recovery 18

 国内备份软件:鼎甲,火星仓,UPM,浪擎,爱数 云祺 盛思睿

黑群晖无法升级,易丢失数据,建议用白群晖,黑群晖洗白

synology partner:深圳国亿国际(凯洛蜜) 上海世平伟业

服务区域:四川群晖 成都群晖 西藏群晖  重庆群晖贵州群晖 贵阳群晖 云南群晖  昆明群晖 

 群晖配件:群晖钥匙  群晖网卡  群晖内存 群晖电源 群晖主板

群晖维修:群晖保修保内保外维修 群晖硬盘数据恢复 群晖客服 群晖保修 群晖维修)

群晖数据恢复:  服务器数据恢复 raid数据恢复  nas数据恢复   希捷数据恢复  西数硬盘恢复  seagate 数据恢复  WD数据恢复 

 国行原装正品(国代,总代理,总分销商)方案适用机型:

19-系列

DS1219+ 

18-系列FS1018RS3618xsDS3018xsRS2818RP+RS2418(RP)+RS818(RP)+DS918+DS718+DS418DS418playDS218+DS218playDS418jDS218DS218jDS118

17-系列FS3017、FS2017、RS18017xs+、RS4017xs+、RS3617xs+、RS3617RPxs、RS3617xs、RS217、DS3617xs、DS1817+、DS1517+、DS1817、DS1517、RX2417sas、RX1217sas、RX1217、DX517;

16-系列:RS18016xs+、RS2416RP+、RS2416+、DS916+、DS716+II、DS716+、RS816、DS416、DS416play、DS416slim、DS416j、DS216+II、DS216+、DS216play、DS216、DS216j、DS216se、DS116、NVR216、RX1216sas;

15-系列RC18015xs+DS3615xsDS2015xsRS815(RP)+DS2415+DS1515+DS415+RS815DS1515DS715DS415playDS215+DS215jDS115DS115jDS1815+

14-系列RS3614xs+RS2414(RP)+RS814(RP)+RS814DS414DS214+DS214playRS214DS414jDS414slimDS214DS214seDS114EDS14

13-系列RS10613xs+RS3413xs+DS2413+DS1813+DS1513+DS713+DS413DS213+DS413jDS413jDS213DS213jDS213air

12-系列DS112、DS112j、DS112+、DS212、DS212j、DS212+、DS412+、DS712+、DS1512+、DS1812+、DS3612xs、RS212、RS812、RS812+、RS812RP+、RS2212+、RS2212RP+、RS3412RPxs、RS412xs、RS412RPxs;

早期系列:ds-101 


科汇科技 --- 专业数据备份服务商

无论您的IT架构是 本地化、云端、还是混和云 都能提供一站式数据备份方案。

京东群晖synology  天猫群晖 线下代理售后维修服务站

四川成都群晖官方授权核心代理商(企业级服务商)

四川成都群晖synology解决方案中心

四川成都群晖synology体验中心

四川成都群晖synology售后维修中心

四川成都群晖synology官方授权专卖店

成都科汇科技有限公司

地址:成都市人民南路四段1号时代数码大厦18F

群晖电话:400-028-1235(群晖400)

QQ:     2231749852

手机:138 8074 7621(微信同号)

微信公众号:群晖Synology技术中心

脚注备案信息
群晖技术群