提高rsync备份性能

什么是在unix框之间通过ssh匹配来提升rsync的最有效策略,认为系统将不断拥有主副本,并且各种其他系统将始终具有当前重复(远小于48小时)

此外,当然需要采取哪种方法来处理这些方法来处理大量设备以获得推动这些调整?

0
2019-05-13 02:22:00
资源 分享
答案: 3

假设当前没有按下您正在查询的信息,激活压缩(-z)可能会有助于移动速率,而不是任何一端的某些CPU的价格。

0
2019-05-17 12:11:44
资源

如果:

  • 您的文件的更改时间是适当的
  • 这些文件实际上并不大
  • 没有推出可以错过(或有某种库存处理)

您可以使用find -ctimefile -cnewer来制作转换文档的核对表,给出最后一个实现,并且只复制已更改的文档(只是一个pietistic差异推送)。

这为许多主机完美地转换了自己:只需在资源上执行差异tar,并在所有主机上解压缩它。

它为您提供类似的东西:

find -type f -cnewer /tmp/files_to_send.tar.gz > /tmp/files_to_send.txt
tar zcf /tmp/files_to_send.tar.gz --files-from /tmp/files_to_send.txt 
for HOST in host1 host2 host3 ...
do
    cat /tmp/files_to_send.tar.gz | ssh $HOST "tar xpf -"
done

手稿实际上有待改进,但你明白了。

0
2019-05-17 11:54:09
资源

当你作为备用方法使用时,如果你有很多支持的文件,那么你肯定会遇到的最大麻烦就是可能会出现问题。 Rsync可以毫不费力地处理大型文档,如果您支持的各种文档也获得了巨大的成功,那么您肯定会看到rsync无法在实际的时间内完成。 如果发生这种情况,您肯定需要将备份损坏到较小尺寸的组件中,然后将这些组件打结成一个示例

find /home -mindepth 1 -maxdepth 1 -print0 | xargs -0 -n 1 -I {} -- rsync -a -e ssh {} [email protected]:/backup/

或者使用文件集来降低各种文档。

当涉及到大量设备获得这些调整的镜像时,它依赖于备份需要多么新鲜。 一种策略肯定是镜像从关键Web服务器到备份Web服务器的调整,然后让各种其他Web服务器通过第一备份Web服务器上的rsync守护进程从备份Web服务器上调整其调整,然后进行设置各种其他Web服务器可以进行一些不同的时间,或者通过使用手稿使用无密码ssh来连接每个Web服务器,并通知他们绘制一个新的备份副本,这肯定有助于防止令人沮丧的第一个备份Web服务器 - 然而,你是否最容易出现这个问题的是,可能依赖于各种其他设备的数量,你已经绘制了备份副本。

0
2019-05-17 08:49:01
资源