8

我正在使用 plone.app.blob 将大型 ZODB 对象存储在 blobstorage 目录中。这减少了 Data.fs 的大小压力,但我无法找到有关备份此数据的任何建议。

我已经通过将网络备份工具指向 repozo 备份目录来备份 Data.fs。我是否应该简单地将该工具指向 blobstorage 目录来备份我的 blob?

如果在复制过程中重新打包数据库或添加和删除 blob,该怎么办?blobstorage 目录中是否有必须按特定顺序复制的文件?

4

4 回答 4

13

对 Data.fs 进行 repozo 备份,然后对 blobstorage 目录进行 rsync 应该是安全的,只要在这两个操作发生时数据库没有被打包。

这是因为,至少在使用带有 FileStorage 的 blob 时,对 blob 的修改总是会导致创建一个基于对象 ID 和事务 ID 命名的新文件。因此,如果在备份 Data.fs 后写入新的或更新的 blob,这应该不是问题,因为 Data.fs 引用的文件应该仍然存在。删除 blob 不会导致文件被删除,直到数据库被打包,所以这也应该没问题。

以不同的顺序执行备份,或在备份期间打包,可能会导致备份 Data.fs 引用未包含在备份中的 blob。

于 2010-04-18T23:51:13.263 回答
3

备份“blobstorage”就可以了。不需要特殊订单或其他任何东西,这非常简单。

Plone 中的所有操作都是完全事务性的,因此在事务中间点击备份应该可以正常工作。这就是您可以对 ZODB 进行实时备份的原因。在不知道您使用的文件系统的情况下,我猜它应该按预期工作。

于 2009-01-17T20:16:28.203 回答
2

我有一个脚本,它使用硬链接将 blob 复制一个月(因此您将 blob 的历史记录为 Data.fs ):

备份.sh

#!/bin/sh

# per a fer un full : ./cron_nocturn.sh full

ZEO_FOLDER=/var/plone/ZEO

# Zeo port
ZEO_PORT = 8023

# Name of the DB
ZEO_DB = zodb1

BACKUP_FOLDER=/backup/plone

LOGBACKUP=/var/plone/ZEO/backup.log

BACKUPDIR=`date +%d`

echo "INICI BACKUP" >> $LOGBACKUP
echo `date` >> $LOGBACKUP

# Fem el packing

if [ "$1" = "full" ]; then
  $ZEO_FOLDER/bin/zeopack -S $ZEO_DB -p $ZEO_PORT -h 127.0.0.1


echo "   Comprovant folders"
#mirem si existeix el folder de backup
if ! [ -x $BACKUP_FOLDER/$ZEO_DB ]; then
   mkdir $BACKUP_FOLDER/$ZEO_DB
fi

#mirem si existeix el backup folder del dia
if ! [ -x $BACKUP_FOLDER/blobs/$BACKUPDIR/ ] ; then
   mkdir $BACKUP_FOLDER/blobs/$BACKUPDIR/
fi

echo "   Backup Data.fs"
# backup de Data.fs
if  [ "$1" = "full" ]; then
   echo "   Copiant Data.fs"
   $ZEO_FOLDER/bin/repozo -B -F -r $BACKUP_FOLDER/$ZEO_DB/ -f $ZEO_FOLDER/var/filestorage/Data_$ZEO_DB.fs
   echo "   Purgant backups antics"
   $ZEO_FOLDER/neteja.py -l $BACKUP_FOLDER/$ZEO_DB -k 2
else
   $ZEO_FOLDER/bin/repozo -B -r $BACKUP_FOLDER/$ZEO_DB/ -f $ZEO_FOLDER/var/filestorage/Data_$ZEO_DB.fs
fi

echo "   Copiant blobs"
# backup blobs
rm -rf $BACKUP_FOLDER/blobs/$BACKUPDIR
cd $BACKUP_FOLDER/current-blobs && find . -print | cpio -dplm $BACKUP_FOLDER/blobs/$BACKUPDIR
rsync --force --ignore-errors --delete --update -a $ZEO_FOLDER/var/blobs/ $BACKUP_FOLDER/current-blobs/


echo "FI BACKUP" >> $LOGBACKUP
echo `date` >> $LOGBACKUP

neteja.py

#!/usr/bin/python2.4

# neteja.py -l [directori_desti] -k [numero_fulls_a_mantenir]
# Script que neteja un directori amb backups i guarda nomes els ultims fulls que li especifiquis
# Es basa en la utilitzacio de collective.recipe.backup
# Author: Victor Fernandez de Alba <sneridagh@gmail.com>

import sys, getopt

sys.path[0:0] = [
  '/var/plone/genwebupcZEO/produccio/eggs/collective.recipe.backup-1.3-py2.4.egg',
  '/var/plone/genwebupcZEO/produccio/eggs/zc.buildout-1.4.2-py2.4.egg',
  '/var/plone/genwebupcZEO/produccio/eggs/zc.recipe.egg-1.2.2-py2.4.egg',
  '/var/plone/genwebupcZEO/produccio/eggs/setuptools-0.6c11-py2.4.egg',
  ]

import collective.recipe.backup.repozorunner

argv = sys.argv[1:]
try:
    opts, args = getopt.getopt(argv, "l:k:", ["location=", "keep="])
except getopt.GetoptError:
    print "neteja.py -l [directori_desti] -k [numero_fulls_a_mantenir]"
    sys.exit(2)

for opt, arg in opts:
    if opt in ("-l", "--location"):
        location = arg
    elif opt in ("-k", "--keep"):
        keep = arg

if len(opts)<2:
    print "neteja.py -l [directori_desti] -k [numero_fulls_a_mantenir]"
    sys.exit(2)

collective.recipe.backup.repozorunner.cleanup(location, keep)
于 2011-03-10T16:54:01.070 回答
1

您的 FileStorage 备份策略很好。但是,备份任何将数据存储在多个文件中的数据库从来都不是一件容易的事,因为您的副本必须在不写入各种文件的情况下进行。对于 FileStorage,盲目的愚蠢副本很好,因为它只是一个文件。(使用 repozo 更好。)

在这种情况下(结合 BlobStorage 和 FileStorage)我必须指出常规备份建议:

  • 在制作文件系统副本时使数据库脱机
  • 使用 LVM 之类的快照工具在给定点冻结磁盘
  • 进行交易出口(在实践中不可行)
于 2009-03-24T06:51:57.257 回答