Я Никогда не пробовал S3rsync.
Я использую двуличность для наших удаленных резервных копий. Это поддерживает возрастающие резервные копии на S3, хотя это действительно не сохраняет пропускную способность из-за протокола хранения Amazon S3, в котором любая модификация файла вынуждает Вас загрузить целый новый файл снова. Так или иначе двуличность только загружает различия от последнего инкрементного резервного копирования.
С Двуличностью Вы не должны будете проходить другой сервер, как S3sync делает, тем не менее, при шифровании данных, должно стоить, чтобы дать S3sync попытку.
Посмотрите, можно ли сделать это:
$ echo "woo" | gzip > asdf.gz
$ gunzip asdf.gz
cat asdf
Это должно сказать Вам, что Ваш материал gzip хорошо работает. Если Вы не делаете своего материала gzip путем, я просто сделал это, возможно, пробую его способ, которым я просто сделал это.
Другими словами, попробуйте это:
/usr/bin/mysqldump --database $DBNAME --opt --single-transaction -u $USER -p $PASS | gzip > /var/www/vhosts/meh/mysqlbackup/dump.gz
Другая явная возможность: у Вас есть "/var/www/vhosts/meh/mysqlbackup" в одном экземпляре и "/var/www/vhosts/meh/mysqlbackups" в другом экземпляре. Возможно, вот именно.
Для меня я не запускал cron как пользователь root,поэтому мне пришлось изменить владельца папки и права доступа
chown user1 /home/user1/public_html/backups
chmod 755 /home/user1/public_html/backups
. Затем я получил ту же ошибку: Нет такого файла или каталога mysqldump: Получил ошибку 32 при записи
Я добавляю точку перед public_html (корневая папка для user1) и работал нормально.
mysqldump -u user1_usr -h localhost -p'123123' db_db1 | gzip -f > ./public_html/backups/db-2015-11-14-0722.sql.gz