id: Гость   вход   регистрация
текущее время 17:56 29/03/2024
Автор темы: Гость, тема открыта 04/03/2015 16:37 Печать
Категории: операционные системы
https://www.pgpru.com/Форум/UnixLike/ReadonlyRootx5ИОптимизацияDiffБэкаповСистемы
создать
просмотр
ссылки

readonly root (x5) и оптимизация diff бэкапов системы


Доброго времени суток. Хочу попросить вашего совета по организации рабочей станции.


В настоящее время я использую пять виртуальных машин на базе archlinux. В каждой виртуалке стоит свой набор софта для конкретных задач. Кроме этого, есть несколько витуальных машин на базе windows. В качестве системы виртуализации используется Virtualbox.


Проблема состоит в следующем:
Во первых, любое обновление системы необходимо производить пять раз.
Во вторых, создание актуальных бэкапов является непростой задачей. Нужно хранить все пять образов (с большими накладными расходами), нужно обновлять эти образы после каждого обновления системы, и самое главное — нужно передавать их по сети на внешнее хранилище. Если бэкапить только рабочие данные, без снимков системы — то потеря носителя равнозначна полной переустановке виртуалки с нуля, с соответствующими проблемами.


Нужна схема, которая позволит:
1)Использовать общий readonly root, а все отличия системы писать в diff (механизм QubesOS). В идеале — diff должен поддерживать слияния с другими diff'ами (об этом ниже)
2)Быстро разворачивать рабочую систему на чистом компьютере. В идеале — синхронизировать рабочие станции каждый день с минимальными потерями траффика (diff на diff). Хранилище предполагается amazon s3 (либо на своем сервере)


По моим представлениям, процесс должен быть следующим:
1)Создаем образ базовой системы. Делаем бэкап на s3, забываем про него.
2)Создаем кучу виртуальных машин из образа, ставим туда специфичный софт. Делаем бэкап diff'ов, забываем про них.
На этом этапе системой можно пользоватся.
3)Делаем мелкие diff'ы каждый день, отправляем их на s3. На остальных системах докачиваем эти diff'ы каждый день.


Не подходят варианты: использовать xen (проблемы с ноутбуками), использовать kvm (проблемы с windows), использовать снапшоты virtualbox (сложный экспорт/импорт отдельных снапшотов).
Кажутся нереализуемыми: использовать docker (из за xorg).


Что можете подсказать?


 
Комментарии
— Гость (06/03/2015 21:19)   <#>
Удалённые бэкапы надёжно не зашифровать без полной перешифровки всего контента, поэтому такое простое решение как rdiff-backup не сгодится.

Корневую файловую систему вроде можно инкрементально бэкапить через rdiff-backup, а для загрузчика (содержимое /boot) достаточно иметь компактный образ на несколько мегабайт, который уже бэкапить полностью через dd.
— unknown (06/03/2015 23:32, исправлен 06/03/2015 23:33)   профиль/связь   <#>
комментариев: 9796   документов: 488   редакций: 5664

На одной системе:


Синхронизируете /var/cache/apt/archives на все системы через rsync.


на всех системах.


По окончании на всех системах можно почистить через



Как криптографическая максима — да. Режимы дискового шифрования для удалённого наблюдателя множества копий превращаются не совсем в тыкву, но некоторые теоретические слабости дают.



Раскидать через bind для каждой системы как-то так:


Вообще, понятно чего вы хотите, но вы хотите сложного. Если кто-то так делал, то может заведёт документ и поделится наработками. Общих слов мало, в таких задачах может много подводных камней вылезти на этапе реализации.

Ваша оценка документа [показать результаты]
-3-2-1 0+1+2+3