Ciao,
come avevo accennato altre volte volevo fare una "Time Machine" per salvare
le configurazioni dei miei server ed i miei progetti, con tanto di versioni dei file.
Obbiettivo:
a) Salvare i file di configurazione "modificati" ( /etc/rc.local - /etc/php/7.0/apache2/php.ini - etc... )
b) Salvare i miei script ( /usr/local/bin/* )
d) Salvare i miei progetti arduino/android/etc ( /home/orlangio/XXX/* )
e) !!! Salvare i miei DB mysql !!! (questa la vedo + complicata)
Il tutto per (N) macchine ( miei portatili / miei vhost / miei pc fissi / miei raspberry&co / altri server linux di cui faccio manutenzione )
Quello che avevo pensato era :
1) per ogni macchina mi faccio una lista di file e/o directory che intendo salvare.
2) faccio con rsync o "simili" una copia dei file/directory in una cartella di appoggio ( es. /opt/go.backup/* )
3) faccio con git un aggiornamento di tale cartella verso il repository di backup ( pensavo gitlab è abbastanza sicuro ??? )
Possibilmente il tutto in "automatico" a scadenza giornaliera/settimanale
Su tale meccanismo ho vari dubbi:
d1: gitlab è abbastanza sicuro ?
(ci sarebbero conservati file contenenti password/dati personali/etc...)
d2: come automatizzo l'inserimento/commit delle variazioni in git ?
basta nello script prevedere un "git add *" e mi funziona anche con le sotto directory ?
e se volessi tenere traccia anche della cancellazione dei file ?
e se volessi escludere alcuni tipi di file/directory, tipo quelli che iniziano col punto ( .NF98E.php.swp ) ?
dove meglio intervenire, sulla rsync locale o sul "git add *"
d3: per i db mysql al momento utilizzo mysqldump con inserimento manuale della password.
Si potrebbe automatizzare il mysqldump senza "cablare" delle password dentro ?
C'è già qualche tool che faccia un dump&split delle tabelle in modo che poche variazioni su una tabella da 83.456 righe non mi costringa a ricopiarla tutta ?
Giovanni