Attualmente il mio database non è sotto alcun tipo di vcs, possiamo ottenere delta ma questo è tutto. Vorrei provare a rendere le distribuzioni dei prodotti più automatizzate e meno dispendiose in termini di tempo. Capisco che posizionare i file di schema di un db sotto il controllo del codice sorgente ti consenta di gestire le versioni e che questi file siano fondamentalmente per rilasciare le vecchie tabelle / indici / etc e quindi aggiungere le nuove versioni.
La mia domanda è, per quanto riguarda i dati che ci sono già? Perdendo tutto, perdiamo tutti i dati. Quindi, dovremmo fare un dump dei dati prima di aggiornare il database, e quindi ricaricare i dati dopo che l'aggiornamento è stato fatto. Il problema è che alcuni dei nostri database più grandi hanno oltre 80 GB di dati e probabilmente abbiamo un totale di 20 set di database (6 database per set).
Sono sicuro che ciò funzionerebbe, ma vista la dimensione di tutto, c'è una soluzione più semplice che eliminerebbe la necessità di scaricare e ricaricare tutto ogni volta che si verificava un aggiornamento dello schema? E, in caso contrario, non dovremmo scaricare i dati in modo tale che il ricaricamento abbia preso in considerazione il nuovo schema?