Ho il seguente scenario.
Per vari motivi, ho scelto di utilizzare il tomcat incorporato per il mio resto di backend che formerà un cluster di macchine AWS. Desidero distribuire aggiornamenti abbastanza frequenti senza interruzioni del servizio. Ho letto sul web ma non sono perfettamente sicuro della metodologia utilizzata.
Come capisco, distribuirò utilizzando un software di automazione (qualsiasi cosa da raccomandare qui o semplicemente vecchi script unix?) per arrestare uno alla volta un server del cluster e ridistribuire il vaso REST ma mentre il server è inattivo un altro essere in esecuzione (a causa del cluster) e l'utente non avrà un'interruzione del servizio a causa della condivisione della sessione (e di un servizio di bilanciamento del carico?). Ad esempio, dovrei utilizzare una memoria di sessione persistente con jdbc.
O è che se un utente sta attualmente utilizzando il server che voglio portare giù per l'aggiornamento avrà un'interruzione, non importa quale.