Nella mia università locale, c'è un piccolo club informatico studentesco di circa 20 studenti. Il club ha diversi piccoli team con aree specifiche di attenzione, come lo sviluppo mobile, la robotica, lo sviluppo di giochi e l'hacking / sicurezza.
Sto introducendo alcuni concetti di sviluppo agili di base in un paio di team, come storie di utenti, stima della complessità delle attività e integrazione continua per controllo di versione e build / test automatici.
Ho familiarità con alcuni cicli di vita di sviluppo di base, come cascata, spirale, RUP, agile, ecc., ma mi chiedo se esiste una cosa come un ciclo di sviluppo di sviluppo software per l'hacking / violazione della sicurezza. Sicuramente, gli hacker stanno scrivendo il codice del computer, ma qual è il ciclo di vita di quel codice? Non penso che sarebbero troppo preoccupati per la manutenzione, dal momento che una volta che la violazione è stata trovata e rattoppata, il codice che ha sfruttato quella violazione è inutile.
Immagino che il ciclo di vita sia qualcosa del tipo:
- trova spazio nella sicurezza
- Exploit gap in security
- Procura payload
- Utilizza payload
Che tipo di differenze (se esistono) ci sono per lo sviluppo del ciclo di vita del software quando lo scopo del prodotto è quello di violare la sicurezza?