Ho bisogno di aiuto per capire come dovrebbero essere le storie degli utenti per un framework di test web che stiamo costruendo per il dipartimento QA della nostra organizzazione. Stiamo cercando di eseguire questo progetto usando Scrum.
Il prodotto avrà 3 livelli:
- classi di utilità per semplificare il lavoro con lo strumento di automazione web sottostante
- un livello API di oggetti di pagina che consentirà ai nostri tester di scrivere test dal punto di vista dei servizi offerti dalle nostre pagine Web, invece dalla prospettiva dello strumento di automazione del web.
- un livello dichiarativo, che consentirà la scrittura di test in una lingua di tipo inglese - forse scenari tipo Cetriolo. Questo livello verrà mappato al livello API dell'oggetto di pagina, in modo che se un test non può essere eseguito in modo dichiarativo, l'autore del test può passare al livello dell'API della pagina-oggetto.
L'utente finale di questo framework è il nostro gruppo QA che scriverà i test a livello dichiarativo o, se necessario, il livello API dell'oggetto-pagina.
La mia domanda è: come dovrebbero essere le nostre storie utente? Attualmente abbiamo storie che riguardano ciò che l'automazione del web dovrebbe essere in grado di fare (cioè trovare elementi sulla pagina, attendere che compaiano gli elementi), ma non può essere giusto. In primo luogo, potremmo fornire già questo tipo di cose dando al gruppo QA lo strumento di automazione sottostante. Queste storie chiaramente non valgono la pena di essere dimostrate in una recensione di sprint.
In secondo luogo, le storie dovrebbero indicare il valore aziendale, che in questo caso non è nel trovare elementi in una pagina, ma in:
- avere test basati su un web aggiornato, popolare ed efficace strumento di automazione.
- con test leggibili
- con i test effettivi separati dallo strumento di automazione del web che li sta guidando.
Bene, ma come posso suddividere il prodotto in storie utente più specifiche?