Puoi utilizzare questo codice bash
per l'URL effettivo che hai fornito in il tuo commento .
for i in $(for j in {1..8}; do
curl http://occipital.com/user/01ca-255/george-coghill/$j/;
done \
| sed -n 's,.*/viewer/\(......_flat\)_small\.jpg.*,http://occipital.com/images/viewer/.jpg,p'
); do
curl -L -o "${i##*/}" "$i";
done
Sentiti libero di scrivere questo comando come una linea; tutte le interruzioni di riga sono state aggiunte solo per aumentare la leggibilità. Puoi copiarli o rimuoverli, qualunque cosa tu voglia.
Cosa fa questo codice:
- Fai scorrere le 8 pagine della galleria del tuo account
- Estrai i nomi delle immagini dalle immagini di anteprima
- Recupera tutte le immagini a grandezza naturale usando questo elenco di nomi
Se vuoi scaricare solo file che non esistono e non conosci il numero di pagine della galleria in primo piano, puoi adattare il codice a questo:
for i in $(
j=1;
while curl --max-redirs 0 -L -f \
http://occipital.com/user/01ca-255/george-coghill/$((j++))/; do
:;
done \
| sed -n 's,.*/viewer/\(......_flat\)_small\.jpg.*,http://occipital.com/images/viewer/.jpg,p'
); do
[[ -f "${i##*/}" ]] || curl -L -o "${i##*/}" "$i";
done
Il primo codice ora incrementa il numero di pagina finché non si verifica un reindirizzamento o un errore. Il server ti reindirizzerà all'ultima pagina esistente se tenti di visitare una pagina dopo quelle esistenti. La parte [[ -f … ]] ||
eseguirà curl
solo se il file corrispondente non esiste ancora.