Scarica gli URL da un file .txt

2

Ho un file .txt con URL su una riga separata.

http://www.apple.com
http://www.google.com
http://www.reuters.com

Vorrei scaricare queste pagine web come sorgente di pagina (un file .html) in modo da poterle aprire offline nel mio browser.

Ho provato a farlo con il programma di automazione, ma non sembra funzionare correttamente. Il flusso di lavoro del mio Automator consiste di 2 passaggi: "Estrai dati da testo" e "Scarica URL". Ho cercato sul Web soluzioni già esistenti, ma non ho trovato nulla che io capisca.

Qualcuno può creare un programma con Automator o Applescript (o qualcos'altro) così posso scaricare queste pagine web?

Il programma dovrebbe funzionare come segue:

  1. Il programma legge un file .txt con URL su una riga separata. (Il il filetype non ha molta importanza, purché sia semplice per il tuo programma: .csv, .pages, .doc, ...)
  2. Il programma legge ogni URL nel file e lo scarica come file .html in modo che le pagine web siano accessibili senza una connessione Internet.
  3. Tutti i file .html devono essere salvati in una cartella, preferibilmente una cartella sul desktop con il nome "File html scaricati"

Grazie in anticipo, Se ci sono domande, non esitate a chiedere. Risponderò al più presto.

    
posta OlivierVR 04.11.2015 - 14:35
fonte

2 risposte

2

Per utilizzare il seguente metodo, dovrai installare wget .

Crea un file con l'estensione .sh nella stessa directory del tuo file contenente i link e aggiungi questo testo a esso:

mkdir ~/Desktop/download

while read line; do wget -E -H --directory-prefix=/Users/username/Desktop/download -k -p $line; done < file.txt

cd ~/Desktop/download

Assicurati di modificare lo script e cambiare nome utente al tuo nome utente

Questo legge file.txt per gli URL ed esegue il comando wget più volte con tutti i collegamenti uno alla volta e li salva in una cartella denominata download in il tuo desktop.

Eseguilo nel terminale con ./script.sh o qualsiasi cosa tu abbia chiamato. Se mostra Autorizzazione negata , esegui chmod a+x script.sh

    
risposta data 04.11.2015 - 15:30
fonte
-1

La riga di comando è più semplice ( link ):

Usa wget -i urls.txt

Un modo alternativo, utilizzando questa risposta, utilizzando Estrai URL dal testo, quindi Scarica URL. Salvalo come servizio. Seleziona tutti gli URL, fai clic con il pulsante destro del mouse > Servizi > Scarica URL

    
risposta data 04.11.2015 - 15:52
fonte

Leggi altre domande sui tag