Sto cercando di trovare un modo per scaricare un URL e convertirlo in un PDF.
Ho trovato molti suggerimenti su come trasformare i PDF in HTML o HTML in PDF, ma non è la stessa cosa che voglio fare.
Fondamentalmente sto cercando lo stesso risultato come se avessi aperto la pagina in {inserire il browser di scelta} e selezionato "Stampa" e poi PDF »Salva come PDF ...
Ma voglio essere in grado di eseguire tutto da Terminal, automaticamente, in modo che io possa alimentarlo una manciata di URL contemporaneamente e farlo fare tutto per me.
Non ho bisogno o voglio la ricorsione per pagine aggiuntive.
[Note: I have tried
wget --page-requisites --convert-links
but it does not always actually fetch images which are loaded from a remote server. Also, assume for this execs that the URLs are not behind any sort of login requirement.]