Zirvehit.info

Zirvehit.info

Scaricare sito wget

Posted on Author Shami Posted in Multimedia

Ogni tanto, può risultare utile, scaricare un intero sito web sul proprio computer, per renderne disponibile la consultazione offline. Scaricare un. ecco come scaricare un Sito nel Computer con Linux usando da console il comando wget con l'opzione mirror per copiare internamente un sito sul computer. Usiamo il terminale del Pinguino per scaricare completamente in locale un sito web da consultare offline in qualsiasi momento. Esiste un programma, incluso in tutte le distribuzioni Linux, che è in grado di scaricare interi siti internet. Il comando si chiama wget e può.

Nome: scaricare sito wget
Formato: Fichier D’archive
Sistemi operativi: MacOS. Android. iOS. Windows XP/7/10.
Licenza: Gratuito (* Per uso personale)
Dimensione del file: 21.30 Megabytes

Le piu' importanti sono -r per indicare la modalità "ricorsiva" e "-l n" per specificare il numero n di livelli, scaricati i quali la ricorsione si ferma. I file prelevati vengono memorizzati nella directory. Chi siamo Contattaci Iscriviti Partecipa Sostienici. Consigli utili. Linux: Come scaricare un sito web per consultarlo offline 28 ottobre Pill o Linux.

Parole chiave: linux , wget. Articoli correlati Ecodidattica.

Il concetto di profondità di livello è centrale in wget, perché rappresenta il fattore primario in grado di limitare l'attraversamento di un sito.

Facciamo un esempio: se aggiungiamo alla precedente stringa il valore -l 1 wget -Sr -l 1 www. Ma davvero vogliamo scaricare tutto?

Potremmo anche incorrere in file inutili, come contatori, file di database o altri documenti, di cui non ci interessa nulla e che occupano solo banda e allungano i tempo di download. Per evitare un tale spreco, possiamo fornire a wget una "accept list", o al contrario una "reject list", nella quale possiamo specificare le estensioni dei file che intendiamo scaricare.

Se, ad esempio, volessimo prelevare tutti i file grafici in formato gif e jpg, collegati in primo livello con il documento doc In questo caso, ci conviene fornire una lista di domini sui quali è consentito prelevare file. Introduciamo quindi l'opzione -D che indica il "domain acceptance", ovvero i domini dai quali è accettato il download, limitando il dowload dei file collegati al nostro documento, ai soli domini funnystuff.

Oltre che per livelli e per domini, c'è un terzo limite da considerare, che consente di specificare un quota, ovvero una dimensione massima oltre il quale non verrà scaricato più nulla. Non solo, è anche possibile fare in modo che questa operazione non influisca negativamente sulle prestazioni del collegamento ad internet, grazie alla possibilità di diluire nel tempo il download.

Possiamo, volendo, preparare un file di testo o html, contenente tutte le url da scaricare, passandolo poi al programma grazie allo switch -i, oppure evitare che l'hostname venga utilizzato per creare la directory che conterrà il sito, o ancora, possiamo tagliare dall'albero che ricreeremo un certo numero di direcotry --cut-dirs Ad esempio, il comando: wget -r -l 1 -A gif,jpg www.

Infine, cosa fare se un donwload si interrompe per qualsiasi ragione? Senza bisogno di usare getright, provate l'opzione -c e riprenderete li dove vi eravate fermati senza perdere tempo a prelevare di nuovo tutto.

Wget Howto

Ultimo problema che vogliamo affrontare: diciamo che vogliamo scaricare un sito molto grosso, e che le operazioni dureranno almeno un giorno. Come fare per non tenere occupata una shell per 24 ore? Anche qui le cose non sono troppo difficili; basta usare aprire la stringa di comando con nohup e chiudere la serie delle opzioni con un -b background e vi ritroverete anche con un file di log.

Facciamo un esempio: voglio scaricare tutto il sito di www. In questo caso, per essere sicuro, introduciamo anche l'opzione -m mirror che consentirà di creare una copia fedele del sito e l'opzione -t tentativi seguita da 0, per consentire al programma di tentare un numero infinito di volte l'operazione di mirroring, nel caso questa dovesse interrompersi per qualche ragione: nohup wget -m -t0 -b www.

Prima di tutto creiamo un file di testo : nano elenco. Se volessimo scaricare tutti i file PNG da una directory il comando sarebbe alcuni server impediscono questo metodo :.

Per chi ha fretta

Se abbiamo come versione della Bash almeno la 4. Comunque consiglio la lettura del manuale : man wget come sempre.

Una volta imparato ad utilizzare wget sarà facile per chi abbia da gestire un server trovare delle utili applicazioni di questo comando all'interno di script per l'automazione delle operazioni di gestione del server.

Il download semplice di un file viene fatto indicando a wget semplicemente l'url assoluto del file da scaricare in questo modo.

Possiamo inoltre passare al comando nome utente e password per download di file per i quali sia necessario il login. Nel caso sia utile possiamo anche indicare al comando la porta del server remoto sulla quale indirizzarsi aggiungendola a seguito del dominio e separandola con due punti.

Inoltre include numerose opzioni per il logging delle operazioni, la gestione dei file e delle cartelle dei siti in download e della conversione dei link.

Vediamo una panoramica delle opzioni più importanti e degli esempi.


Articoli popolari: