Come scaricare un intero sito Web per la lettura offline
Sebbene il Wi-Fi sia disponibile ovunque in questi giorni, potresti trovarti senza di esso di tanto in tanto. E quando lo fai, potrebbero esserci siti web che avresti voluto salvare, in modo da potervi accedere mentre sei offline, forse per ricerca, intrattenimento o solo per i posteri.
È piuttosto semplice salvare singole pagine Web per la lettura offline, ma cosa succede se si desidera scaricare un intero sito Web? Non preoccuparti, è più facile di quanto pensi. Ma non crederci sulla parola. Ecco diversi strumenti eleganti che puoi utilizzare per scaricare qualsiasi sito Web per la lettura offline, senza problemi.
1. Copia Web
WebCopy di Cyotek prende l’URL di un sito Web e lo scansiona alla ricerca di collegamenti, pagine e contenuti multimediali. Quando trova le pagine, cerca in modo ricorsivo più collegamenti, pagine e contenuti multimediali fino a quando non viene scoperto l’intero sito web. Quindi puoi utilizzare le opzioni di configurazione per decidere quali parti scaricare offline.
La cosa interessante di WebCopy è che puoi impostare più progetti che hanno ciascuno le proprie impostazioni e configurazioni. Ciò semplifica il riscaricamento di molti siti ogni volta che lo desideri, ognuno nello stesso modo esatto ogni volta.
Un progetto può copiare molti siti Web, quindi usali con un piano organizzato (ad es. un progetto “Tech” per copiare siti tecnologici).
Come scaricare un intero sito Web con WebCopy
- Installa e avvia l’app.
- Passa a File > Nuovo per creare un nuovo progetto.
- Digita l’URL nel campo Sito web .
- Modifica il campo Salva cartella nel punto in cui desideri salvare il sito.
- Gioca con Progetto > Regole… ( scopri di più sulle regole di WebCopy ).
- Passare a File > Salva con nome… per salvare il progetto.
- Fare clic su Copia nella barra degli strumenti per avviare il processo.
Una volta eseguita la copia, è possibile utilizzare la scheda Risultati per visualizzare lo stato di ogni singola pagina e/o file multimediale. La scheda Errori mostra tutti i problemi che potrebbero essersi verificati e la scheda Ignorati mostra i file che non sono stati scaricati.
Ma la cosa più importante è la Sitemap , che mostra l’intera struttura di directory del sito Web rilevata da WebCopy.
Per visualizzare il sito Web offline, apri Esplora file e vai alla cartella di salvataggio che hai designato. Apri index.html (o talvolta index.htm ) nel tuo browser preferito per iniziare la navigazione.
Scarica: WebCopy perWindows (gratuito)
2. HTTrack
HTTrack è più conosciuto di WebCopy ed è probabilmente migliore perché è open source e disponibile su piattaforme diverse da Windows. L’interfaccia è un po’ goffa e lascia molto a desiderare, tuttavia funziona bene, quindi non lasciarti allontanare.
Come WebCopy, utilizza un approccio basato su progetti che ti consente di copiare più siti Web e di mantenerli tutti organizzati. È possibile sospendere e riprendere i download e aggiornare i siti Web copiati scaricando nuovamente i file vecchi e nuovi.
Come scaricare un sito Web completo con HTTrack
- Installa e avvia l’app.
- Fare clic su Avanti per iniziare a creare un nuovo progetto.
- Assegna al progetto un nome, una categoria, un percorso di base, quindi fai clic su Avanti .
- Seleziona Scarica sito Web per azione, quindi digita l’URL di ciascun sito Web nella casella Indirizzi Web , un URL per riga. Puoi anche memorizzare gli URL in un file TXT e importarlo, il che è utile quando vuoi riscaricare gli stessi siti in un secondo momento. Fare clic su Avanti .
- Regola i parametri se lo desideri, quindi fai clic su Fine .
Una volta scaricato tutto, puoi navigare nel sito normalmente andando dove sono stati scaricati i file e aprendo index.html o index.htm in un browser.
Come usare HTTrack con Linux
Se sei un utente Ubuntu, ecco come puoi usare HTTrack per salvare un intero sito web:
- Avvia il Terminale e digita il seguente comando:
sudo apt-get install httrack
- Ti chiederà la password di Ubuntu (se ne hai impostata una). Digitalo e premi Invio . Il terminale scaricherà lo strumento in pochi minuti.
- Infine, digita questo comando e premi Invio . Per questo esempio, abbiamo scaricato il popolare sito Web, Brain Pickings .
httrack https://www.brainpickings.org/
- Questo scaricherà l’intero sito Web per la lettura offline.
È possibile sostituire l’URL del sito Web qui con l’URL del sito Web che si desidera scaricare. Ad esempio, se volessi scaricare l’intera Enciclopedia Britannica, dovrai modificare il tuo comando a questo:
httrack https://www.britannica.com/
Scarica: HTTrack per Windows e Linux | Android (gratuito)
3.SiteSucker
Se utilizzi un Mac, l’opzione migliore è SiteSucker . Questo semplice strumento copia interi siti Web, mantiene la stessa struttura e include anche tutti i file multimediali pertinenti (ad es. immagini, PDF, fogli di stile).
Ha un’interfaccia pulita e facile da usare: incolli letteralmente l’URL del sito web e premi Invio .
Una caratteristica interessante è la possibilità di salvare il download in un file, quindi utilizzare quel file per scaricare di nuovo gli stessi file e la stessa struttura in futuro (o su un’altra macchina). Questa funzione è anche ciò che consente a SiteSucker di mettere in pausa e riprendere i download.
SiteSucker costa circa $ 5 e non viene fornito con una versione gratuita o una prova gratuita, che è il suo più grande svantaggio. L’ultima versione richiede macOS 11 Big Sur o versioni successive. Le vecchie versioni di SiteSucker sono disponibili per i vecchi sistemi Mac, ma alcune funzionalità potrebbero mancare.
Scarica : SiteSucker per iOS | Mac ($ 4,99)
4. Wget
Wget è un’utilità della riga di comando in grado di recuperare tutti i tipi di file tramite i protocolli HTTP e FTP. Poiché i siti Web sono serviti tramite HTTP e la maggior parte dei file multimediali Web sono accessibili tramite HTTP o FTP, questo rende Wget uno strumento eccellente per scaricare interi siti Web.
Wget viene fornito in bundle con la maggior parte dei sistemi basati su Unix. Sebbene Wget sia in genere utilizzato per scaricare singoli file, può anche essere utilizzato per scaricare in modo ricorsivo tutte le pagine e i file che si trovano attraverso una pagina iniziale:
wget -r -p https://www.makeuseof.com
A seconda delle dimensioni, il download del sito Web completo potrebbe richiedere del tempo.
Tuttavia, alcuni siti potrebbero rilevare e impedire ciò che stai cercando di fare perché il ripping di un sito Web può costare loro molta larghezza di banda. Per aggirare questo problema, puoi camuffarti da browser web con una stringa dell’agente utente:
wget -r -p -U Mozilla https://www.thegeekstuff.com
Se vuoi essere educato, dovresti anche limitare la velocità di download (in modo da non sfruttare la larghezza di banda del server Web) e fare una pausa tra ogni download (in modo da non sovraccaricare il server Web con troppe richieste):
wget -r -p -U Mozilla --wait=10 --limit-rate=35K https://www.thegeekstuff.com
Come usare Wget su un Mac
Su un Mac, puoi installare Wget usando un singolo comando Homebrew: brew install wget .
- Se non hai già installato Homebrew, scaricalo con questo comando:
/usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"
- Quindi, installa Wget con questo comando:
brew install wget
- Al termine dell’installazione di Wget, puoi scaricare il sito Web con questo comando:
wget path/to/local.copy http://www.brainpickings.org/
Su Windows, dovrai invece utilizzare questa versione trasferita . Scarica e installa l’app e segui le istruzioni per completare il download del sito.
Scarica facilmente interi siti web
Ora che sai come scaricare un intero sito Web, non dovresti mai essere sorpreso senza qualcosa da leggere, anche quando non hai accesso a Internet. Ma ricorda: più grande è il sito, più grande è il download. Non consigliamo di scaricare siti di grandi dimensioni come MUO perché avrai bisogno di migliaia di MB per archiviare tutti i file multimediali che utilizziamo.