måndag, oktober 03, 2011

Backup av webbplats

Här kommer en liten kom-ihåg-post. Jag behövde göra en backup av skolans webbplats men företaget som vi har vår webbplats var inte så hjälpsamma så jag fick tanka ut allt själv. Jag gjorde det för ett tag sedan men kom inte ihåg exakt hur jag gjorde men denna gång så ska jag lägga ut det här så kan jag ju spara lite tid nästa gång och eventuellt hjälpa någon annan som har samma behov.

Det finns ett litet med kraftfullt program som heter wget och den kan dammsuga en webbplats och ladda ner allt till den lokala datorn. Ladda ner programmet wget. Det finns till de flesta plattformar.

Installera och kör programmet. Jag använder mac och kör programmet från terminalen. Det finns en inbyggd hjälp som du kan nå med kommandot
man wget
Eftersom sidorna som jag vill göra backup på kräver inloggning loggar jag först in och sparar undan cookien i en textfil. Textfilen använder jag sedan för att wget ska få tillgång till webbsidorna. För att wget ska förstå att du vill använda en textfil med cookie ska du skriva optionen
--load-cookies=cookiefile.txt
Jag ville också ha med alla sidor i webbplatsen och då fick jag använda optionen
-r
Dessutom ville jag att programmet skulle skapa samma mappstruktur som på servern och det åstadkom jag med optionen
-x
Hela kommandot blev då
wget -x -r --load-cookies=cookiefile.txt www.webbplatsen.se