Follow

I want to download websites so I can access it offline, with preserved navigation. Let's say a few hundred articles/pages.

Any suggested tool/method? To be done on a Linux machine, preferable with opensource tool.

Thank you for your answers to my Linux open source software question at the top of this thread.

Mastodon/Fediverse is great, so nice we humans on earth can communicate and support each other.

Show thread

@scott Thanks, will have a look at that tool as well. Just tried HTTrack I also got suggested.

@dalstroka Njae, inte för detta ändamål. Men annars gillar jag RSS och använder det frekvent.

@hehemrin

`wget -r -np -nc -w.5 example.com`

adjust the .5 depending on how much you respect the hoster

@hehemrin Många servrar har lite olika typ av skydd mot upprepade, systematiska försök att kontakta dem. Min erfarenhet är att det bästa sättet är att skriva ett script i Python som använder `requests`-biblioteket för att göra nedladdningar. Då har du full kontroll över vad du laddar ner och när.

@mekuso Tack för tips och "varning". Inte tänkt på det, men det är ju rimligt med tanke på alla ddos-problem. Jag testade HTTrack som en annan föreslog på en sajt jag var intresserad av, där funkade det bra. Testar just nu på min egna sajt, den tar lång tid, får se om den slutför eller om hotellet skyddar mig från mig själv...

@rspfau Yep, got just tried it and it works for one site I was interested in to have available offsite.

@breizh Thank you for your suggestion. Quick reading, I don't think it fits to my idea this time. My need is to have a complete offline copy (snapshot) of website(s), to browse the site locally on my machine as if I was using the online version. Thanks for your response!

Sign in to participate in the conversation
Librem Social

Librem Social is an opt-in public network. Messages are shared under Creative Commons BY-SA 4.0 license terms. Policy.

Stay safe. Please abide by our code of conduct.

(Source code)

image/svg+xml Librem Chat image/svg+xml