I want to download websites so I can access it offline, with preserved navigation. Let's say a few hundred articles/pages.

Any suggested tool/method? To be done on a Linux machine, preferable with opensource tool.

@hehemrin Många servrar har lite olika typ av skydd mot upprepade, systematiska försök att kontakta dem. Min erfarenhet är att det bästa sättet är att skriva ett script i Python som använder `requests`-biblioteket för att göra nedladdningar. Då har du full kontroll över vad du laddar ner och när.

Follow

@mekuso Tack för tips och "varning". Inte tänkt på det, men det är ju rimligt med tanke på alla ddos-problem. Jag testade HTTrack som en annan föreslog på en sajt jag var intresserad av, där funkade det bra. Testar just nu på min egna sajt, den tar lång tid, får se om den slutför eller om hotellet skyddar mig från mig själv...

Sign in to participate in the conversation
Librem Social

Librem Social is an opt-in public network. Messages are shared under Creative Commons BY-SA 4.0 license terms. Policy.

Stay safe. Please abide by our code of conduct.

(Source code)

image/svg+xml Librem Chat image/svg+xml