Meerdere dingen in een keer downloaden van een site

Hallo allemaal,

Ik heb een vraagje.
Stel; er is een site, met een soort database, waarmee ik bedoel dat er veel (downloadbare) bestanden op staan, bijv. pdf-jes o.i.d.
Zoals bijv deze:

http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/2e553963-73cd-c557-b1b1-bdb262344771.pdf
http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/badc4008-eefb-1bd9-8463-535c6bd6763f.pdf
http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/e35ea61c-b782-f818-e538-834a34778411.pdf

Zoals je ziet is het deel voor vwo/assets/ telkens hetzelfde, daarna komt er pas een verschil.
Nu zijn er hier een heleboel van, en ik heb niet zo veel zin om ze allemaal los stuk voor stuk te gaan downloaden.
Hoe kan ik het regelen dat ik gewoon in een keer alles download? Dat moet mogelijk zijn toch?
Alle reacties, ideeen oid zijn welkom, en for the record: ik heb niet zo heel veel ervaring...

Rechter muis klik op de links en dan Save Linked File (to downloads).
Tenzij jij je Mac OS in een andere taal hebt. Dan staat er iets anders. Maar doet hetzelfde.

ja maar dan moet ik nog steeds al die links afgaan...
Is er geen commando die ik kan schrijven ofzo, waardoor mijn computer meteen alles download wat er op de site staat? (al die pdf-jes)

Je kunt een shell script maken waarin de naam van ieder te downloaden bestand staat vooraf gegaan door: curl -O.

[code]
curl -O http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/2e553963-73cd-c557-b1b1-bdb262344771.pdf
curl -O http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/badc4008-eefb-1bd9-8463-535c6bd6763f.pdf
curl -O http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/e35ea61c-b782-f818-e538-834a34778411.pdf
[/code]

Dat bestand maak je uitvoerbaar:
[code]chmod 755 scriptje.txt[/code]

En vervolgens voer je het uit:
[code]./scriptje.txt[/code]

Mijn bijdrage in deze is als nutteloos gekwalificeerd door iemand die er verstand van schijnt te hebben.

eeh Pieterr. De TS zegt dat hij niet zo veel ervaring heeft... :wink:
Het lijk mij trouwens lood om oud ijzer. Je moet toch steeds de URL er bij halen, kun je net zo goed gelijk downloaden toch?

Voor 3 links wel. Voor 50 links niet.:wink:

Ik neem natuurlijk wel aan dat de TS een lijst heeft van de bestanden die hij wil downloaden en dat hij dat niet allemaal zelf hoeft in te typen.

[quote=Meh1965 url=http://www.onemorething.nl/community/topic/meerdere-dingen-in-een-keer-downloaden-van-een-site#post-2104348 time=1290459187]
Er is software waarmee je een hele website kan downloaden. Weet alleen even niet hoe de software heet.

Edit: Zoiets als [url=http://pagesucker.com/]dit[/url].[/quote]
Dat werkt misschien, maar de demo heeft de volgende beperking: [i]just simple WebSites can be downloaded[/i]

Mijn bijdrage in deze is als nutteloos gekwalificeerd door iemand die er verstand van schijnt te hebben.

Alvast bedankt allemaal voor de recties, maar nee, ik heb niet alle namen van de bestanden.
Waar ik meer op doel is, is er geen soort prompt ofzo die je in terminal in kan voeren (met [url=http://en.wikipedia.org/wiki/Wget]wget[/url] misschien?) omdit doel te bereiken?

Dat kan toch ook met Automator? Ik heb in het verleden zoiets gebakken voor het ophalen van hoorspelen van Bommel..

[url=http://www.yazsoft.com/products/speed-download/]Speed Download[/url] van Yazsoft kan dat voor je doen. In Firefox kan het ook met [url=http://flashgot.net/]Flashgot[/url].

Het probleem is dat het zichtbaar maken van de directory-inhoud is afgesloten. Je kunt dus niet via
http://vwob.getalenruimte.epn.nl/sites/getalenruimte/vwob/assets/
zien welke bestanden er allemaal in die directory staan.

Als je een (overzichts)webpagina hebt waar de namen van alle te downloaden bestanden (plus URL) instaan, dan kun je de genoemde webspiders/webdownloaders gebruiken (of een scriptje met een aantal "curl" commando's).

Als je geen bezwaar hebt tegen de terminal werkt [url=http://www.gnu.org/software/wget/]Wget[/url] erg goed.

Wel kom je daarmee het probleem tegen dat Pieterr ook noemt, namelijk dat je de directoryinhoud niet mag zien.