web-site downloaden

Voor de vertaling van een website moet ik deze omzetten in een tekst-formaat waar Word mee om kan gaan. Ik kan geen rechten krijgen op de ftp-directory waar de site staat en het is vrijwel ondoenlijk alle tekst te kopieren en dan in word te plakken. Welke tool is het meest betrouwbaar om een hele site mee te downloaden? Ik weet dat je in het verleden pagesucker en webdevil had (onder os9) maar het resultaat was niet altijd even voorspelbaar.

SiteSucker: http://www.versiontracker.com/dyn/moreinfo/macosx/22803

Ik probeer het even uit :)

het programma ziet er mooi uit, maar ik krijg een "robot-bescherming" - foutmelding in de log.

[quote:302a94401b]Unable to download because of a robots.txt exclusion[/quote:302a94401b][/list]

is daar iets tegen te doen?

bij de prefs kan je dat geloof ik uitklikken

Ik gebruik webdevil onder OSX, nooit geen problemen mee gehad.

Tja, er zijn tegenwoordig diverse beveiligingsmogelijkheden voor zoiets. Veel websites hebben tegenwoordig zo'n ding, [url=http://www.microsoft.com/robots.txt]Microsoft[/url], [url=http://www.apple.com/robots.txt]Apple[/url] maar ook een gewone [url=http://webmensen.nl/robots.txt]webmastersite[/url]. Zelf [url=http://www.macosx.nl/robots.txt]MacOSX.nl[/url] heeft er eentje.

In dat bestand staan dus directory’s die niet geïndexeerd ofzo mogen worden, ik weet verder ook niet precies wat die bestanden doen.

dit gaat inderdaad niet echt lukken. Dan toch maar zien of men het niet anders kan aanleveren. :(