Met bestanden van ongeveer 700Mb gaat het in ieder geval wel goed.
Maar ik wil geen work-around die me veel tijd en ook de ontvangers tijd kost.
Ik wil gewoon dat mensen desnoods een 100Gb file kunnen downloaden als het bestand toevallig zo groot is.
Als ik graag ingewikkeld te werk ga, dan had ik wel een pc met windows aangeschaft.
Als ik mij goed herinner, zit in de Apache config een lijn met max_filesize = "600" of iets in die trant. Als je die aanpast, kan je ook grotere bestande down'uploaden via Apache. Vandaar dat het sinds de update niet werkt. Waarschijnlijk is met de systeemupdate een nieuwere versie van Apache meegekomen.
Je moet je ook wle realiseren dat het Internet niet gebouwd is voor 4+ GB flies. Als Mac-user ben je eigenlijk verwend. Nogal wat OS’en kunnen geen bestanden groter dan 2 of 4 GB aan…
De MaxFileSize kan ik niet vinden in de httpd.conf
Overigens heeft de downloadende partij een powerbook, en doe ik een ftp naar localhost dan krijg ik ook een verkeerde filesize te zien. Het probleem zit hem dus in dit geval echt in mijn mac.
Ik heb om te testen even de Pureftpd-manager gedownload, waarmee ik nu een anonymous ftp-server draai. Zelfde probleem.
Heb het ondertussen uitgetest. Bij mij wordt 4.4 GB 386 MB…
Authentieke bug. doorgegeven aan Apple en Apache.org. Komt dus vermoedelijk in één van de volgende systeemupdates…
Tot dan: opdelen in hapklare brokken (~100 MB) met “Split & Concat” of Stuffit Deluxe. S&C is van Nederlandse bodem, eenvoudig en ook gratis te gebruiken.
Net bericht gehad. Volgens één van de makers van Apache, kan het niet dat je ooit bestanden groter dan 2 GB geserveerd hebt onder MacOSX. Apache/OSX kan nl. geen bestanden van meer dan 4 GB aan…
Update is ook niet direkt te verwachten. Een “custom compile” van Apache zelf of volledige 64-bit support van Apple zouden het moeten verhelpen. Maar zelfs die oplossingen worden als “tamelijk buggy” aanzien.
Nu is Apache niet alleen met dat probleem. Java of Samba kunnen ook geen bestanden van meer dan 4 GB verwerken.