Raid 0 SSD's

hallo,

Ik heb een Mac Pro 2008 (3.1) en wil daar een (of meer) SSD('s) is stoppen.
als ik 2 x 256GB SSD in Raid 0 zet via schijfhulpprogramma, is het dan sneller dan als ik 1 x 512GB SSD er in stop?
ik weet dat Raid 0 met een Raid kaart en HDD’s de read en write speed sneller maakt, maar ik wil weten of dat ook met software en SSD’s werkt, want dan is het de moeite waard om er 2 x 256 GB in te zetten.
weet iemand dit of heeft iemand dit gedaan?

alvast bedankt!

Ongetwijfeld. En nog wel gekkere dingen ook :slight_smile:

-dubbel geplaatst-

Sneller: ja
Veiliger: nee (gaat er iets mis met wegschrijven van de data op een van beide schijven, dan is het bestand verloren).

Je zult dus een afweging moeten maken dus snelheid en betrouwbaarheid. Ik zelf zou eerder voor een 512 schijf gaan (Samsung 840 Pro : 540 read, 520 write) dan voor een raid 0 met twee aparte 256 schijven, welke nauwelijks goedkoper zijn

Ik heb hier al ruim een jaar een raid-0 van 2 SSD’s probleemloos draaien op een MacPro 3.1. Mijn configuratie, voor Photoshop:

  • Systeem (OS-X) + Programma’s op 1 SSD
  • Homefolder op raid-0 (via http://www.softraid.com) van 2x Mercury Extreme Pro SSD 240GB.
  • TimeMachine (da’s wel aan te raden bij raid-0) op een HDD van 2TB, zo zijn alle 4 de bays gevuld.

Op http://macperformanceguide.com lees je waarom ik voor Mercury Extreme Pro heb gekozen. Ze zijn trouwens te koop bij http://macupgrade.eu, winkel met een perfecte service + kennis van zaken.

Ja,ik heb ook een TB aan backup als ik dit ga doen. Nog een paar weekjes werken en dan ga ik de ssd’s maar eens bestellen.
Moet nog wel even een keuze maken tussen Samsung.

Bedankt voor de info!

In die 2008 zit iets van SATA2. Hedendaagse ssd’s worden al beperkt in snelheid door SATA3 (kijk maar eens naar wat de MacBook Air 2013 neerzet aan score met z’n PCIe ssd). Een andere factor om rekening mee te houden is dat je bij RAID0 extra complexiteit toevoegt waardoor de kans op falen ook vergroot wordt. Dat terwijl je weinig opschiet want het enige wat er verbeterd zijn de sequentiële snelheden. Handig bij grote files en continue file transfers zoals bij fileservers/nas/san en database servers maar niet bij een gemiddeld werkstation. Vergeet ook niet dat een ssd intern eigenlijk al een RAID0 setup is. De controller heeft meerdere kanalen. Hoe meer kanalen je gebruikt hoe sneller de ssd. Daarbij geldt dat hoe groter de capaciteit hoe meer kanalen er gebruikt zullen worden. Kortom, ssd’s met een grotere capaciteit hebben een betere performance dan een kleinere.
Dan hebben we nog huishoudelijke taken van een ssd zoals TRIM en GC. In RAID setups werkt TRIM niet in niet-Windows systemen (in Windows zeer beperkt) dus ben je aangewezen op GC. Daarvoor zullen ssd’s idle moeten zijn om het te triggeren en dat kon nog wel eens een probleem gaan worden met RAID omdat het daar vaak niet stilstaat. Een ssd kent ook nog eens een ander performance probleem: hoe voller hoe slomer. Een 256GB ssd is sneller gevuld, ook in RAID0, dan een 512GB ssd.

Dus nee, twee 256GB ssd’s in RAID0 zijn niet per definitie sneller dan een enkele 512GB ssd. Het zal eerder het tegendeel zijn. Aangezien RAID vaak ook gewoon gedoe is, is het eigenlijk af te raden wanneer je het niet nodig hebt. RAID zet je dan ook eigenlijk alleen in om te zorgen dat de machine niet onbruikbaar is als er een schijf uitvalt of omdat je hdd’s hebt die je tot 1 schijf wil bundelen en het zo snel wil hebben (een ssd is dan een beter idee maar gezien de capaciteit wel duurder).

Die macperformanceguide zou ik weg van blijven want daar staat meer onzin dan zin op. Het is een fotograaf die denkt verstand te hebben van computers maar dat eigenlijk te weinig heeft. Hij trekt vaak verkeerde conclusies en gebruikt verkeerde tools (de erase functie in Disk Utility is een goed voorbeeld: die schrijft data weg naar een ssd en vult hem dus terwijl je juist de cellen leeg wil gooien).

@Iep:

  1. 't Is andersom, hij is van oorsprong programmeur die nu denkt fotograaf te zijn :wink: Met Disk Utility kan je ook nullen schrijven, dan is je schijf echt leeg hoor.
  2. …Een 256GB ssd is sneller gevuld, ook in RAID0, dan een 512GB ssd… Eéntje van 256GB wel, maar als je er 2 in raid-0 zet, wordt het een volume van 512GB en die raakt toch echt net zo snel vol als 1x 512GB.
  3. Mercury Extreme Pro’s hebben geen last van ‘hoe voller, hoe slomer’, de read/write blijft vrijwel gelijk.
  4. Softraid ondersteunt wel TRIM voor SSD’s in raid.

Ik ben het wel met je eens dat het nut van raid-0 vooral zit in ‘large sequential write’. Laat dat voor grote Photoshop-files (bij mij gemiddeld 300MB/stuk) nu net het geval zijn :slight_smile:

Is de kans erg groot dat er iets mis gaat? Ik maak natuurlijk wel backups zoals eerder gezegd. Is de kans dat 1 van de ssd’s in raid0 kapot gaat groter dan als ik er gewoon 1 ssd in stop? Aangezien SATA 2 maar tot een bepaalde read write speed gaat, lijk het mij toch juist handig om 2 van de SATA aansluitingen te gebruiken op 1 volume, zodat het toch nog in de richting van SATA 3 komt…

Kans dat er iets mis gaat is 2x zo groot met een Raid-0 van 2 schijven. Eigenlijk iets hoger dan 2x, vanwege de software die er tussen zit waarin ook fouten kunnen voorkomen.

[quote=Le Big Mac url=http://www.onemorething.nl/community/topic/raid-0-ssds/#post-2573072 time=1373265522]@Iep:

  1. 't Is andersom, hij is van oorsprong programmeur die nu denkt fotograaf te zijn :wink: Met Disk Utility kan je ook nullen schrijven, dan is je schijf echt leeg hoor.
    [/quote]
    Nee hoor. Wat je nu hebt gedaan is de data overschrijven met nulletjes. De data als in documenten, foto’s, etc. is daarmee verdwenen maar dat betekent niet dat de disk geen data meer bevat. In tegendeel! De geheugencellen zijn gewoon met data gevuld want ook een 0 is data. Een cel gevuld met data is nou juist het grote probleem bij ssd’s. TRIM en GC zijn er om cellen leeg te gooien. Er staat dan geen 1 en ook geen 0 in de cel. Wat men hier veelal vergeet is dat zowel een 1 als een 0 een bepaalde spanning representeert. Daar zit 'm de truc. Datacom technici snappen dit veel beter dan programmeurs e.d. Zij krijgen dit soort zaken in hun opleiding, programmeurs over het algemeen niet (een dataverbinding kent 3 soorten data: 1, 0 en helemaal niks; alle 3 worden vertegenwoordigd door een bepaalde spanning, je hebt dus verschillende ranges, valt iets binnen een range dan is het een 1, een 0 of niks).

Nee, ook dat klopt niet geheel. Bij RAID wordt de data over de disks verdeeld maar dat hoeft niet altijd evenredig te gebeuren. Het is eigenlijk op dezelfde manier als hoe men nu de sectoren/cellen vult. Daardoor kan de ene disk wat voller staan dan de ander. Waar het hier dus om gaat zijn de gebruikte NAND cellen van een ssd. Toegegeven, je zult er niet al teveel van merken.

Dat is bullshit want dit heeft niets met type ssd te maken. Dit is een eigenschap van NAND en is dan ook op iedere ssd aanwezig. De enige remedie hiertegen is gebruik maken van andere technieken dan NAND en daar is men heel druk mee bezig.

Dat ligt geheel aan de implementatie maar het is inderdaad een mogelijkheid.

Moeilijk te zeggen maar we weten dat de kans met RAID iets groter is dan zonder RAID. Die 2x die Le Big Mac noemt is meer een wilde gok. De daadwerkelijke kans dat iets misgaat is lager.

[quote]
Aangezien SATA 2 maar tot een bepaalde read write speed gaat, lijk het mij toch juist handig om 2 van de SATA aansluitingen te gebruiken op 1 volume, zodat het toch nog in de richting van SATA 3 komt…[/quote]
Dat heeft alleen zin bij echt grote files van gigabytes groot. Veel werkstation werk is kleine files en dan is 1 SATA2 ssd al voldoende. Het verschil tussen mijn SATA2 en SATA3 ssd’s merk ik alleen wanneer ik met mijn vm’s aan het schuiven ga. Dan worden files van 2GB en groter heen en weer verplaatst en merk je het verschil in sequentiële read/write. Een RAID array opzetten is soms een lastig klusje, troubleshooten als het misgaat ook. De nadelen van RAID wegen in dit geval echt niet op tegen de voordelen. Een ssd an sich is al snel zat. Als je echt snelheid wilt kun je veel beter naar PCIe ssd’s want die zijn heel wat betrouwbaarder (ze zijn er immers voor gebouwd) maar ook fors duurder. Een Mac kan daar (afgezien van de Air 2013) niet van booten (tot zover dus de uitbreidbaarheid van de Mac Pro…).

iep, ik ben geen programmeur, en al helemaal geen Datacom technicus. Hoe leeg je een SSD dan wel?

Hier een fill-test van de Mercury:
http://macperformanceguide.com/Reviews-SSD-OWC-Mercury_Extreme-6G-fill-volume-macpro-480GB.html
Mag jij uitleggen hoe dit kan, of niet kan.

Een 2x hogere failrate is gewoon 'n wiskundig gegeven.

PS: 300MB/file is gemiddeld, ik heb ook regelmatig bestanden van 1-2 GB. Maar je merkt het al bij 300MB, geloof me.

PS iep, een PCI-ssd van OWC kan wel OS-X booten. http://eshop.macsales.com/search/OWC%20Mercury%20Accelsior/?utm_source=diglloyd-mpg

[quote=Le Big Mac url=http://www.onemorething.nl/community/topic/raid-0-ssds/#post-2573367 time=1373350910]iep, ik ben geen programmeur, en al helemaal geen Datacom technicus. Hoe leeg je een SSD dan wel?
[/quote]
Door iets als GC/TRIM z’n werk te laten doen. De fabrikanten hebben vaak zelf al een speciale tool hiervoor maar je schijnt het ook met een Linux livecd te kunnen doen. Je moet dan op de commandline het tooltje hdparm gebruiken. Via deze weg vertel je aan de ssd dat hij alles moet legen. Klein addertje onder het gras: het is enigszins discutabel of ook daadwerkelijk alles weggehaald wordt. Er zijn een paar onderzoekjes geweest waaruit is gebleken dat data desondanks nog in geheugencellen blijft hangen. Dit is vaak in het gedeelte dat niet toegankelijk is voor de gebruiker/het filesystem (denk aan de buffer die men heeft om kapotte geheugencellen op te vangen). Die buffer moet je overigens ook meenemen in dat RAID verhaal. Die wordt namelijk ook gevuld als je naar de ssd schrijft.

Laat hem het maar eerst eens uitleggen. Grafiekjes zonder enige uitleg wat je aan het doen bent hebben geen enkele betekenis. Verder dan “The fill-volume command fills the entire volume to 99.4% of capacity by default” kom ik in ieder geval niet. Weten hoe de schijf gevuld wordt en vooral ook waarmee is bij ssd’s met een Sandforce controller van essentieel belang. Deze controllers maken namelijk een groot onderscheid tussen comprimeerbare data en data die slecht of helemaal niet te comprimeren is. Deze laatste categorie is het soort data waar de Sandforce controllers moeite mee hebben en waar hun performance flink kan inzakken. Daarnaast is dit ook een puur theoretische benadering van het verhaal en dat haalt hij zelf ook nog eens aan waarbij hij een gewaagde uitspraak doet: “Speed for incompressible data drops off substantially for writes to about 175 MB/sec, but in the real world performance tends to be outstanding, and the read speed is unaffected.”. Of de real world performance outstanding is of niet ligt geheel aan de workload die een gebruiker op die machine plaatst en dat is van persoon tot persoon en zelfs van tijd tot tijd anders. Als dit iemand is die Filevault 2 aan zet dan is de real world performance dus helemaal niet outstanding maar eerder “appalling” (Filevault 2 is whole disk encryption waarbij alle data op de disk versleuteld wordt; versleutelde data kun je niet comprimeren en dus zul je bij Sandforce controllers altijd tegen een veel lagere snelheid aan lopen).
Er zijn maar bar weinig sites die workloads testen en bepaalde manieren van werken op een machine na proberen te bootsen om zodoende een zo realistisch mogelijk beeld te vormen. Tweakers.net doet dit maar Anandtech (welke een hoge naam heeft op ssd gebied) ook.

Nee, dat is het niet. Dat er een bepaalde uitkomst uit een berekening komt rollen is leuk maar het gaat uiteindelijk alleen om de betrouwbaarheid van die uitkomst. Als je data gebruikt die niet betrouwbaar is heb je dus ook niks aan dat wiskundig gegeven. Er is inmiddels legio aan praktijkervaringen opgedaan en op basis daarvan zijn er weer opnieuw berekeningen gedaan. De failrate lag een stuk lager dan die genoemde 2x. We hebben het dan eerder over 10~15% meer kans op stuk gaan.

[quote]
PS: 300MB/file is gemiddeld, ik heb ook regelmatig bestanden van 1-2 GB. Maar je merkt het al bij 300MB, geloof me.[/quote]
Eigen ervaring zegt heel wat anders. Er zitten grenzen aan snelheden van ssd’s en zeker in het begin zul je opmerken dat een ssd met alles wat maar met disk activity te maken heeft snel is. Als je eenmaal wat ssd’s hebt gebruikt zul je echter opmerken dat het verschil tussen de ssd’s gering is. Lees op Anandtech die informatie over de Intel P3700 en aanverwante ssd’s maar eens. Je zult zien dat men ineens een heel andere richting inslaan waardoor de algehele performance van je machine heel wat beter is terwijl ze beroerde cijfers neerzetten voor sequential read/writes. Heeft te maken met hoe de workload voor een gewoon werkstation is. In het begin waren ssd’s ook geoptimaliseerd voor sequential reads/writes en waren ze daar supersnel in maar bleken ze desondanks niet te kunnen tippen aan een gewone schijf. Die deed het beter op performance gebied maar ook op gebied van betrouwbaarheid. Totdat men in ssd wereld op de random read/write snelheden ging richten.

Dat is volgens mij ook de enige die het wel kan (afgezien van die in de MBA 2013 dus). Deze gebruikt trouwens 2 Sandforce ssd’s van OWC waar je RAID mee kunt doen als je het zou willen. En kijk dan nu even naar de prijs voor de 240 GB versie en reken daar nog een dollar of 50 bij op voor de verzendkosten. Ga daarna eens op zoek naar de Crucial M500 480GB. Een ssd die erg snel is, gericht op betrouwbaarheid en betere random read/write performance en tevens ook 2x meer capaciteit heeft.