De la fiabilité des SSD3 min read

Une petite réflexion du soir. Au fil du temps, j’ai lu des tonnes de commentaires sur les articles de Slashdot, pour/contre les Solid Snake State Drives (SSD), et il semble émerger un semi consensus qui veut que ce soit «maintenant plus fiable que les disques durs normaux, surtout avec le wear levelling, uhm uhm».
Est-ce que le wear levelling est implanté directement au niveau du matériel (ex: dans la puce qui constitue le SSD des Dell Inspiron Mini 9, ou Asus EEE PC), ou bien est-ce que c’est quelque chose géré par le kernel Linux, ou Ubuntu, ou bien faut-il utiliser un système de fichiers spécialisé? Cette dernière option me semblerait improbable: Windows n’a pas de système de fichiers décent, après tout, et l’article de Wikipédia sur le wear levelling mentionne que certains systèmes utilisent un microcontrôleur pour gérer ça matériellement (et donc de manière transparente au système de fichiers). Je dois donc supposer que Dell et compagnie utilisent des disques durs qui utilisent du wear levelling au niveau du matériel.
Un consommateur, de nos jours, devrait-il se fier aveuglément à ce qui est prétendu par les manufacturiers en termes de robustesse? Est-ce qu’on va tous se réveiller un matin dans 2 ans avec un SSD mort, dans lequel cas la technique «foutre le disque dur dans le congélateur» ne pourra en rien nous aider à récupérer les données, et aucun «clac clac inquiétant» ne nous avertirait à l’avance de la mort imminente?
Un commentaire a attiré mon attention: supposant que puisque les SSD «perdent des secteurs» au lieu de mourir subitement et entièrement, alors lorsqu’il n’y aurait plus de secteurs de remplacement disponibles, la capacité du disque dur diminuerait, simplement sans pertes de données:

Generally speaking, solid state media don’t fail. You lose sectors over time and these get replaced from the resevoir. When the resevoir runs out, the size of the available space shrinks, but AFAIK, data doesn’t get corrupted when a sector gets stuck. AFAIK, the only way you get data corruption in a SSD is from power fluctuations causing a bad write.

D’un autre côté, les commentaires sur la fiabilité semblent partagés. Une majorité de gens (au moins sur Slashdot) raconte ne pas encore avoir eu de problèmes après des mois (3 à 8 typiquement) d’usage, alors qu’il est possible de trouver, sur le web, des histoires d’horreur de SSDs qui meurent après trois semaines. Je suis curieux d’avoir d’autres avis là-dessus.
D’autres commentaires par rapport à la performance pour les cas hors des “écritures soutenues” sont également encourageants:

Did you look at the “real world” benchmark results? The Samsung SSD drive destroyed** the traditional drive by 400%-500% in 6 tests (including OS startup, app loading, gaming) and was about equal in the other two (media center and video editing).
Unless you know of some special reason why sustained write speed is critical, you should probably be looking more closely at access time, where SSD blows mechanical drives out of the water.
No doubt, mechanical drives still rule capacity/price, but with the growth rates of the two technologies over the past several years, SSD could take over soon.

Franchement, quand j’aurai tué mon Thinkpad, il faudra que je considère sérieusement l’acquisition d’un netbook, probablement chez Dell puisqu’ils supportent Ubuntu, et que leur offre actuelle (le Inspiron Mini 9) a déjà beaucoup de sens. Écran à diodes électro luminescentes, portabilité extrème, processeur Atom, disque solid state*, un prix modique et probablement une robustesse appréciable (dûe à la petitesse de la bête, au fait que les charnières de l’écran semblent conçues décemment, et que certaines parties du chassis sont possiblement en alliage de magnésium), pour un étudiant, c’est parfait.
*: d’ici à ce que ce Thinkpad meure, les prix auront certainement chuté et les capacités de base augmenté. 4 Go pour tenir Ubuntu, c’est quand même un peu serré.
**: destrooooyed, comme dit l’annonceur.

Jeff

Comments

3 responses to “De la fiabilité des SSD”

  1. Linux 2.6.27 intègre UBIFS et c’est dommage que les SSD actuels puissent pas être exploités avec car il faudrait que les fabricants de périphériques Flash acceptent la possibilité de passer outre la FTL (Flash Translation Layer). http://linuxfr.org/2008/10/10/24559.html
    Sinon j’aurais bien prix un SSD 8Go pour y mettre le système et ne garder mon disque dur que pour y stocker les fichiers multimédias

  2. kiddo Avatar
    kiddo

    Quelques commentaires nouveaux apparus sur http://hardware.slashdot.org/article.pl?sid=07/12/26/1423227 aujourd’hui:
    “And this is why we’re moving away from NAND, so get that damned term out of your head already! OUM/OVM is coming, uses a nearly identical manufacturing process (It’s the same thing found in RW optical media, except you use electricity instead of a laser to change it’s state) as CMOS does, and it has FAR more read/write cycles than anything NAND could have ever hoped to achieve, in the range of 10^8 as opposed to NAND 10^5-10^6”
    “Since I’ve seen this plenty of times, I’ll address it. Write Cycles: Even at the lowest estimate, 100,000 write cycles to failure. Meaning on a 32GB Drive, before you start seeing failures, you would have to (thanks to wear-leveling) write 32*100,000 GB, or 3.2Petabytes at 60MB/sec write speed of the Samsung drives, you would need to write (and never, ever read) for 3,200,000,000/60, or ~53Million seconds straight.
    53Million divided by 86,400 means you would need to be writing (and never ever reading) for ~617 Days straight (That’s roughly 20 months of just writing, no reading, no downtime, etc… So… the sky is not falling, these drives are slated to last longer than I’ve ever gotten a traditional drive to last in my laptop(s)
    Almost forgot to mention, standard NAND of late has been more in the 500k-1M write cycle between failures range. 100k was earlier technology, so multiply numbers accordingly.”
    “Seriously, this “issue” comes up in every discussion about SSDs, and it seems like people are just unwilling or unable to accept that what was once a huge problem with the technology is now not even remotely an issue. Any SSD you buy today should outlive a spinning disk, regardless of the operating conditions or use pattern. It is no longer 1989, engineers have solved these problems.”

  3. kiddo Avatar
    kiddo

    … et un autre article fascinant: http://www.storagesearch.com/ssdmyths-endurance.html
    Effectivement, si on demande à Google d’effectuer son calcul (http://www.google.ca/search?q=2000000+*+64+GB+%2F+80+MB+%2F+sec), on obtient (2 000 000 * (64 GB)) / (80 (MB / sec)) = 51.918872 ans. À noter que ceci est dans un WORST CASE SCENARIO (un truc qui écrit constamment à vitesse maximale; voir l’article pour bien comprendre) et avec un write cycle count de 2 millions (ce qui se trouve typiquement dans les disques SLC; les MLC ont typiquement 200 000 cycles, plutôt).
    Ce qui est intéressant, c’est qu’ici, la durabilité semble être fortement fonction de la taille du disque. Ainsi, si je prends un disque dur 16 GB, dans un worst case scenario, (2 000 000 * (16 GB)) / (80 (MB / sec)) = 12.979718 ans, mais dans le cas d’un disque dur 4 GB, c’est plutôt 3.2449295 ans.
    Mise à jour de février 2009: visiblement, le nombre de cycle de 2 millions est plutôt dans les disques de type SLC, qui sont très dispendieux. Les disques MLC (plus communs), eux, auraient 200 000 cycles par secteur. Donc, dans le cas d’un disque de 7.6 Go écrivant à vitesse constante de 25 Mo/s: (200 000 * (7.6 GB)) / (25 (MB / sec)) = 1.97 années. En usage normal, le disque dur devrait durer essentiellement indéfiniment (ou, du moins, beaucoup plus longtemps que deux ans).