Montée en débit, projets à venir ?

Démarré par Bernard91, 24 Mars 2015 à 15:00:41

« précédent - suivant »

0 Membres et 1 Invité sur ce sujet

SSD pour les ordis,
DD sur NAS pour les données :)

Synology d'ailleurs :)

Citation de: jack le 25 Mars 2015 à 17:34:58
Boarf, une baie de disque avec logiciel performant est, je pense, nettement mieux que des SSD.
Enfin, cela dépend pour quel volume, étant donné que les performances peuvent augmenter proportionnellement au nombre de disques (plus de disque, plus de vitesse !)

C'est vrai que dans un san une lun ne repose plus uniquement sur un raid group mais sur x raid groups maintenant, on constitue des agrégats de X raid group et une lun est splitté sur l'ensemble. Donc on maximise les axes !

Apres agrégats de SDD = Baie rapide mais surtout je pense encore moins de besoin en CPU/cache/... au niveau de la Baie. Je pense même que le prix performance des baies va chuter, SDD + disque lent et migration automatique de la Data « Tiering ».

Exemple chez EMC : http://france.emc.com/storage/flash/index.htm

Je pensais surtout à des projets comme Ceph, qui remplace avantageusement le raid : l'ensemble des données est réparti sur l'ensemble des disques du cluster, chaque élément est distribué (ne pas confondre avec redondé), la duplication des données ("raid 1") est intrinsèque.
Ce genre de truc apporte les avantages suivants:
- répartition de charge (les blocs d'un fichier sont équitablement répartis sur l'ensemble des disques, la lecture d'un fichier consiste à lire chaque bloc sur les disques = parallelisation de masse)
- réduction du temps de risque après perte d'un disque (en raid, il faut reconstruire le raid, donc copier l'intégralité d'un disque pour le raid 1 par exemple) : chaque petit morceau qui était sur le disque perdu est copié depuis le backup (c'est à dire, depuis tout les disques) vers celui qui va désormais être la deuxième copie (là encore, tout les disques) : autrement dit, en cas de perte d'un disque, la syncho met en jeu 100% des ressources, et est donc extrêmement rapide (chaque disque ne va lire qu'un petit peu, et écrire un petit peu, et hop c'est fini)
Mes propos sont le fruit exclusif de mon cerveau, et ne sont pas soumis au maître esprit.

Oué on en a déjà parlé de Ceph, sur l'irc. En fait il faut regarder l'échelle des besoins, quand tu parles de "réparti sur l'ensemble des disques du cluster" c'est ce qui se passe sur un agrégat, un agrégat ça peut être facilement 400 Disques. Aller plus loin je vois pas le besoin en IO et surtout après c'est le bus des serveurs qui ne suit plus et pas les HDDs.

Pour les problèmes de reconstruction je suis assez d'accord que c'est problématique, même si l'exemple du Raid 1 est pas bon. On  est sur des beaucoup plus gros Raids (7+1,8+1), avec plusieurs disques de parités. Et soit on est dans le cas de recherche de performance on aura des petits disques (300-600 Giga) et donc pas de problème de reconstruction (max 1 heures), soit on est dans l'archivage et la c'est problématique (disques de  4To...) reconstruction 48-72 heures. C'est pour çà aussi que le Full SSD est super intéressante, beaucoup plus fiable, reconstruction très rapide...

Tiens un autre gros problème rencontré avec les disques classiques, c'est en cas d'extinction d'un début d'incendie en salle machine, l'épandage de gaz (Argon par exemple) se fait très rapidement, cela produit énormément de bruit (vibration) et ça une tendance a endommager les disques. Plus de problème avec des disques SSD dans ce cas la. Bon sinon on fait des buses d'épandage de moins en moins bruyantes aussi.

Des problèmes de bus ?
Ceph est distribué :)
Mes propos sont le fruit exclusif de mon cerveau, et ne sont pas soumis au maître esprit.

ouai mais ton application qui a le besoin en IO ne l'est pas forcement elle (distribué) et ton goulot ce trouvera la. Enfin tout dépend du besoin, de l'infra, de l'application.