La masse de données… c’est bien l’une des rares choses qui ne diminue pas dans l’informatique. On ne jette rien !! Pourtant, il est devenu primordial de faire la part des choses. Grâce à des outils et de nouvelles méthodes nous pouvons classer les données par pertinence, besoins, niveaux d’accès, performance et coût.

 

Le flash change tout, ou presque

 

Pour traiter les données les plus utilisées et les nouvelles données, les administrateurs ont besoin de performance et d’intelligence. Dernièrement, les baies de stockages ont beaucoup évolué et permettent de traiter simplement ces problématiques avec le tiering entre les différentes classes de disque. Avec le Cloud, plus de limite, le nombre de tiers est maintenant multiplié, et les notions de tier 4 et plus sont apparues : quoi de moins cher qu’une donnée stockée dans le cloud, auquel on accède jamais ?

Mais le flash change tout, ou presque, avec sa rapidité et sa capacité. Les disques SSD sont très rapide et permettent de passer du temps à calculer des déduplication et de la compression, et il n’est pas rare d’atteindre des taux de réduction de de 6:1 à 9:1 dans les environnements mixés avec des temps d’accès souvent dessous de la milliseconde. Ces algorithmes sont exécutable par les processeurs classiques du marché, c’est pourquoi ils ont été déporté sur les serveurs. Pour assurer la redondance, il convient de mettre en place des mécanismes de réplication, ou de mirroring, mais le stockage n’est plus dans les baies, il vient s’intégrer directement dans le serveur, au plus près du besoin.

 

Le SDS c’est du stockage

 

Mais comment faire un choix entre SAN et SDS ? Avant de répondre à cette question, il faut s’en poser quelques-unes :

  • Quel est mon besoin ?
  • Est-ce que j’ai beaucoup de modifications ou de nouvelles données ?
  • Suis-je dans un environnement mixé ou mes données sont presque toutes de même nature ?

D’une manière générale, on réduira la question à la quantité de donnée. Les systèmes SDS peuvent offrir plusieurs dizaines de téraoctets de volumétrie sur seulement quelques serveurs. Mes disques SSD de 4 ou 8TB sont assez courants et relativement abordable. Si on y ajoute les méthodes de compression et de déduplication, on arrive facilement à stocker des centaines de Tera Octets. J’ai expérimenté des configurations atteignant des taux de 80% de réductions, avec 4 disques 8 TB sur 3 serveur, et j’ai intégré plus de 300TB de machine virtuelles, de serveur de fichier et même quelques bases de données.

Résultat : 300TB dans 3 serveurs. Jusqu’ici c’était inimaginable. Les baies de stockage m’aurai coûté très cher, avec des problématiques de connexion LAN ou SAN à gérer, des administrateurs dédiés en partie à ces tâche et des reporting complexes à produire.

 

Tous les types de données sont compatibles avec le SDS

 

Le SDS, ce n’est pas bien compliqué : l’infrastructure repose sur du standard de virtualisation, un peu de réseau LAN en iSCSI ou NFS, quelques VMs pour l’infrastructure SDS et pas grand-chose de plus en connaissance, à part un contrat de maintenance chez le vendeur de la solution.

Coté reporting, si l’outil est bien fait, en quelques clics j’ai mes données que je peux présenter à ma direction. Par contre, cela ne correspondra pas à des infrastructures reposant sur des systèmes physiques, comme par exemple de gros serveurs ERP ou de base de données, sauf s’ils acceptent de travailler avec des disques attachés en NFS ou iSCSI, ce qui est en général assez rare. Mais cela reste possible pour mes serveurs de messagerie ou de base de données s’ils se répliquent via des mécanismes logiciels.

Pour la sécurisation de mon infrastructure, la plus-part des éditeurs proposent leur solution : clusters étendus, réplication synchrone ou asynchrone sur une autre plateforme, etc. Et bien sur, il y a aussi les solutions plus traditionnelles comme la sauvegarde ou la réplication via des logiciels tiers.

 

Recycler, investir ou passer au Cloud ?

 

Je n’ai pas une configuration exotique ? Plus besoin d’un îlot SAN ! Quelques sociétés auront toujours besoin de SAN et de baie de stockage, pour par exemple mutualiser les espaces de stockage entre différentes technologies, et permettre de dédier une ou plusieurs personnes à la gestion de cet environnement. Mais tout le monde n’en a pas les moyens matériels ou humains.

Alors, que faire aujourd’hui de mes anciennes baies que je dois renouveler à court terme ? Et bien il suffit de les inclure dans l’infrastructure SDS, comme le propose la plupart des éditeurs. Une gestion des tiers de stockage est possible afin de différencier les besoins et les usages. Ou bien, la dédier au système de sauvegarde… cela reste une solution moyenne car les coûts de maintenance et d’exploitation vont continuer à augmenter.

Mieux vaut investir si on en a les moyens : quelques serveurs neufs avec possibilité de mettre 6 ou 8 disques, des switch ethernet 10Gb (au moins 2 pour la redondance) et des licences pour le SDS. Un cluster 3 nœuds sera suffisant pour démarrer, avec possibilité évidement d’augmenter plus tard.

Une autre approche pourrait simplement être dans le Cloud. Comme on le sait depuis longtemps, une grande partie des données sont des archives, rarement consultés mais non détruite pour autant. N’est-ce pas alors le moment de réduire ses coûts en déplaçant toute cette masse inerte dans le Cloud, vers des solutions taillées pour ce type de besoin ? Plusieurs fournisseurs de stockage proposent des facturations intéressantes sur les débits montant ou sur des montants au TB ridicule. Point de performance ici, juste un calcul de revient.

 

Le SAN est mort. Vive le SAN !

 

Non le SAN n’est pas mort, mais dans les petites et moyennes structures, les solutions Software Defined Storage sont plutôt intéressantes. Le stockage d’une partie des données dans le Cloud est aussi une possibilité, mais les craintes liées à la protection des données sont encore vivaces.

Quoi qu’on en dise, le stockage est bien présent dans toutes ces offres, le stockage n’est pas mort, au contraire, il se porte à merveille. Les réseaux aussi, le SDS en utilise et vous fera investir dans des ports 10Gb, et le Cloud dans une sortie Internet plutôt musclée. Le stockage sera toujours lié à la transmission.

About the author

Loïc BOUQUET

Loïc BOUQUET

Au service de la Force et des datacenters. Mon héro c’est DCX Man. J’écris aussi des articles sur les infrastructures, le cloud, les systèmes et sur les lois qui régissent l’informatique, mais pas seulement.

View all articles