Les principaux systèmes de stockage et leurs caractéristiques. Systèmes de stockage de données (DSS) Principes de fonctionnement des systèmes de stockage de données

Ils ont évolué des cartes et bandes les plus simples avec des trous, utilisées pour stocker des programmes et des données, aux disques SSD. Sur ce chemin, de nombreux dispositifs différents ont été créés - ce sont des bandes magnétiques, des tambours, des disques et des disques optiques. Certains d'entre eux appartiennent au passé : supports perforés, tambours magnétiques, disquettes et disques optiques, tandis que d'autres vivent et vivront longtemps. Ce qui est parti aujourd'hui peut être vu et nostalgique au Museum Of Obsolete Media. Et en même temps, les restes apparemment voués à l'échec. A un moment ils ont prédit la fin des bandes magnétiques, mais aujourd'hui plus rien n'interfère avec leur existence, c'est exactement la même chose pour les disques durs rotatifs (HDD), les prophéties sur leur fin sont dénuées de tout fondement, ils ont atteint un tel niveau de perfection qu'ils resteront leur propre niche, quelles que soient les innovations.

Dans le paysage actuel des systèmes de stockage à plusieurs niveaux, il existe des bibliothèques de bandes pour la sauvegarde et l'archivage, des disques durs rapides et lents, des disques SSD sur mémoire flash, imitant (interfaces, facteur de forme) pour les disques durs principalement pour s'harmoniser avec les logiciels existants et constructions, ainsi que les dernières clés USB au format de carte NVMe. Cette image s'est développée sous l'influence de plusieurs facteurs, dont le schéma de John von Neumann, qui divise la mémoire en opérationnelle, directement accessible au processeur, et secondaire, destinée à stocker des données. Cette division s'est renforcée après que la mémoire à semi-conducteur, qui conserve son état actuel, a été remplacée par une mémoire à semi-conducteur, ce qui nécessite le chargement de programmes pour commencer à travailler. Et bien sûr, le coût unitaire du stockage affecte, plus le périphérique est rapide, plus ce coût est élevé, il y aura donc de la place pour les bandes et les disques dans un avenir prévisible. En savoir plus sur l'évolution du stockage.

Comment les données étaient stockées auparavant

Supports de stockage utilisant la perforation

Cartes perforées

Avant l'avènement des ordinateurs, pendant des siècles, dans les appareils les plus simples à contrôle de programme (machines à tisser, orgues de barbarie, horloges à carillon), des supports perforés de différents formats et tailles et des tambours à broches étaient utilisés. En gardant vivant ce principe d'écriture, Herman Hollerith, fondateur de TMC, qui deviendra plus tard une partie d'IBM, a fait une découverte. C'est en 1890 qu'il réalise comment les cartes perforées peuvent être utilisées pour enregistrer et traiter des données. Il a mis en œuvre cette idée dans le traitement des statistiques du recensement, et l'a ensuite transférée à d'autres applications, ce qui a assuré le bien-être d'IBM pour les décennies à venir.

Pourquoi des cartes ? Ils peuvent être triés et, relativement parlant, un « accès direct » peut leur être fourni afin d'automatiser partiellement le traitement des données sur un dispositif tabulateur spécial, suivant un programme simple.

Le format des cartes a changé et depuis les années 1920, les cartes à 80 colonnes sont devenues la norme internationale. Jusqu'au début des années 60, IBM en avait le monopole.

Ces cartons simples avec des trous rectangulaires sont restés le support de stockage dominant pendant des décennies, étant produits par milliards. Le volume de consommation de cartes peut être jugé par au moins un exemple du Centre de décodage des radiogrammes allemands à Bletchley Park : une semaine de travail - 2 millions de cartes, c'est un camion de taille moyenne ! L'entreprise d'après-guerre s'est également construite sur le stockage de données sur cartes. Quand on parle de cartes perforées, rappelez-vous qu'elles étaient utilisées en Allemagne pour collecter des données sur les personnes à détruire.

Ruban perforé

Il semblerait que les bandes perforées soient des supports plus pratiques, mais elles n'étaient pratiquement pas utilisées dans les affaires, bien que les dispositifs d'entrée et de sortie soient beaucoup plus simples et plus légers. Leur prolifération a été entravée par un accès séquentiel, une capacité et des vitesses d'entrée et de sortie plus faibles et la complexité de l'archivage. Depuis 1857, des bandes perforées étroites à 5 colonnes sont utilisées pour la préparation et la transmission ultérieure des données par télégraphe afin de ne pas limiter la vitesse d'entrée par les capacités physiques de l'opérateur et ainsi mieux utiliser la bande passante du canal. La large bande perforée de 24 colonnes a été créée pour enregistrer des programmes dans une calculatrice électromécanique Harvard Mark I en 1937. En tant que support qui n'est pas affecté par diverses études électromagnétiques et gamma, les bandes perforées ont été largement utilisées comme dispositifs embarqués, elles sont toujours utilisées dans certains systèmes de défense.

Bandes magnétiques

Une méthode d'enregistrement du son sur un support magnétique à bobine, d'abord sur un fil, a été proposée en 1928. Ce type de magnétophone a été utilisé dans l'UNIVAC-1. Le début de l'histoire des bandes magnétiques informatiques est considéré comme le modèle IBM 726, qui faisait partie du modèle IBM 701. La largeur de la bande pour le modèle IBM 726 et d'autres appareils de l'époque était égale à un pouce, mais ces bandes s'est avéré peu pratique à utiliser. En raison de leur grande masse, des entraînements puissants étaient nécessaires, ils ont donc été rapidement remplacés par une "bobine ouverte" d'un demi-pouce, dans laquelle une bobine à bobine était enroulée. Elles étaient disponibles en trois densités d'enregistrement 800, 1600 et 6250. Ces bandes amovibles de protection en écriture sont devenues la norme pour l'archivage des données jusqu'à la fin des années 1980.

Le modèle 726 utilisait des bobines de film, le ruban mesurait donc un pouce de large et le diamètre de la bobine était de 12 pouces. Le modèle 726 était capable de stocker 1,4 Mo de données, avec une densité d'enregistrement sur 9 pistes de 800 bpi ; lorsque la bande se déplaçait à 75 pouces par seconde, 7 500 octets par seconde étaient transférés à l'ordinateur. La bande elle-même pour le modèle 726 a été développée par 3M (maintenant Imation).

Assez rapidement, les bandes en pouces ont été abandonnées, en raison de leur poids lorsqu'elles travaillaient en mode marche-arrêt, des lecteurs trop puissants et des poches à vide étaient nécessaires, et pendant une longue période une domination presque monopolistique des "bandes ouvertes" d'un demi-pouce (bobine ouverte ) a été établi, dans lequel le rebobinage a été effectué avec une bobine à l'autre (bobine à bobine). La densité d'enregistrement est passée de 800 à 1600 et même 6250 bpi. Ces bandes avec anneaux de protection en écriture amovibles étaient populaires sur les ordinateurs EC et CM. "bobine ouverte" d'un demi-pouce, dans laquelle le rembobinage était effectué d'une bobine à l'autre (bobine à bobine). La densité d'enregistrement est passée de 800 à 1600 et même 6250 bpi. Ces bandes avec anneaux de protection en écriture amovibles étaient populaires sur les ordinateurs EC et CM.

L'impulsion pour le développement ultérieur était le fait qu'au milieu des années 80, la capacité des disques durs a commencé à être mesurée en centaines de mégaoctets ou même en gigaoctets, ils avaient donc besoin de disques de sauvegarde de la capacité appropriée. Les inconvénients des bandes ouvertes étaient compréhensibles, même dans la vie de tous les jours, les magnétophones à cassette ont rapidement remplacé les magnétophones à bobines. La transition naturelle vers les cartouches s'est faite de deux manières : la première - pour créer des appareils spécialisés axés sur les ordinateurs (utilisant la technologie linéaire) ; la seconde - se tourner vers les technologies inventées pour l'enregistrement vidéo et audio avec des têtes rotatives (utilisant la technologie à vis). Depuis, il y a eu une division en deux camps, ce qui donne au marché du stockage une spécificité unique.

Depuis trente ans, plusieurs dizaines de normes de cartouches ont été développées, la plus courante aujourd'hui est la norme LTO (Linear Tape-Open), au cours de laquelle les cartouches ont été améliorées, leur fiabilité, capacité, vitesse de transfert et autres caractéristiques de performance ont augmenté . La cartouche moderne est un appareil complexe équipé d'un processeur et d'une mémoire flash.

Le passage aux cartouches a été facilité par le fait que les bandes fonctionnent désormais exclusivement en mode streaming. Les cartouches sont utilisées soit dans des périphériques autonomes, soit dans le cadre de bibliothèques de bandes. La première bibliothèque robotique pour 6 000 cartouches a été lancée par StorageTek en 1987.

Les analystes et les fabricants de disques ont prédit à plusieurs reprises la disparition des bandes. Le slogan « Les bandes doivent mourir » est connue, mais elles sont vivantes et vivront longtemps, car elles sont conçues pour le stockage à long terme de grandes archives. La taille de l'activité de bandes, de bandes et de bibliothèques de bandes était estimée à environ 5 milliards de dollars en 2017. Et plus il y a d'informations pouvant être stockées sur des disques durs, plus le besoin d'archivage et de sauvegarde est important. Sur quoi? Sur les bandes, bien sûr : aucune alternative économiquement viable aux bandes magnétiques n'a encore été trouvée. La 8e génération actuelle de la norme LTO vous permet d'économiser systématiquement jusqu'à 12 To, et dans le mode compressé de 30 To, à l'avenir, ces chiffres augmenteront d'un ordre de grandeur ou plus, avec le changement de génération, non seulement les indicateurs quantitatifs, mais aussi d'autres caractéristiques opérationnelles augmentent.

Tambour magnétique

Un moyen temporaire de résoudre les contradictions entre la technologie de l'enregistrement séquentiel sur bande et la nécessité d'un accès direct aux données sur un périphérique externe est devenu un tambour magnétique, ou plutôt un cylindre à têtes fixes. Il a été inventé par l'Autrichien Gustav Tuchek en 1932

Magnétique n'est pas un tambour, dans lequel, comme on le sait, le fond sert de surface de travail, mais un cylindre avec un revêtement ferrimagnétique appliqué sur sa surface latérale, divisé en pistes, qui, à leur tour, sont divisées en secteurs. Chacune des pistes a sa propre tête de lecture/écriture, et toutes les têtes peuvent fonctionner simultanément, c'est-à-dire que les opérations de lecture/écriture sont effectuées en parallèle.

Les tambours ont été utilisés pour plus qu'un simple périphérique. Avant la transition vers les noyaux de ferrite, la RAM était extrêmement chère et peu fiable, donc dans certains cas, les tambours jouaient le rôle de RAM, il y avait même des ordinateurs appelés tambours. En règle générale, les tambours magnétiques étaient utilisés pour des informations opérationnelles (souvent changeantes) ou importantes nécessitant un accès rapide. Dans des conditions de limitation de la taille de la RAM en raison de son coût élevé, une copie du système d'exploitation y a été stockée, les résultats intermédiaires de l'exécution du programme ont été enregistrés. Pour la première fois, une procédure de swap a été mise en place sur les bobines, représentant la virtualisation de la mémoire au détriment de l'espace sur le tambour, et plus tard sur le disque.

Les entraînements à tambour magnétique avaient une capacité inférieure à celle des disques, mais fonctionnaient plus rapidement car, contrairement aux disques, les têtes sont immobiles, ce qui élimine le temps nécessaire pour s'approcher de la piste souhaitée.

Les tambours ont été activement utilisés jusqu'au début des années 80, pendant un certain temps ils ont vécu en parallèle avec les disques. Le BESM 6 et ses contemporains étaient équipés de tambours. On sait de sources ouvertes que les derniers tambours sont restés dans les systèmes de contrôle des missiles Minuteman jusqu'au milieu des années 90.

Disquettes

La durée de vie active des disquettes s'est étendue sur 30 ans, de la fin des années 70 à la fin des années 90. Ils se sont avérés extrêmement populaires en raison du fait que les PC sont apparus plus tôt que les utilisateurs n'avaient la possibilité de transférer des données sur le réseau. Dans ces conditions, les disquettes servaient non seulement à leur destination de stockage de sauvegardes, mais, peut-être, dans une plus grande mesure, à l'échange de données entre utilisateurs, c'est pourquoi elles sont également appelées baskets, comme les baskets, chaussures typiques des programmeurs. En échangeant des disquettes, ils ont créé une sorte de réseau - sneakernet.

Il y avait 3 principaux types de disques et de nombreuses modifications différentes. Les disquettes de 8 pouces ont été créées en 1967 par IBM, elles ont été conçues comme un dispositif d'amorçage pour les mainframes IBM / 370 pour remplacer la mémoire en lecture seule non volatile plus chère, elle était équipée de la génération précédente d'IBM / 360. Cependant, réalisant la valeur commerciale du nouveau produit, en 1971, IBM a transformé la disquette en un produit indépendant, et en 1973, le responsable du développement Alan Shugart a créé Shugart Associates, qui est devenu le premier fabricant de disques de 8 pouces avec une capacité maximale de 1,2 Mo. Ces gros disques étaient utilisés sur des PC fabriqués avant l'IBM XT. Ce type de disquette est particulièrement apprécié grâce au système d'exploitation CP/M de Harry Kildall.

Quant aux disquettes d'un diamètre de 5,25 pouces, leur apparence rappelle l'anecdote de Nicolas II, qui explique de manière assez particulière la largeur accrue de la voie ferrée russe par rapport à celle européenne. Dans notre cas, En Wang, le propriétaire de Wang Laboratories, a rencontré dans un bar des gens de Shugart Associates, qui lui ont proposé de fabriquer un lecteur moins cher pour ses ordinateurs, mais ils n'ont pas pu décider d'un diamètre spécifique. Alors Wang a pris une serviette à cocktail et a dit qu'il lui semblait que la taille devrait être celle-là. Des disques de cinq pouces d'une capacité de 360 ​​et 720 Ko ont été produits jusqu'à la fin des années 90, ils étaient contemporains des ordinateurs IBM XT et IBM AT, des systèmes d'exploitation MS-DOS et DR-DOS, servant fidèlement à la formation d'un nouvelle industrie.

Une cartouche alternative, proposée par Sony en 1983, mesurait 90,0 mm x 94,0 mm, mais elle était traditionnellement appelée 3,5 pouces. Dans le milieu professionnel américain, on l'appelle rigidy (stiffy disk, la traduction vaut la peine d'être cherchée dans le dictionnaire). Après un certain nombre d'améliorations, la norme industrielle de 3,5 pouces HD (haute densité) a été adoptée en 1987 avec une capacité de 1,44 Mo. Initialement, ces disques ont été complétés par IBM PS / 2 et Macintosh IIx, et plus tard, ils sont devenus un standard universel pour PC et Macintosh. Les tentatives de fabrication dans la seconde moitié des années 90 de disques avec une densité étendue (ED) de plus grande capacité de 2,88 Mo, ainsi que les disques magnéto-optiques apparemment prometteurs Floptical 25 Mo, SuperDisk 120-240 Mo et HiFD 150-240 Mo n'ont pas avoir du succès sur le marché.

Pourquoi il y avait un besoin de stockage

Selon les recherches d'IDC Perspectives, le stockage de données se classe au deuxième rang des dépenses informatiques et représente environ 23 % de toutes les dépenses. Selon The InfoPro, Wave 11 « Les coûts de stockage moyens d'une entreprise Fortune 1000 ont augmenté de plus de 50 % par an. »

Selon l'opinion générale des analystes, le volume d'informations stockées et traitées augmente chaque minute dans les organisations du monde entier. L'information unique devient de plus en plus chère, son volume augmente plusieurs fois chaque année et son stockage nécessite des coûts. Compte tenu de cela, les organisations s'efforcent non seulement de façonner le développement de l'infrastructure de stockage, mais aussi de rechercher des opportunités pour améliorer et augmenter l'efficacité économique du stockage : pour réduire la consommation d'énergie, les coûts de service, le coût total de possession et l'achat de sauvegarde et systèmes de stockage.

La croissance des volumes de données, les exigences accrues en matière de fiabilité du stockage et la vitesse d'accès aux données rendent nécessaire l'allocation des installations de stockage dans un sous-système distinct du complexe informatique (VC). La capacité d'accéder aux données et de les gérer est une condition préalable à l'exécution des processus métier. La perte irrécupérable de données constitue une menace sérieuse pour votre entreprise. Les ressources informatiques perdues peuvent être restaurées et les données perdues, en l'absence d'un système de sauvegarde bien conçu et mis en œuvre, ne peuvent plus être restaurées.

Il y a un développement notable du besoin non seulement d'acquérir des systèmes de stockage par les entreprises clientes, mais aussi d'une comptabilité, d'un audit et d'un contrôle stricts de l'utilisation de ressources coûteuses. Il n'y a rien de pire que l'arrêt des processus métier en raison de l'impossibilité d'obtenir en temps voulu les données nécessaires (ou leur perte totale), ce qui peut entraîner des conséquences irréversibles.

Facteurs contribuant au développement du stockage

Le facteur principal était la croissance de la concurrence et la complication de sa nature dans tous les segments de marché. En Europe occidentale, ces phénomènes ont pu être observés avant, et en Europe de l'Est - au cours des cinq dernières années. Il y a cinq ans, un opérateur mobile avait 25 à 25 millions de cartes SIM enregistrées, et aujourd'hui il en a 50 à 70. Ainsi, presque tous les résidents du pays bénéficient de communications mobiles de ces sociétés, et il existe également des opérateurs régionaux. Voici le vrai niveau de concurrence : il n'y a plus personne sur le marché qui n'ait pas de téléphone mobile. Et maintenant, les opérateurs ne peuvent pas se développer de manière extensive en vendant leurs produits à ceux qui n'ont pas encore de produits similaires. Ils ont besoin de clients qui travaillent avec des concurrents et qui doivent trouver un moyen de les obtenir. Nous devons comprendre leur comportement, ce qu'ils veulent. Pour extraire des informations utiles des données disponibles, vous devez les mettre dans un référentiel.

Un autre facteur est l'émergence de nombreuses entreprises sur le marché qui proposent leurs solutions pour soutenir le business des entreprises : ERP, systèmes de facturation, systèmes d'aide à la décision, etc. Toutes permettent de collecter des données détaillées de nature très différente dans des volumes énormes. Si votre organisation dispose d'une infrastructure informatique solide, ces données peuvent être rassemblées et analysées.

Le facteur suivant est technologique. Jusqu'à un certain temps, les fournisseurs d'applications développaient indépendamment différentes versions de leurs solutions pour différentes plates-formes de serveurs ou proposaient des solutions open source. Une tendance technologique importante pour l'industrie est devenue la création de plates-formes adaptables pour résoudre divers problèmes analytiques, qui incluent le composant matériel et le SGBD. Les utilisateurs ne se soucient plus de savoir qui a fabriqué le processeur ou la RAM de leur ordinateur - ils considèrent le stockage de données comme une sorte de service. Et c'est un changement majeur dans la conscience.

Des technologies qui permettent d'utiliser des entrepôts de données pour optimiser les processus d'affaires opérationnels en temps quasi réel, non seulement pour les analystes hautement qualifiés et les cadres supérieurs, mais aussi pour les employés du front office, en particulier pour les employés des bureaux de vente et des centres de contact. La prise de décision est déléguée aux employés aux échelons inférieurs de l'échelle de l'entreprise. Les rapports dont ils ont besoin sont généralement simples et concis, mais ils en nécessitent beaucoup et le temps de formation doit être court.

Portée du stockage

Les entrepôts de données traditionnels sont omniprésents. Ils sont conçus pour générer des rapports pour aider à trier ce qui s'est passé dans l'entreprise. Cependant, c'est la première étape, la base.

Il ne suffit pas que les gens sachent ce qui s'est passé, ils veulent comprendre pourquoi cela s'est passé. Il utilise des outils de business intelligence pour vous aider à comprendre ce que disent les données.

Vient ensuite l'utilisation du passé pour prédire l'avenir, en construisant des modèles prédictifs : quels clients resteront et lesquels partiront ; quels produits auront du succès et lesquels échoueront, etc.

Certaines organisations en sont déjà au stade où les entrepôts de données commencent à être utilisés pour comprendre ce qui se passe dans les affaires aujourd'hui. Par conséquent, la prochaine étape consiste à « activer » les systèmes frontaux avec des solutions basées sur les données, souvent automatiquement.

Les volumes d'informations numériques croissent comme une avalanche. Dans le secteur des entreprises, cette croissance est tirée, d'une part, par une réglementation plus stricte et l'exigence de conserver de plus en plus d'informations liées à la conduite des affaires. D'autre part, la concurrence croissante nécessite des informations de plus en plus précises et détaillées sur le marché, les clients, leurs préférences, les commandes, les actions des concurrents, etc.

Dans le secteur public, la croissance du volume de données stockées soutient la transition généralisée vers le flux de documents électroniques interministériel et la création de ressources analytiques ministérielles, qui sont basées sur une variété de données primaires.

Une vague tout aussi puissante est créée par les utilisateurs ordinaires qui publient leurs photos, vidéos sur Internet et échangent activement du contenu multimédia sur les réseaux sociaux.

Exigences de stockage

En 2008, le groupe d'entreprises TIM a mené une enquête auprès des clients afin de découvrir quelles caractéristiques sont les plus importantes pour eux lors du choix des systèmes de stockage. Les premières positions ont été prises par la qualité et la fonctionnalité de la solution proposée. Dans le même temps, le calcul du coût total de possession pour un consommateur russe n'est pas un phénomène typique. Les clients ne comprennent souvent pas bien quels sont les coûts attendus, par exemple le coût de location et d'équipement des locaux, l'électricité, la climatisation, la formation et les salaires du personnel qualifié, etc.

Lorsqu'il est nécessaire d'acheter des systèmes de stockage, le maximum que l'acheteur estime pour lui-même est les coûts directs qui passent par le service comptable pour l'achat de cet équipement. Cependant, le prix en termes d'importance était à la neuvième place sur dix. Bien entendu, les clients prennent en compte les éventuelles difficultés liées à la maintenance des équipements. Ceux-ci sont généralement évités par les packages de support de garantie prolongée, qui sont généralement proposés dans les projets.

Fiabilité et résilience. Le système de stockage assure une redondance totale ou partielle de tous les composants - alimentations, chemins d'accès, modules processeurs, disques, cache, etc. Il est impératif d'avoir un système de surveillance et d'alerte sur les problèmes possibles et existants.

Disponibilité des données. Il est doté de fonctions bien pensées de préservation de l'intégrité des données (utilisation de la technologie RAID, création de copies complètes et instantanées des données dans un rack de disques, réplication des données vers un système de stockage distant, etc.) et la possibilité d'ajouter (mettre à jour) du matériel et logiciel en mode chaud sans arrêter le complexe ;

Installations de gestion et de contrôle. La gestion du stockage s'effectue via l'interface Web ou la ligne de commande, il existe des fonctions de surveillance et plusieurs options pour informer l'administrateur des problèmes. Des technologies de diagnostic des performances basées sur le matériel sont disponibles.

Performance. Il est déterminé par le nombre et le type de disques, la quantité de mémoire cache, la puissance de traitement du sous-système de processeur, le nombre et le type d'interfaces internes et externes, ainsi que des capacités de personnalisation et de configuration flexibles.

Évolutivité. Dans un système de stockage, il est généralement possible d'augmenter le nombre de disques durs, la quantité de mémoire cache, les mises à niveau matérielles et l'extension des fonctionnalités à l'aide d'un logiciel spécial. Toutes les opérations ci-dessus sont effectuées sans reconfiguration significative ni perte de fonctionnalité, ce qui permet une approche économe et flexible de la conception de l'infrastructure informatique.

Types de stockage

Systèmes de stockage sur disque

Ils sont utilisés pour le travail opérationnel avec les données, ainsi que pour la création de sauvegardes intermédiaires.

Il existe les types de systèmes de stockage sur disque suivants :

  • Stockage des données de production (matériel haute performance);
  • Stockage pour les sauvegardes (bibliothèques de disques) ;
  • Système de stockage pour le stockage à long terme des archives (systèmes CAS).

Stockage sur bande

Conçu pour créer des sauvegardes et des archives.

Il existe les types de systèmes de stockage sur bande suivants :

  • lecteurs séparés ;
  • Chargeurs automatiques (un lecteur et plusieurs emplacements de bande) ;
  • bibliothèques de bandes (plus d'un lecteur, plusieurs emplacements de bande).

Options de connexion de stockage

Diverses interfaces internes sont utilisées pour connecter des appareils et des disques durs au sein d'un même stockage :

Les interfaces de stockage externes les plus courantes :

L'interface de cluster Infiniband populaire est désormais également utilisée pour l'accès au stockage.

Options de topologie de stockage

L'approche traditionnelle du stockage de données consiste à connecter directement les serveurs au stockage à attachement direct, stockage DAS (stockage à attachement direct). En plus du stockage en attachement direct, DAS, il existe des périphériques de stockage en réseau - NAS (Network Attached Storage), ainsi que des composants de réseau de stockage - SAN (Storage Area Networks). Les systèmes NAS et SAN sont devenus une alternative à l'architecture de stockage à attachement direct, DAS. De plus, chaque solution a été développée en réponse aux exigences croissantes des systèmes de stockage de données et était basée sur l'utilisation des technologies disponibles à l'époque.

Les architectures de stockage en réseau ont été développées dans les années 1990 pour remédier aux principales lacunes du stockage en attachement direct, DAS. En général, les solutions de stockage en réseau avaient trois objectifs : réduire le coût et la complexité de la gestion des données, réduire le trafic LAN et améliorer la disponibilité des données et les performances globales. Ce faisant, les architectures NAS et SAN abordent divers aspects du problème commun. Le résultat est la coexistence simultanée de deux architectures de réseau, chacune avec ses propres avantages et fonctionnalités.

Systèmes de stockage à connexion directe (DAS)

RAID matériel et logiciel

Marché russe du stockage

Au cours des dernières années, le marché russe du stockage s'est développé et augmenté avec succès. Ainsi, fin 2010, le chiffre d'affaires des fabricants de systèmes de stockage vendus sur le marché russe dépassait 65 millions de dollars, soit 25 % de plus qu'au deuxième trimestre de la même année et 59 % de plus qu'en 2009. La capacité totale de stockage vendue était d'environ 18 000 téraoctets, ce qui est un indicateur de croissance de plus de 150 % par an.

Les grandes étapes des projets de création d'entrepôts de données

Un entrepôt de données est une entité très complexe. L'une des principales conditions de sa création est la disponibilité de spécialistes compétents qui comprennent ce qu'ils font - non seulement du côté du fournisseur, mais aussi du côté du client. La consommation de stockage devient une partie intégrante de la mise en œuvre de solutions d'infrastructure complexes. En règle générale, nous parlons d'un investissement impressionnant sur 3 à 5 ans, et les clients s'attendent à ce que tout au long de la vie du système, il réponde pleinement aux exigences de l'entreprise.

De plus, il est nécessaire de posséder les technologies pour créer des entrepôts de données. Si vous avez commencé à créer un référentiel et que vous développez un modèle logique pour celui-ci, vous devriez avoir un vocabulaire qui définit tous les concepts de base. Même des concepts aussi courants que « client » et « produit » ont des centaines de définitions. Ce n'est qu'après avoir eu une idée de ce que signifient ces ou ces termes dans une organisation donnée que vous pouvez déterminer les sources des données nécessaires qui doivent être chargées dans l'entrepôt.

Vous pouvez maintenant commencer à créer votre modèle de données logique. C'est une étape critique du projet. Il est nécessaire d'obtenir l'accord de tous les participants au projet de création d'un entrepôt de données sur la pertinence de ce modèle. À la fin de ce travail, il devient clair ce dont le client a vraiment besoin. Et seulement alors, il est logique de parler d'aspects technologiques, par exemple, de la taille du stockage. Le client est confronté à un modèle de données géant qui contient des milliers d'attributs et de relations.

Gardez à l'esprit qu'un entrepôt de données ne doit pas être un jouet pour le service informatique et un objet de coût pour l'entreprise. L'entrepôt de données doit avant tout aider les clients à résoudre leurs problèmes les plus critiques. Par exemple, aidez les entreprises de télécommunications à éviter les fuites de clients. Pour résoudre le problème, vous devez remplir certains éléments d'un grand modèle de données, puis nous vous aidons à sélectionner des applications qui aideront à résoudre ce problème. Il peut s'agir d'applications très simples comme Excel. La première étape consiste à essayer de résoudre le problème sous-jacent avec ces outils. Essayer de remplir tout le modèle à la fois, en utilisant toutes les sources de données, serait une grosse erreur. Les données des sources doivent être soigneusement analysées pour garantir leur qualité. Après avoir résolu avec succès un ou deux problèmes critiques, au cours desquels la qualité des sources de données requises pour cela a été assurée, vous pouvez commencer à résoudre les problèmes suivants, en remplissant progressivement d'autres fragments du modèle de données, ainsi qu'en utilisant le fichier précédemment rempli. fragments.

Un autre problème sérieux est la modernisation des systèmes de stockage. Souvent, les systèmes de stockage achetés il y a trois à cinq ans ne peuvent plus faire face aux volumes croissants de données et aux exigences de vitesse d'accès, de sorte qu'un nouveau système est acheté vers lequel les données sont transférées du précédent. Fondamentalement, les clients remboursent la quantité de stockage nécessaire pour héberger les données et, en plus, supportent le coût d'installation et de transfert des données vers le nouveau système de stockage. Dans le même temps, les anciens systèmes de stockage, en règle générale, ne sont pas encore assez obsolètes pour être complètement abandonnés, de sorte que les clients essaient de les adapter à d'autres tâches.

2009

L'évolution rapide introduit chaque année des changements majeurs dans les principales tendances du développement du stockage. Ainsi, en 2009, l'accent a été mis sur la capacité à allouer économiquement les ressources (Thin Provisioning), ces dernières années ont été marquées par le travail des systèmes de stockage dans les « clouds ». La gamme de systèmes proposés est diversifiée : un grand nombre de modèles présentés, diverses options et combinaisons de solutions de l'entrée de gamme à la classe haut de gamme, des solutions clé en main et un assemblage par composants utilisant les solutions de remplissage, logicielles et matérielles les plus modernes de la Russie fabricants.

La poursuite de la réduction des coûts d'infrastructure informatique nécessite un équilibre constant entre le coût des ressources de stockage et la valeur des données qui y sont stockées à un moment donné. Les spécialistes des centres de données sont guidés non seulement par les approches ILM et DLM, mais également par la hiérarchisation des pratiques de stockage des données pour décider de la manière la plus efficace d'allouer les ressources sur les logiciels et le matériel. Chaque unité d'information à traiter et à stocker se voit attribuer certaines métriques. Ceux-ci incluent le degré d'accessibilité (la vitesse à laquelle les informations sont fournies), l'importance (le coût de la perte de données en cas de panne matérielle et logicielle) et la période pendant laquelle les informations passent à l'étape suivante.

Un exemple de division des systèmes de stockage conformément aux exigences de stockage et de traitement des informations à l'aide de la méthode de stockage de données à plusieurs niveaux.

Dans le même temps, les exigences de performance des systèmes transactionnels ont augmenté, ce qui implique une augmentation du nombre de disques dans le système et, par conséquent, le choix de systèmes de stockage d'une classe supérieure. En réponse à ce défi, les fabricants ont équipé les systèmes de stockage de nouveaux disques SSD qui surpassent les précédents en termes de performances de plus de 500 fois dans des opérations de lecture-écriture "courtes" (typiques pour les systèmes transactionnels).

La popularisation du paradigme du cloud a contribué à augmenter les exigences de performances et de fiabilité du stockage, car en cas de panne ou de perte de données, plus d'un ou deux serveurs directement connectés en souffriront - il y aura un déni de service pour tous les clouds. utilisateurs. En vertu du même paradigme, il y a eu une tendance à la fédération d'appareils de différents fabricants. Il crée un pool de ressources à la demande avec la possibilité de déplacer dynamiquement des applications et des données entre des sites et des fournisseurs de services géographiquement dispersés.

Une évolution certaine a été notée en 2011 dans le domaine de la gestion du Big Data. Auparavant, de tels projets étaient au stade de la discussion, mais ils sont maintenant passés au stade de la mise en œuvre, après avoir parcouru tout le chemin de la vente à la mise en œuvre.

Il y a une percée sur le marché, qui s'est déjà produite sur le marché des serveurs, et, peut-être, déjà en 2012, nous verrons des systèmes de stockage prenant en charge la technologie de déduplication et de surabonnement dans le segment de masse. En conséquence, comme dans le cas de la virtualisation des serveurs, cela garantira une utilisation à grande échelle de la capacité de stockage.

Le développement ultérieur de l'optimisation du stockage consistera à améliorer les méthodes de compression des données. Pour les données non structurées, qui représentent 80 % du volume total, le taux de compression peut atteindre plusieurs ordres de grandeur. Cela réduira considérablement le coût unitaire du stockage pour les SSD modernes.

  • Andrey Zakharov, Systèmes de stockage de données de base et leurs caractéristiques
  • Mettre à niveau le magazine4_08_05
  • Les systèmes de stockage à attachement direct (DAS) implémentent le type de connexion le plus connu. Lors de l'utilisation de DAS, le serveur a une connexion personnelle avec le système de stockage et est presque toujours le seul utilisateur de l'appareil. Dans ce cas, le serveur reçoit un accès en bloc au système de stockage de données, c'est-à-dire qu'il s'adresse directement aux blocs de données.

    Les systèmes de stockage de ce type sont assez simples et généralement peu coûteux. L'inconvénient de la méthode de connexion directe est la faible distance entre le serveur et le périphérique de stockage. L'interface DAS typique est SAS.

    Stockage en réseau (NAS)

    Les systèmes de stockage en réseau (NAS), également appelés serveurs de fichiers, fournissent leurs ressources réseau aux clients via le réseau sous la forme de fichiers partagés ou de points de montage de répertoire. Les clients utilisent des protocoles d'accès aux fichiers réseau tels que SMB (anciennement CIFS) ou NFS. Le serveur de fichiers, à son tour, utilise des protocoles d'accès de bloc à son stockage interne pour traiter les demandes de fichiers des clients. Étant donné que le NAS fonctionne sur un réseau, le stockage peut être très éloigné des clients. De nombreux systèmes de stockage en réseau offrent des fonctions supplémentaires telles que l'imagerie de stockage, la déduplication ou la compression de données, etc.

    Réseau de stockage (SAN)

    Un réseau de stockage (SAN) fournit aux clients un accès blockchain aux données sur un réseau (tel que Fibre Channel ou Ethernet). Les périphériques d'un SAN n'appartiennent pas à un seul serveur, mais peuvent être utilisés par tous les clients du réseau de stockage. Il est possible de diviser l'espace disque en volumes logiques qui sont alloués à des serveurs hôtes distincts. Ces volumes sont indépendants des composants SAN et de leur emplacement. Les clients accèdent à la banque de données à l'aide d'un accès de type bloc, tout comme avec une connexion DAS, mais comme le SAN utilise un réseau, les périphériques de stockage peuvent être situés loin des clients.

    Actuellement, les architectures SAN utilisent le protocole Small Computer System Interface (SCSI) pour transmettre et recevoir des données. Les SAN Fibre Channel (FC) encapsulent le protocole SCSI dans des trames Fibre Channel. Les SAN utilisant iSCSI (Internet SCSI) utilisent des paquets SCSI TCP/IP comme transport. Fibre Channel over Ethernet (FCoE) encapsule Fibre Channel dans des paquets Ethernet à l'aide de la technologie relativement nouvelle de Data Center Bridging (DCB), qui apporte un ensemble d'améliorations à l'Ethernet traditionnel et peut désormais être déployée sur une infrastructure 10GbE. Parce que chacune de ces technologies permet aux applications d'accéder au stockage de données en utilisant le même protocole SCSI, il devient possible de toutes les utiliser dans une entreprise ou de migrer d'une technologie à une autre. Les applications exécutées sur le serveur ne peuvent pas distinguer FC, FCoE, iSCSI ou même DAS de SAN.

    Il y a beaucoup de discussions sur le choix de FC par rapport à iSCSI pour construire un SAN. Certaines entreprises se concentrent sur le faible coût du déploiement SAN iSCSI initial, tandis que d'autres choisissent la fiabilité et la disponibilité élevées des SAN Fibre Channel. Bien que les solutions iSCSI bas de gamme soient moins chères que Fibre Channel, à mesure que les performances et la fiabilité du SAN iSCSI augmentent, l'avantage de coût disparaît. Dans le même temps, certaines implémentations FC sont plus faciles à utiliser que la plupart des solutions iSCSI. Par conséquent, le choix d'une technologie particulière dépend des besoins de l'entreprise, de l'infrastructure existante, de l'expertise et du budget.

    La plupart des grandes entreprises qui utilisent des SAN choisissent Fibre Channel. Ces entreprises ont généralement besoin d'une technologie éprouvée, d'un débit élevé et d'un budget suffisant pour acheter l'équipement le plus fiable et le plus productif. Ils ont également du personnel pour gérer le SAN. Certaines de ces sociétés prévoient de continuer à investir dans l'infrastructure Fibre Channel, tandis que d'autres investissent dans des solutions iSCSI, notamment 10GbE, pour leurs serveurs virtualisés.

    Les petites entreprises sont plus susceptibles de choisir l'iSCSI en raison des barrières à l'entrée à faible coût, tout en étant en mesure d'étendre davantage leurs SAN. Les solutions peu coûteuses utilisent généralement la technologie 1GbE ; Les solutions 10GbE sont nettement plus chères et ne sont généralement pas considérées comme des SAN d'entrée de gamme.

    Stockage unifié

    Le stockage unifié combine les technologies NAS et SAN dans une seule solution intégrée. Ces référentiels polyvalents permettent à la fois l'accès aux blocs et aux fichiers aux ressources partagées, et sont plus faciles à gérer avec un logiciel de gestion centralisé.

    Si les Serveurs sont des dispositifs universels qui exécutent, dans la plupart des cas,
    - soit la fonction du serveur applicatif (lorsque des programmes spéciaux sont exécutés sur le serveur et que des calculs intensifs sont en cours),
    - soit la fonction de serveur de fichiers (c'est-à-dire un endroit pour le stockage centralisé des fichiers de données)

    puis les DSS (Data Storage Systems) sont des dispositifs spécialement conçus pour exécuter des fonctions de serveur telles que le stockage de données.

    La nécessité d'acheter des systèmes de stockage
    se produit généralement dans des entreprises assez matures, c'est-à-dire ceux qui pensent à comment
    - stocker et gérer l'information, l'atout le plus précieux de l'entreprise
    - assurer la continuité des activités et la protection contre la perte de données
    - augmenter l'adaptabilité de l'infrastructure informatique

    Stockage et virtualisation
    La concurrence oblige les PME à travailler plus efficacement, sans temps d'arrêt et avec une efficacité élevée. Les modèles de production, les plans tarifaires et les types de services changent de plus en plus souvent. Toute l'activité des entreprises modernes est « liée » à la technologie de l'information. Les besoins de l'entreprise changent rapidement et se reflètent instantanément dans l'informatique - les exigences en matière de fiabilité et d'adaptabilité de l'infrastructure informatique augmentent. La virtualisation offre ces fonctionnalités, mais elle nécessite des systèmes de stockage à faible coût et faciles à entretenir.

    Classement du stockage par type de connexion

    DAS... Les premières baies de disques étaient connectées aux serveurs via SCSI. Dans le même temps, un serveur ne pouvait fonctionner qu'avec une seule baie de disques. Il s'agit d'une connexion de stockage à attachement direct (DAS).

    NAS... Pour une organisation plus flexible de la structure du centre de données - afin que chaque utilisateur puisse utiliser n'importe quel système de stockage - il est nécessaire de connecter le système de stockage à un réseau local. C'est NAS - Stockage en réseau). Mais l'échange de données entre le serveur et le système de stockage est beaucoup plus intensif qu'entre le client et le serveur, donc, dans cette version, il y avait des difficultés objectives liées à la bande passante du réseau Ethernet. Et du point de vue de la sécurité, il n'est pas tout à fait correct de montrer les systèmes de stockage à un réseau partagé.

    SAN... Mais vous pouvez créer votre propre réseau haut débit séparé entre les serveurs et les systèmes de stockage. Ce réseau s'appelait SAN (Storage Area Network). Les performances à haute vitesse sont assurées par le fait que le support de transmission physique est l'optique. Des adaptateurs spéciaux (HBA) et des commutateurs optiques FC assurent un transfert de données à 4 et 8 Gbit/s. La fiabilité d'un tel réseau a été augmentée par la redondance (duplication) des canaux (adaptateurs, commutateurs). Le principal inconvénient est le prix élevé.

    iSCSI... Avec l'avènement des technologies Ethernet 1Gbit/s et 10Gbit/s bon marché, les optiques 4Gbit/s n'ont plus l'air si attrayantes, surtout compte tenu du prix. Par conséquent, de plus en plus souvent, le protocole iSCSI (Internet Small Computer System Interface) est utilisé comme environnement SAN. Un SAN iSCSI peut être construit sur n'importe quelle base physique suffisamment rapide qui prend en charge IP.

    Classification des systèmes de stockage de données par domaine d'application :

    Classer la description
    personnel

    Le plus souvent, il s'agit d'un disque dur classique 3,5" ou 2,5" ou 1,8", placé dans un boîtier spécial et équipé d'interfaces USB et/ou FireWire 1394 et/ou Ethernet et/ou eSATA.
    Ainsi, nous avons un appareil portable qui peut être connecté à un ordinateur/serveur et faire office de périphérique de stockage externe. Parfois, pour plus de commodité, un accès sans fil, une imprimante et des ports USB sont ajoutés à l'appareil.

    petit groupe de travail

    Il s'agit généralement d'un appareil fixe ou portable, dans lequel vous pouvez installer plusieurs (le plus souvent de 2 à 5) disques durs SATA, remplaçables à chaud ou non, avec une interface Ethernet. Les disques peuvent être organisés en matrices - RAID de différents niveaux pour atteindre une fiabilité de stockage et une vitesse d'accès élevées. Le système de stockage dispose d'un système d'exploitation spécialisé, généralement basé sur Linux, et permet de différencier le niveau d'accès par nom d'utilisateur et mot de passe, d'organiser des quotas d'espace disque, etc.
    De tels systèmes de stockage conviennent aux petits groupes de travail en remplacement des serveurs de fichiers.

    groupe de travail

    Typiquement 19" périphérique montable en rack pouvant accueillir 12-24 disques durs HotSwap SATA ou SAS. Dispose d'une interface Ethernet externe et/ou iSCSI. Les disques sont organisés en matrices - RAID pour obtenir une fiabilité élevée de stockage et une vitesse d'accès.Système de stockage est livré avec un logiciel spécialisé qui vous permet de délimiter le niveau d'accès, d'organiser des quotas d'espace disque, d'organiser BackUp (sauvegarde d'informations), etc.
    De tels systèmes de stockage conviennent aux moyennes et grandes entreprises et sont utilisés conjointement avec un ou plusieurs serveurs.
    entreprise
    Un appareil fixe ou monté en rack de 19" pouvant contenir jusqu'à des centaines de disques durs.
    En plus de la classe précédente, les systèmes de stockage peuvent avoir la capacité d'étendre, de mettre à niveau et de remplacer des composants sans arrêter le système ou le système de surveillance. Le logiciel peut prendre en charge « instantané » et d'autres fonctions « avancées ».
    Ces systèmes de stockage conviennent aux grandes entreprises et offrent une fiabilité, une vitesse et une protection accrues des données critiques.

    entreprise haut de gamme

    En plus de la classe précédente, le stockage peut prendre en charge des milliers de disques durs.
    De tels systèmes de stockage occupent plusieurs armoires de 19", le poids total atteint plusieurs tonnes.
    Les systèmes de stockage sont conçus pour un fonctionnement continu avec le plus haut degré de fiabilité, en stockant des données stratégiquement importantes au niveau de l'État / de l'entreprise.

    Historique du problème.

    Les premiers serveurs combinaient toutes les fonctions dans un seul boîtier (comme les ordinateurs) - à la fois informatique (serveur d'applications) et stockage de données (serveur de fichiers). Mais à mesure que la demande de puissance de calcul augmentait d'une part, et que la quantité de données traitées augmentait d'autre part, il devenait tout simplement gênant de tout mettre dans un seul boîtier. Il s'est avéré plus efficace de déplacer les baies de disques dans des boîtiers séparés. Mais alors la question s'est posée de connecter la baie de disques au serveur. Les premières baies de disques étaient connectées aux serveurs via SCSI. Mais dans ce cas, un serveur pourrait fonctionner avec une seule baie de disques. Les gens voulaient une organisation plus flexible de la structure du centre de données - de sorte que n'importe quel serveur puisse utiliser n'importe quel système de stockage. Connecter tous les appareils directement à un réseau local et organiser l'échange de données via Ethernet est, bien entendu, une solution simple et universelle. Mais l'échange de données entre serveurs et systèmes de stockage est beaucoup plus intensif qu'entre clients et serveurs. Par conséquent, dans cette variante (NAS - voir ci-dessous), il y avait des difficultés objectives liées à la bande passante du réseau Ethernet. L'idée est née de créer un réseau haut débit séparé entre les serveurs et les systèmes de stockage. Ce réseau s'appelait SAN (voir ci-dessous). Il est similaire à Ethernet, sauf que le support de transmission physique est l'optique. Il existe également des adaptateurs (HBA) qui sont installés dans les serveurs et les commutateurs (optiques). Normes de débit de données optiques - 4Gbit / s. Avec l'avènement des technologies Ethernet 1Gbit/s et 10Gbit/s, ainsi que le protocole iSCSI, Ethernet est de plus en plus utilisé comme support SAN.

    Cet article se concentrera sur les systèmes de stockage d'entrée et de milieu de gamme et les tendances qui émergent dans l'industrie aujourd'hui. Pour plus de commodité, nous appellerons lecteurs de systèmes de stockage de données.

    Tout d'abord, nous nous attarderons un peu sur la terminologie et les fondements technologiques du stockage autonome, puis nous passerons aux nouveaux produits et à la discussion des avancées modernes dans divers groupes technologiques et marketing. Nous vous expliquerons également pourquoi vous avez besoin de systèmes d'un type ou d'un autre et à quel point leur utilisation est efficace dans différentes situations.

    Sous-systèmes de disques autonomes

    Afin de mieux comprendre les caractéristiques des lecteurs autonomes, attardons-nous un peu sur l'une des technologies les plus simples pour créer des systèmes de stockage de données - la technologie orientée bus. Il prévoit l'utilisation d'un boîtier de lecteur de disque et d'un contrôleur RAID PCI.

    Figure 1. Technologie de stockage orientée bus

    Ainsi, entre les disques et le bus PCI hôte (de l'anglais. Hôte- dans ce cas, un ordinateur autonome, par exemple un serveur ou un poste de travail) il n'y a qu'un seul contrôleur, qui détermine dans une large mesure la vitesse du système. Les variateurs construits sur ce principe sont les plus productifs. Mais en raison de caractéristiques architecturales, leur utilisation pratique, à l'exception de rares cas, est limitée aux configurations à hôte unique.

    Les inconvénients de l'architecture d'entraînement orientée bus incluent :

    • utilisation efficace uniquement dans les configurations à hôte unique ;
    • dépendance vis-à-vis du système d'exploitation et de la plate-forme ;
    • évolutivité limitée ;
    • possibilités limitées pour l'organisation de systèmes tolérants aux pannes.

    Naturellement, tout cela n'a pas d'importance si les données sont nécessaires pour un serveur ou un poste de travail. Au contraire, dans une telle configuration, vous obtiendrez les performances maximales pour le minimum d'argent. Mais si vous avez besoin d'un système de stockage pour un grand centre de données, ou même de deux serveurs qui ont besoin des mêmes données, une architecture orientée bus est totalement inadéquate. Les inconvénients de cette architecture sont évités par l'architecture des sous-systèmes de disques autonomes. Le principe de base de sa construction est assez simple. Le contrôleur qui contrôle le système est déplacé de l'ordinateur hôte vers le boîtier de disques, offrant un fonctionnement indépendant de l'hôte. Il est à noter qu'un tel système peut comporter un grand nombre de canaux d'E/S externes, ce qui permet de connecter plusieurs, voire plusieurs, ordinateurs au système.


    Figure 2. Système de stockage autonome

    Tout système de stockage intelligent se compose d'un code matériel et logiciel. Dans un système autonome, il y a toujours de la mémoire, qui stocke le programme d'algorithmes pour le fonctionnement du système lui-même et les éléments de traitement qui traitent ce code. Un tel système fonctionne quels que soient les systèmes hôtes auxquels il est associé. Grâce à leur intelligence, les disques autonomes implémentent souvent indépendamment de nombreuses fonctions de sécurité et de gestion des données. L'une des fonctions de base les plus importantes et presque omniprésentes est RAID (Redundant Array of Independent Disks). Un autre, qui appartient déjà aux systèmes milieu et haut de gamme, est la virtualisation. Il fournit des fonctionnalités telles que la copie instantanée ou la sauvegarde à distance, ainsi que d'autres algorithmes plutôt sophistiqués.

    En bref sur SAS, NAS, SAN

    Dans le cadre de l'examen des systèmes de stockage de données autonomes, il est impératif de s'attarder sur la façon dont les systèmes hôtes accèdent aux disques. Cela détermine en grande partie la portée de leur utilisation et leur architecture interne.

    Il existe trois options principales pour organiser l'accès aux lecteurs :

    • SAS (Server Attached Storage) - un lecteur connecté au serveur [le deuxième nom est DAS (Direct Attached Storage) - un lecteur directement connecté] ;
    • NAS (Network Attached Storage) - un périphérique de stockage connecté à un réseau ;
    • SAN (Storage Area Network) est un réseau de stockage.

    Nous avons déjà parlé des technologies SAS/DAS, NAS et SAN dans l'article dédié au SAN, si quelqu'un est intéressé par cette information, nous vous recommandons de vous référer aux pages iXBT. Mais quand même, rafraîchissons un peu le matériel en mettant l'accent sur l'utilisation pratique.

    SAS/DAS- Il s'agit d'une méthode de connexion traditionnelle assez simple, qui implique une connexion directe (d'où le DAS) du système de stockage à un ou plusieurs systèmes hôtes via une interface de canal haut débit. Souvent, dans de tels systèmes, la même interface est utilisée pour connecter le lecteur à l'hôte utilisé pour accéder aux disques internes du système hôte, ce qui offre généralement des performances élevées et une connexion facile.

    Le système SAS peut être recommandé pour une utilisation au cas où il y aurait un besoin de traitement à grande vitesse de grandes quantités de données sur un ou plusieurs systèmes hôtes. Il peut s'agir, par exemple, d'un serveur de fichiers, d'une station graphique ou d'un système de cluster de basculement composé de deux nœuds.



    Figure 3. Système en cluster avec stockage partagé

    NAS- un lecteur qui est connecté au réseau et fournit un accès fichier (note - fichier, pas bloc) aux données pour les systèmes hôtes sur le LAN / WAN. Les clients qui fonctionnent avec NAS utilisent généralement les protocoles NSF (Network File System) ou CIFS (Common Internet File System) pour accéder aux données. Le NAS interprète les commandes des protocoles de fichiers et exécute la demande aux lecteurs de disque conformément au protocole de canal utilisé dans celui-ci. En fait, l'architecture NAS est l'évolution des serveurs de fichiers. Le principal avantage d'une telle solution est la rapidité de déploiement et la qualité d'organisation de l'accès aux fichiers, du fait de la spécialisation et de la focalisation étroite.

    Sur la base de ce qui précède, l'utilisation du NAS peut être recommandée si vous avez besoin d'un accès réseau aux fichiers et les facteurs suffisamment importants sont : la simplicité de la solution (qui est généralement une sorte de garant de la qualité) et la facilité de maintenance et d'installation... Un bon exemple de ceci est l'utilisation d'un NAS comme serveur de fichiers dans un petit bureau d'entreprise où la facilité d'installation et d'administration est importante. Mais en même temps, si vous avez besoin d'accéder aux fichiers d'un grand nombre de systèmes hôtes, un puissant disque NAS, grâce à une solution spécialisée sophistiquée, est capable de fournir un échange de trafic intensif avec un énorme pool de serveurs et de postes de travail à un faible coût de l'infrastructure de communication utilisée (par exemple, commutateurs Gigabit Ethernet et paires torsadées en cuivre).

    SAN- réseau de stockage de données. Les SAN utilisent généralement l'accès aux données par blocs, bien que les réseaux de stockage puissent être connectés à des périphériques qui fournissent des services de fichiers, tels que le NAS. Dans les implémentations modernes de réseaux de stockage, le protocole Fibre Channel est le plus souvent utilisé, mais en général, cela n'est pas nécessaire et, par conséquent, il est habituel d'allouer une classe distincte de SAN Fibre Channel (réseaux de zone de stockage basés sur Fibre Channel).

    Le SAN repose sur un réseau distinct du LAN/WAN, qui sert à organiser l'accès aux données des serveurs et des postes de travail directement impliqués dans le traitement. Cette structure permet de construire relativement facilement des systèmes à haute disponibilité et à forte demande. Alors que les SAN restent chers aujourd'hui, le TCO (coût total de possession) pour les systèmes de taille moyenne à grande construits à l'aide de la technologie SAN est assez faible. Pour une description de la façon de réduire le coût total de possession des systèmes de stockage d'entreprise avec des SAN, consultez les pages de ressources techTarget : http://searchstorage.techtarget.com.

    Aujourd'hui, le coût des disques durs prenant en charge Fibre Channel, en tant qu'interface la plus courante pour la création de SAN, est proche du coût des systèmes dotés d'interfaces de canal traditionnelles à faible coût (comme le SCSI parallèle). Les principaux éléments de coût d'un SAN restent l'infrastructure de communication, ainsi que le coût de son déploiement et de sa maintenance. Dans ce cadre, dans le cadre de la SNIA et de nombreuses organisations commerciales, un travail actif est en cours sur les technologies de stockage IP, qui permettent d'utiliser des équipements et des infrastructures beaucoup plus économiques pour les réseaux IP, ainsi que l'expérience colossale des spécialistes de ce domaine. .

    Il existe de nombreux exemples d'utilisation efficace des SAN. Un SAN peut être utilisé presque partout où il est nécessaire d'utiliser plusieurs serveurs avec un système de stockage partagé. Par exemple, pour organiser le travail d'équipe sur les données vidéo ou le prétraitement des produits imprimés. Dans un tel réseau, chaque participant au processus de traitement du contenu numérique a la possibilité de travailler presque simultanément sur des téraoctets de données. Ou, par exemple, organiser des sauvegardes de grandes quantités de données utilisées par de nombreux serveurs. Lors de la création d'un SAN et de l'utilisation d'un algorithme de sauvegarde de données indépendant du LAN/WAN et des technologies « instantanées », presque n'importe quelle quantité d'informations peut être sauvegardée sans compromettre la fonctionnalité et les performances de l'ensemble du complexe d'informations.

    Fibre Channel dans le SAN

    Un fait indéniable est qu'aujourd'hui c'est le FC (Fiber Channel) qui domine les réseaux de stockage. Et c'est le développement de cette interface qui a conduit au développement du concept SAN lui-même.

    Des experts ayant une expérience significative dans le développement d'interfaces de canal et de réseau ont participé à la conception du FC, et ils ont réussi à combiner toutes les caractéristiques positives importantes des deux directions. L'un des avantages les plus importants de Fibre Channel, avec les paramètres de vitesse (qui, d'ailleurs, ne sont pas toujours les principaux pour les utilisateurs de SAN et peuvent être mis en œuvre à l'aide d'autres technologies) est la capacité de travailler sur de longues distances et la flexibilité de la topologie. , qui est venu à la nouvelle norme des technologies de réseau ... Ainsi, le concept de construction d'une topologie de réseau de stockage repose sur les mêmes principes que les réseaux locaux traditionnels, basés sur des hubs, des commutateurs et des routeurs, ce qui simplifie grandement la construction de configurations de systèmes multi-nœuds, y compris sans point de défaillance unique.

    Il convient également de noter que Fibre Channel utilise à la fois des supports en fibre et en cuivre pour la transmission de données. Lors de l'organisation de l'accès à des sites géographiquement éloignés jusqu'à 10 kilomètres, des équipements standard et une fibre monomode sont utilisés pour la transmission du signal. Si les nœuds sont séparés de 10 ou même 100 kilomètres, des amplificateurs spéciaux sont utilisés. Lors de la construction de tels SAN, des paramètres peu conventionnels pour les systèmes de stockage de données sont pris en compte, par exemple la vitesse de propagation du signal dans la fibre.

    Tendances de stockage

    Le monde du stockage est extrêmement diversifié. Les capacités des systèmes de stockage de données et le coût des solutions sont assez différenciés. Il existe des solutions qui combinent les capacités de traiter des centaines de milliers de requêtes par seconde à des dizaines voire des centaines de téraoctets de données, ainsi que des solutions pour un ordinateur avec des disques IDE peu coûteux.

    RAID IDE

    Récemment, la capacité maximale des disques IDE a énormément augmenté et dépasse d'environ deux fois les disques SCSI, et si l'on parle de rapport prix par unité de volume, les disques IDE sont en tête de plus de 6 fois. Ceci, malheureusement, n'a pas affecté positivement la fiabilité des disques IDE, mais néanmoins la portée de leur utilisation dans les systèmes de stockage de données autonomes augmente inexorablement. Le principal facteur de ce processus est que la demande de grandes quantités de données augmente plus rapidement que le volume de disques uniques.

    Il y a quelques années, de rares fabricants ont décidé de lancer des sous-systèmes autonomes axés sur l'utilisation de disques IDE. Aujourd'hui, ils sont produits par presque tous les fabricants axés sur le marché des systèmes d'entrée de gamme. Le plus répandu dans la classe des sous-systèmes autonomes avec disques IDE est observé dans les systèmes NAS d'entrée de gamme. Après tout, si vous utilisez un NAS comme serveur de fichiers avec une interface Fast Ethernet ou même Gigabit Ethernet, alors dans la plupart des cas, les performances de ces disques sont plus que suffisantes et leur faible fiabilité est compensée par l'utilisation de la technologie RAID.

    Là où l'accès par bloc aux données est requis au prix le plus bas par unité d'informations stockées, les systèmes d'aujourd'hui avec des disques IDE à l'intérieur et avec une interface SCSI externe sont activement utilisés. Par exemple, sur le système IDE JetStor fabriqué par la société américaine AC&NC pour construire une archive tolérante aux pannes avec un volume de stockage de 10 Téraoctets et la possibilité d'un accès rapide en bloc aux données, le coût de stockage d'un mégaoctet sera inférieur à 0,3 centime. .

    Une autre technologie intéressante et plutôt originale avec laquelle j'ai dû me familiariser assez récemment était le système Raidsonic SR-2000 avec une interface IDE parallèle externe.


    Figure 4. RAID IDE autonome d'entrée de gamme

    Il s'agit d'un système de disque autonome conçu pour utiliser deux disques IDE et est conçu pour être monté à l'intérieur d'un boîtier de système hôte. Il est totalement indépendant du système d'exploitation de la machine hôte. Le système vous permet d'organiser RAID 1 (miroir) ou simplement de copier des données d'un disque à un autre avec des disques remplaçables à chaud, sans aucun dommage ni inconvénient de la part de l'utilisateur de l'ordinateur, ce qui ne peut pas être dit des sous-systèmes orientés bus construits sur Contrôleurs PCI IDE RAID...

    A noter que les principaux fabricants de disques IDE ont annoncé la sortie de disques milieu de gamme avec interface Serial ATA, qui utiliseront des technologies de haut niveau. Cela devrait avoir un impact positif sur leur fiabilité et augmenter la part des solutions ATA dans les systèmes de stockage de données.

    Ce que Serial ATA nous apportera

    La première et la plus agréable des choses que vous pouvez trouver dans Serial ATA est le câble. Du fait que l'interface ATA est devenue série, le câble est devenu rond et le connecteur plus étroit. Si vous avez dû acheminer des câbles parallèles IDE sur huit canaux IDE sur votre système, je suis sûr que vous adorerez cette fonctionnalité. Bien sûr, les câbles IDE ronds existent depuis longtemps, mais leur connecteur est toujours resté large et plat, et la longueur maximale autorisée d'un câble ATA parallèle n'est pas encourageante. Lors de la construction de systèmes avec un grand nombre de disques, la présence d'un câble standard n'aide pas du tout, car les câbles doivent être fabriqués indépendamment et, en même temps, leur pose devient presque la tâche principale dans le temps lors de l'assemblage.

    En plus des particularités du système de câble, Serial ATA a d'autres innovations qui ne peuvent pas être mises en œuvre indépendamment pour la version parallèle de l'interface à l'aide d'un couteau de bureau ou d'un autre outil pratique. Les disques dotés de la nouvelle interface devraient bientôt prendre en charge le jeu d'instructions Native Command Queuing. Avec Native Command Queuing, le contrôleur Serial ATA analyse les requêtes d'E/S et optimise l'ordre d'exécution pour minimiser le temps de recherche. La similitude de l'idée de Serial ATA Native Command Queuing avec l'organisation de la file d'attente de commandes en SCSI est assez évidente, cependant, pour Serial ATA jusqu'à 32 commandes seront prises en charge, et non le traditionnel pour SCSI - 256. l'échange à chaud d'appareils est également apparu. Bien sûr, une telle possibilité existait auparavant, mais sa mise en œuvre sortait du cadre de la norme et, par conséquent, ne pouvait pas être largement utilisée. Parlant des nouvelles capacités à haut débit de Serial ATA, il convient de noter qu'il n'y a pas de grande joie maintenant de leur part, mais l'essentiel ici est qu'il existe pour l'avenir une bonne feuille de route, qui serait très difficile à mettre en œuvre dans le cadre de l'ATA parallèle.

    Compte tenu de ce qui précède, il ne fait aucun doute que la part des solutions ATA dans les systèmes de stockage d'entrée de gamme devrait augmenter précisément en raison des nouveaux disques Serial ATA et des systèmes de stockage axés sur l'utilisation de tels dispositifs.

    Où va le SCSI parallèle

    Quiconque travaille avec des systèmes de stockage, même d'entrée de gamme, peut difficilement dire qu'il aime les systèmes avec des disques IDE. Le principal avantage des disques ATA est leur faible prix par rapport aux périphériques SCSI et, probablement, un niveau de bruit plus faible. Et tout cela se produit pour une raison simple, puisque l'interface SCSI est mieux adaptée à une utilisation dans les systèmes de stockage et bien qu'elle soit beaucoup moins chère que l'interface encore plus fonctionnelle - Fibre Channel, alors les disques avec une interface SCSI sont produits de meilleure qualité, plus fiable et plus rapide qu'avec un IDE bon marché.

    De nombreux fabricants utilisent aujourd'hui Ultra 320 SCSI, la toute dernière interface de la famille, pour concevoir des systèmes de stockage SCSI parallèles. Une fois dans de nombreuses feuilles de route, il était prévu de sortir des appareils avec une interface SCSI Ultra 640 et même Ultra 1280, mais tout est allé au fait que quelque chose devait être radicalement changé dans l'interface. Déjà maintenant, au stade de l'utilisation de l'Ultra 320, le SCSI parallèle ne convient pas à beaucoup, principalement à cause de l'inconvénient d'utiliser des câbles classiques.

    Heureusement, une nouvelle interface Serial Attached SCSI (SAS) a récemment été introduite. La nouvelle norme aura des caractéristiques intéressantes. Il combine certaines des capacités de Serial ATA et Fibre Channel. Malgré cette bizarrerie, il faut dire qu'il y a du bon sens dans une telle imbrication. La norme est née des spécifications physiques et électriques de l'ATA série, avec des améliorations telles que l'augmentation du niveau du signal pour augmenter la longueur du câble en conséquence, augmentant ainsi l'adressabilité maximale des périphériques. Et le plus intéressant est que les technologues promettent de fournir la compatibilité des périphériques Serial ATA et SAS, mais uniquement dans les prochaines versions des normes.

    Les caractéristiques les plus importantes de SAS incluent :

    • interface point à point ;
    • interface à deux canaux ;
    • prise en charge de 4096 appareils dans le domaine ;
    • ensemble standard de commandes SCSI ;
    • câble jusqu'à 10 mètres de long;
    • câble à 4 fils ;
    • Un duplex plein.

    Parce que la nouvelle interface offre le même connecteur miniature que Serial ATA, les développeurs ont une nouvelle opportunité de construire des appareils plus compacts avec des performances élevées. La norme SAS prévoit également l'utilisation d'extenseurs. Chaque module d'extension prendra en charge l'adressage de 64 appareils avec la possibilité de mettre en cascade jusqu'à 4096 appareils au sein d'un domaine. C'est, bien sûr, nettement inférieur aux capacités de Fibre Channel, mais pour les systèmes de stockage d'entrée de gamme et de milieu de gamme, avec des disques directement connectés au serveur, c'est suffisant.

    Malgré tous les charmes, il est peu probable que le Serial Attached SCSI remplace rapidement l'interface parallèle conventionnelle. Dans le monde des solutions d'entreprise, le développement est généralement plus rigoureux et prend naturellement plus de temps que le développement de bureau. Oui, et les anciennes technologies ne disparaissent pas très vite, car la période pour laquelle elles fonctionnent est également assez longue. Pourtant, en 2004, des appareils avec une interface SAS devraient entrer sur le marché. Naturellement, dans un premier temps, il s'agira principalement de disques et de contrôleurs PCI, mais dans un an environ, les systèmes de stockage de données rattraperont leur retard.

    Pour une meilleure généralisation des informations, nous vous suggérons de vous familiariser avec une comparaison des interfaces modernes et nouvelles pour les systèmes de stockage de données sous forme de tableau.

    1 - La norme régule une distance allant jusqu'à 10 km pour la fibre monomode, il existe des implémentations de dispositifs permettant de transmettre des données sur une distance de plus de 105 m.

    2 - Les concentrateurs et certains commutateurs FC fonctionnent au sein de la topologie en anneau virtuel interne, il existe également de nombreuses implémentations de commutateurs qui fournissent une connexion point à point de tous les appareils qui leur sont connectés.

    3 - Il existe des implémentations de périphériques avec les protocoles SCSI, FICON, ESCON, TCP/I, HIPPI, VI.

    4 - Le fait est que les appareils seront compatibles entre eux (c'est ce que les constructeurs promettent de faire dans un futur proche). Autrement dit, les contrôleurs SATA prendront en charge les disques SAS et les contrôleurs SAS prendront en charge les disques SATA.

    Engouement massif pour les NAS

    Récemment, il y a eu une fascination massive pour les disques NAS à l'étranger. Le fait est qu'avec la pertinence croissante de l'approche orientée données pour la construction de systèmes d'information, l'attractivité de la spécialisation des serveurs de fichiers classiques et la formation d'une nouvelle unité de marketing - NAS - ont augmenté. Dans le même temps, l'expérience dans la construction de tels systèmes était suffisante pour un démarrage rapide de la technologie des périphériques de stockage connectés au réseau, et le coût de leur mise en œuvre matérielle était extrêmement faible. Aujourd'hui, les disques NAS sont produits par pratiquement tous les fabricants de systèmes de stockage, parmi lesquels des systèmes d'entrée de gamme pour très peu d'argent, et des systèmes moyens, et même des systèmes chargés de stocker des dizaines de téraoctets d'informations, capables de traiter un nombre colossal de requêtes. . Chaque classe de systèmes NAS a ses propres solutions originales intéressantes.

    NAS sur PC en 30 minutes

    Nous voulons décrire une petite solution d'entrée de gamme originale. On peut discuter de la valeur pratique de sa mise en œuvre, mais on ne peut nier son originalité.

    En fait, un lecteur NAS d'entrée de gamme, et pas seulement d'entrée de gamme, est un ordinateur personnel assez simple avec un certain nombre de disques et de logiciels qui permet aux autres membres du réseau d'accéder aux données au niveau du fichier. Ainsi, pour construire un périphérique NAS, il suffit de prendre ces composants et de les connecter entre eux. L'essentiel est de savoir à quel point vous le faites bien, le même accès fiable et de haute qualité aux données sera reçu par le groupe de travail travaillant avec les données auxquelles votre appareil donne accès. C'est en tenant compte de ces facteurs, ainsi que du temps de déploiement de la solution, plus quelques recherches de conception, qu'un lecteur NAS d'entrée de gamme est en cours de construction.

    La différence entre une bonne solution NAS d'entrée de gamme avec un personnel auto-assemblé et personnalisé au sein du système d'exploitation choisi, si, encore une fois, omettez la conception, sera :

    • à quelle vitesse vous le ferez ;
    • la facilité avec laquelle ce système peut être entretenu par du personnel non qualifié ;
    • dans quelle mesure cette solution fonctionnera et sera prise en charge.

    En d'autres termes, dans le cas d'une sélection professionnelle de composants et de l'existence d'un certain ensemble de logiciels initialement configurés, un bon résultat peut être obtenu. La vérité semble banale, on peut en dire autant de toute tâche résolue selon le schéma des solutions de composants toutes faites : "matériel" plus "logiciel".

    Que propose l'entreprise X ? Une liste assez limitée de composants compatibles est en train de se former : des cartes mères avec toutes les économies intégrées requises pour un serveur NAS d'entrée de gamme de disques durs. Vous achetez un disque FLASH avec le logiciel enregistré installé dans le connecteur IDE de la carte mère et obtenez un lecteur NAS prêt à l'emploi. Le système d'exploitation et les utilitaires écrits sur ce disque, lors du démarrage, configurent les modules nécessaires de manière adéquate. En conséquence, l'utilisateur obtient un appareil qui peut être contrôlé à la fois localement et à distance via une interface HTML et donne accès aux lecteurs de disque qui y sont connectés.

    Protocoles de fichiers dans les NAS modernes

    CIFS (système de fichiers Internet commun) est un protocole standard qui permet d'accéder aux fichiers et services sur des ordinateurs distants (y compris Internet). Le protocole utilise un modèle d'interaction client-serveur. Le client fait une demande au serveur pour accéder aux fichiers ou envoyer un message à un programme qui réside sur le serveur. Le serveur répond à la demande du client et renvoie le résultat de son travail. CIFS est une norme ouverte qui est née sur la base du Server Message Block Protocol (SMB) développé par Microsoft, mais, contrairement à ce dernier, CIFS prend en compte la possibilité de longs délais d'attente, car il est également axé sur l'utilisation dans les réseaux distribués. . Le protocole SMB est traditionnellement utilisé sur les réseaux locaux Windows pour l'accès aux fichiers et l'impression. CIFS utilise le protocole TCP/IP pour transporter les données. CIFS fournit des fonctionnalités similaires à FTP (File Transfer Protocol), mais offre aux clients un contrôle amélioré (de type direct) sur les fichiers. Il permet également de partager l'accès aux fichiers entre clients, en bloquant et en rétablissant automatiquement la communication avec le serveur en cas de panne du réseau.

    NFS (système de fichiers réseau) est une norme IETF qui inclut le système de fichiers distribués et le protocole de mise en réseau. NFS a été développé par Sun Microsystem Computer Corporation. Il n'était à l'origine utilisé que sur les systèmes UNIX, les implémentations ultérieures du chat client et serveur sont également devenues courantes sur d'autres systèmes.

    NFS, comme CIFS, utilise un modèle de communication client-serveur. Il permet d'accéder aux fichiers sur un ordinateur distant (serveur) pour l'écriture et la lecture comme s'ils se trouvaient sur l'ordinateur de l'utilisateur. Les versions antérieures de NFS utilisaient UDP pour le transport des données, tandis que les versions modernes utilisent TCP/IP. Pour que NFS fonctionne sur Internet, Sun a développé le protocole WebNFS, qui utilise des extensions des fonctionnalités de NFS pour son bon fonctionnement sur le World Wide Web.

    DAFS (système de fichiers à accès direct) est un protocole d'accès aux fichiers standard basé sur NFSv4. Il permet aux applications de transférer des données en contournant le système d'exploitation et son espace tampon directement pour transporter des ressources, tout en conservant la sémantique inhérente aux systèmes de fichiers. DAFS tire parti des dernières technologies de transfert de données mémoire à mémoire. Son utilisation offre des vitesses d'E/S de fichiers élevées, une charge CPU et système minimale, en raison d'une réduction significative du nombre d'opérations et d'interruptions qui sont généralement nécessaires lors du traitement des protocoles réseau. L'utilisation du support matériel pour le VI (Virtual Interface) est particulièrement efficace.

    DAFS a été conçu avec un environnement de cluster et de serveur à l'esprit pour les bases de données et une variété d'applications Internet de bout en bout. Il offre la latence la plus faible pour accéder aux partages de fichiers et aux données, et prend également en charge les mécanismes intelligents de récupération de système et de données, ce qui le rend très attrayant pour une utilisation dans les disques NAS haut de gamme.

    Tous les chemins mènent au stockage IP

    De nombreuses nouvelles technologies passionnantes ont émergé dans les systèmes de stockage haut et milieu de gamme au cours des dernières années.

    Fibre Channel SAN est une technologie bien connue et populaire aujourd'hui. Dans le même temps, leur diffusion massive est aujourd'hui problématique en raison d'un certain nombre de caractéristiques. Ceux-ci incluent le coût élevé de la mise en œuvre et la complexité de la construction de systèmes répartis géographiquement. D'une part, ce ne sont que les caractéristiques de la technologie au niveau de l'entreprise, mais d'autre part, si le SAN devient moins cher et la construction de systèmes distribués devient plus facile, cela devrait simplement fournir une percée colossale dans le développement des réseaux de stockage.

    Dans le cadre des travaux sur les technologies de stockage réseau au sein de l'Internet Engineering Task Force (IETF), un groupe de travail et un forum IP Storage (IPS) ont été créés dans les domaines suivants :

    FCIP - Fibre Channel over TCP/IP, un protocole de tunneling basé sur TCP/IP dont la fonction est de connecter des SAN FC géographiquement distants sans aucun impact sur les protocoles FC et IP.

    iFCP - Internet Fibre Channel Protocol, créé sur la base du protocole TCP / IP pour connecter des systèmes de stockage FC ou des réseaux de stockage FC, en utilisant l'infrastructure IP ensemble ou à la place des éléments de commutation et de routage FC.

    iSNS - Internet Storage Name Service, un protocole de prise en charge des noms de disques sur Internet.

    iSCSI - Internet Small Computer Systems Interface, est un protocole basé sur TCP/IP et conçu pour communiquer et gérer les systèmes de stockage, les serveurs et les clients (Définition de SNIA - IP Storage Forum :).

    Le développement le plus rapide et le plus intéressant des domaines énumérés est l'iSCSI.

    iSCSI est la nouvelle norme

    Le 11 février 2003, iSCSI est devenu la norme officielle. La ratification de l'iSCSI ne manquera pas d'influencer un intérêt plus large pour la norme, qui se développe déjà assez activement. Le développement le plus rapide de l'iSCSI servira d'impulsion pour la diffusion des SAN dans les petites et moyennes entreprises, car l'utilisation d'un équipement standard et d'une approche de service (y compris ceux communs dans le cadre des réseaux Ethernet standard) rendra les SAN beaucoup plus moins cher. Quant à l'utilisation de l'iSCSI sur Internet, aujourd'hui le FCIP s'y est déjà implanté et la concurrence avec lui sera difficile.

    Des sociétés informatiques renommées ont volontairement soutenu la nouvelle norme. Il y a bien sûr des opposants, mais presque toutes les entreprises qui sont activement impliquées sur le marché des systèmes d'entrée et de milieu de gamme travaillent déjà sur des appareils compatibles iSCSI. Dans Windows et Linux, les pilotes iSCSI sont déjà inclus, les systèmes de stockage iSCSI sont produits par IBM, les adaptateurs - par Intel, dans un proche avenir HP, Dell, EMC promettent de se joindre au processus de maîtrise de la nouvelle norme.

    L'une des caractéristiques très intéressantes d'iSCSI est que vous pouvez utiliser non seulement les opérateurs, les commutateurs et les routeurs des réseaux LAN / WAN existants pour transférer des données sur un lecteur iSCSI, mais également des adaptateurs réseau Fast Ethernet ou Gigabit Ethernet du côté client. Cependant, cela crée une surcharge importante pour la puissance de traitement d'un PC qui utilise un tel adaptateur. Selon les développeurs, la mise en œuvre logicielle d'iSCSI peut atteindre les vitesses du support de transmission de données Gigabit Ethernet avec une charge importante, jusqu'à 100 %, des processeurs modernes. À cet égard, il est recommandé d'utiliser des cartes réseau spéciales qui prendront en charge des mécanismes pour décharger le CPU du traitement de la pile TCP.

    Virtualisation SAN

    Une autre technologie importante dans la construction de périphériques de stockage et de réseaux de stockage modernes est la virtualisation.

    La virtualisation du stockage est la présentation des ressources physiques d'une manière logique et plus pratique. Cette technologie vous permet d'allouer de manière flexible les ressources entre les utilisateurs et de les gérer efficacement. Dans le cadre de la virtualisation, la copie à distance, le snapshot, la distribution des requêtes d'E/S vers les disques les plus adaptés en termes de nature de service, et bien d'autres algorithmes sont implémentés avec succès. La mise en œuvre d'algorithmes de virtualisation peut être effectuée à la fois au moyen du lecteur lui-même et à l'aide de dispositifs de virtualisation externes, ou à l'aide de serveurs de contrôle exécutant des logiciels spécialisés sous des systèmes d'exploitation standard.

    Ceci, bien sûr, n'est qu'une toute petite partie de ce que l'on peut dire sur la virtualisation. Ce sujet est très intéressant et vaste, nous avons donc décidé de lui consacrer une publication séparée.

    Soumettre une question de solution Nous répondons en semaine
    Dans une heure

    Andreï Oloviannikov,[email protégé] placer

    Accordons-nous….

    Le but de cet article n'est pas d'étudier en détail les différents systèmes de stockage (DSS). Nous n'analyserons pas toutes sortes d'interfaces - logicielles et matérielles - qui sont utilisées pour créer différentes manières de stocker des données. Nous ne considérerons pas les « goulots d'étranglement » de certains types d'organisation du stockage. Ici, vous ne verrez pas en détail les protocoles iSCSI et leur implémentation sous forme de FC (Fiber Channel), SCSI, etc.

    Notre tâche est beaucoup plus modeste - il suffit de « s'entendre sur la terminologie » avec notre acheteur potentiel. Ainsi, deux physiciens, avant d'entamer une discussion sur un problème quelconque, se mettent d'accord sur le processus ou le phénomène qu'ils désigneront d'une manière ou d'une autre. Cela est nécessaire pour économiser du temps et des cellules nerveuses les unes aux autres, et pour mener la conversation de manière plus productive et pour le plaisir mutuel.

    Stockage ou... stockage ?

    Commençons, comme on dit, par le commencement.

    Sous stockage, nous entendons tous les mêmes systèmes de stockage de données en tant qu'ensemble de logiciels et de matériel qui constituent un moyen fiable, le plus rapide et le plus simple de stocker et d'accéder aux données pour les organisations de différents niveaux, à la fois financières et structurelles. Nous souhaitons immédiatement attirer votre attention sur le fait que différentes entreprises ont des besoins différents pour stocker des informations sous une forme ou une autre et des capacités financières différentes pour leur mise en œuvre. Mais dans tous les cas, nous voulons noter que peu importe combien d'argent ou de spécialistes d'un niveau ou d'un autre sont à la disposition de l'acheteur, nous insistons pour que tous leurs besoins correspondent à notre définition des systèmes de stockage - qu'il s'agisse d'un ensemble régulier de grands disques , ou une structure PCS multi-niveaux complexe (Parallels Cloud Storage). Cette définition, à notre avis, comprend une autre abréviation largement utilisée traduite en anglais - storage as a Storage Area Network - SAN. Nous illustrerons le SAN un peu ci-dessous lorsque nous parlerons des manières typiques de mettre en œuvre des systèmes de stockage.

    La manière la plus courante et la plus compréhensible d'exécuter des systèmes de stockage est le DAS - Stockage à connexion directe - des lecteurs qui se connectent directement à l'ordinateur qui contrôle le fonctionnement de ces lecteurs.

    L'exemple le plus simple d'un DAS est un ordinateur ordinaire avec un disque dur ou un lecteur de DVD (CD) avec des données installées. Un exemple est plus compliqué (voir Figure) - un périphérique de stockage externe (disque dur externe, étagère de disque, lecteur de bande, etc.) qui communique directement avec un ordinateur via un protocole et une interface particuliers (SCSI, eSATA, FC, etc.) .etc). Nous proposons des étagères de disques ou des serveurs de stockage de données (une autre abréviation pour les systèmes de stockage) en tant que périphériques de stockage DAS.

    Un serveur de stockage de données dans ce cas signifie un ordinateur avec son propre processeur, son propre système d'exploitation et une mémoire suffisante pour traiter de grandes quantités de données stockées sur de nombreux disques à l'intérieur du serveur.

    Il convient de noter qu'avec un tel mode de réalisation de stockage, seul l'ordinateur avec DAS voit directement les données, tous les autres utilisateurs n'ont accès aux données qu'avec l'autorisation de cet ordinateur.

    Vous pouvez consulter les configurations de base des systèmes de stockage DAS dans

    Systèmes de stockageNAS

    Une autre implémentation de système de stockage assez simple est NAS (Network Attached Storage) - Network Data Storage (encore une fois, la même abréviation pour les systèmes de stockage).

    Comme il devient clair, l'accès aux données s'effectue via des protocoles réseau, en règle générale, via notre réseau informatique local habituel (bien que maintenant un accès plus complexe aux données stockées sur les ressources du réseau se soit généralisé). L'exemple le plus clair et le plus simple de stockage NAS est un stockage grand public de musique et de films, auquel plusieurs utilisateurs du réseau domestique ont accès à la fois.

    Le NAS stocke les données sous la forme d'un système de fichiers et, en conséquence, permet d'accéder aux ressources via des protocoles de fichiers réseau (NFS, SMB, AFP...).

    Pour un exemple simple de système de stockage NAS, voir Fig. 2.

    Nous voulons noter tout de suite que le NAS, en principe, peut être considéré comme tout appareil intelligent qui possède son propre processeur, sa propre mémoire et des interfaces réseau suffisamment rapides pour transférer des données sur le réseau à différents utilisateurs. En outre, une attention particulière doit être accordée à la vitesse du sous-système de disque. Vous pouvez voir les configurations les plus typiques des périphériques NAS dans

    Le Storage Area Network est l'un des moyens de mettre en œuvre le stockage en tant que système de stockage de données - voir ci-dessus.

    Il s'agit d'une solution logicielle, matérielle et architecturale permettant de connecter divers périphériques de stockage de manière à ce que le système d'exploitation « voie » ces périphériques comme locaux. Ceci est réalisé en connectant ces appareils aux serveurs appropriés. Les périphériques eux-mêmes peuvent être différents : baies de disques, bibliothèques de bandes, baies de stockage optique.

    Avec l'avancement des technologies de stockage, la distinction entre les systèmes SAN et NAS est devenue plutôt arbitraire. Classiquement, ils peuvent être distingués par la manière dont les données sont stockées : SAN - périphériques de bloc, NAS - système de fichiers de données.

    Les protocoles de mise en œuvre des systèmes SAN peuvent être différents - Fibre Channel, iSCSI, AoE.

    L'une des manières architecturales de mettre en œuvre un SAN est illustrée à la Fig. 3.

    Des exemples typiques de systèmes de stockage SAN peuvent être trouvés dans

    En conclusion, nous espérons avoir réussi à « nous mettre d'accord sur la terminologie » avec vous et il ne reste plus qu'à discuter des options de création de systèmes de stockage pour votre entreprise et à trouver des solutions qui vous conviennent en termes de fiabilité, de simplicité et de budget.