One TECH BS  /  Actualites  /  News partenaires  /  DaveHitz, le co-fondateur de NetApp, revient sur la stratégie de clustering et de convergence de la

DaveHitz, le co-fondateur de NetApp, revient sur la stratégie de clustering et de convergence de la

DaveHitz, le co-fondateur de NetApp, revient sur la stratégie de clustering et de convergence de la firme 

Dave Hitz, l'un des fondateurs de NetApp en 1992 a pu observer de près depuis 20 ans les changements qui ont affecté l'industrie du stockage. Il s'est assis avec nos partenaires de SearchStorage.com pour évoquer la stratégie de stockage de NetApp et discuter des tendances de l'industrie, y compris le clustering, les infrastructures convergentes, le stockage en environnements virtualisés, la déduplication primaire et le stockage en nuage.

Dave Hitz, le vice-président exécutif de NetApp, a été l'un des fondateurs du fournisseur en 1992 et a eu un rôle d’observateur privilégié des changements qui ont affecté l'industrie du stockage de données au cours des 20 dernières années. Nos partenaires de SearchStorage.com ont récemment pu s’asseoir avec lui pour évoquer la stratégie de stockage de NetApp et discuter des tendances de l'industrie, y compris le clustering, les infrastructures convergentes, le stockage en environnements virtualisés, la déduplication primaire et le stockage en nuage.

SearchStorage.com: Quel est votre rôle actuel chez NetApp ?
Hitz: Mon rôle est un peu celui d’aiguillon, de visionnaire. J'ai commencé en tant que programmeur. J'ai travaillé un temps comme évangéliste produit et dirigé l’ingénierie pendant un certain temps. J'ai pris une année sabbatique, puis écris un livre. J’ai ensuite été impliqué dans le planning de la transition Dan [Warmenhoven] et Tom [Georgens], et j’ai commencé à écrire une série d’articles appelés histoires futures.

Nous avons réalisé un certain nombre de transitions majeures au sein de l'entreprise. Entre le milieu et la fin des années quatre-vingt-dix, nous avons fait un gros pari sur l'Internet et la société s’est développée. Après le crash nous nous sommes réorientés de nouveau et nous sommes positionnés sur le marché des applications virtualisées. Ensuite, nous avons fait un pari vraiment important sur la virtualisation des serveurs. En fait, tous les cinq ans nous nous sommes réinventés en tant que société.

Le pari que nous prenons cette fois-ci porte sur le développement des infrastructures de données à grande échelle.

SearchStorage.com: Quel est le rôle du stockage dans ces infrastructures à grande échelle?
Hitz: Le monde des données a beaucoup évolué au cours des dernières années. Il y a dix ans, il était la plupart du temps ennuyeux. Il s’agissait de stocker des données d’entreprises ennuyeuses... des schémas, la paie, le budget. Maintenant, nous parlons de stocker les premiers pas d’un bébé, de lettres personnelles à une épouse, de dossiers médicaux — des choses profondément personnelles. Donc, l'univers des données est en train de changer.

L'autre chose qui se passe avec les données est que le lieu où s’effectuaient la plupart des tâches d’administration des données a disparu. L’administration des données se faisait pour l’essentiel sur des serveurs physiques. De nos jours, avec la virtualisation de serveurs, le serveur physique n’est plus vraiment un endroit à la mode. Les machines virtuelles passent d'un serveur physique à un autre. Et les serveurs virtuels ne sont pas un bon endroit pour la gestion des données, car en général, vous disposez de plusieurs serveurs virtuels partageant des données et connectés à la même base de données ? La question se pose dès lors de savoir où effectuer l’administration des données. La résultante est que le stockage devient une infrastructure pour les données. Ce que j’entends par infrastructure, est qu’il s’agit d’une ressource qui partagée, utilisée par beaucoup de gens différents, mais gérée de manière centralisée.

SearchStorage.com: Comment cela se reflète-t-il dans la stratégie de NetApp pour le stockage?
Hitz: Une grande partie se retrouve dans les fonctions de clustering que nous avons publiées dans Ontap 8. Nous pensons que le clustering est vraiment fondamental pour être en mesure d'avoir ces caractéristiques par exemple où vous pouvez retirer un système et le replacer par un autre. Comment pouvez-vous y parvenir quand il y a des données sur ce serveur de stockage, qui doivent rester disponibles? La réponse est que vous devez clusteriser ces éléments, afin d’avoir la possibilité de migrer de manière transparente des données d'un endroit à l'autre.

SearchStorage.com: NetApp travaille sur le clustering depuis un bon moment, en fait depuis l'acquisition de réseaux Spinnaker en 2004. Data ONTAP 8 était censé être la première version avec un support complet du clustering, mais vous n'en avez pas parlé beaucoup quand la 8.0 est sortie. Et vous avez continué à offrir Ontap en version 7 sans clustering.Pourquoi avez-vous attendu Ontap 8.1.1 pour réellement mettre en avant le clustering ?

Hitz: Lorsque nous avons livré la 8.0, c'était une mise à jour assez radicale d’Ontap, l’équivalent en quelque sorte du moment où Microsoft a sortiWindows NT. Je parle, de grands changements architecturaux. Nous avons pris une approche différente - lorsque Windows NT est sorti il ??y avait un mode classique, mais ce n'était pas le mode par défaut. Quand nous avons sorti dans la version 8.0, elle tournait par défaut en mode 7.X. Ce qui veut dire que nous avons fait une mise à jour radicale de l’architecture avec toutes les fondations en place pour le clustering mais nous ne l’avons pas livré avec ces fonctions activées par défaut. Et nous n’en avons pas fait tout un plat au moment du lancement car nous voulions que toutes les pièces soient en place pour que les utilisateurs puissent les activer.

Donc la 8.1 est effectivement l’occasion pour nous de raconter l'histoire du clustering, maintenant que nous avons des vrais clients en production avec notre solution. Notre approche a donc plutôt été de mettre l’infrastructure en place, de la faire utiliser par des clients et ensuite de faire beaucoup de bruit. Et nous voilà maintenant en 8.1 et nous racontons l’histoire de la 8.0. Peut-être notre marketing est-il trop conservateur mais nous aimons savoir à quoi nous en tenir avant de claironner.

SearchStorage.com: Combien de clients de NetApp utilisent aujourd’hui le clustering?
Hitz: Il s'agit d'un pourcentage relativement faible, à un seul chiffre. Notre objectif était d'abord de déployer 8.0 et sa toute nouvelle architecture, et de nous assurer que le cadre d’architecture global était stable.

SearchStorage.com: Alors que vous étiez au travail sur le renforcement du clustering dans Ontap, EMC a acheté Isilon et a acquis un produit de clustering mature et disponible. Comment se compare le clustering de NetApp à celui d’Isilon?
Hitz: Vous avez des choix difficiles à faire si vous partez sur Isilon. Parce que d'une part, EMC a beaucoup de capacités intéressantes: des instantanés, le clonage, la déduplication, la compression, un riche ensemble de fonctionnalités d’administration des données… Le problème avec EMC, c'est que pour chacune de ces caractéristiques que devez vous dire: «Attendez une minute, quel produit a cette fonction? ' Et ce n'est pas uniforme à travers la gamme. Vous dites: «Je veux utiliser des disques SATA.« Eh bien, vous pouvez le faire avec Isilon, mais C'est une autre chose avec VMAX et [pour] cette autre chose c'est VNX qu’il faut choisir.

Si vous regardez les caractéristiques qu’EMC supporte vous vous retrouvez avec une liste complète. Si vous séparez leurs architectures et commencez à regarder la liste des fonctionnalités par architecture, vous vous rendez compte que la force d’Isilon est le clustering, ce qui est bien. Malheureusement cette richesse n’est pas combinée à une suite complète d’outils d’administration des données. C'est la différence n° 1 avec Ontap – Dans tous les cas vous avez affaire au même Ontap qui a toutes ces fonctions « cool » dedans.

Deuxièmement, les utilisateurs constatent effectivement qu’il est possible de faire évoluer simplement un cluster Isilon. Mais quand vient le moment d’un rafraîchissement matériel important, on parle d’un arrêt complet du système. Or vous n’arrêtez pas votre réseau pour un changement de routeur. Vous ne devriez pas avoir à votre infrastructure de données quand vous mettez de nouveaux systèmes de stockage en place.

SearchStorage.com: Un grand nombre de fournisseurs IT s’oriente vers des infrastructures convergées combinant stockage, réseau et puissance informatique en un seul système. NetApp le fait via son architecture de référence FlexPod. La convergence est-elle une tendance dominante dans la mise en œuvre du stockage?
Hitz: Il y a deux tendances concurrentes. J'ai cette image dans ma tête de la pile de choses dont vous avez besoin pour mettre sur pied un centre de données. Il y a la puce CPU elle-même, l’OS, les applications comme les bases de données, des fonctions comme le réseau et le stockage. Vous pouvez le comparer à une pile verticale. D'un côté, il y a une pression pour que cette pile verticale soit intégrée afin de rendre la vie des clients plus simple.

Mais il y a une autre tendance, appelons la l’horizontalisation, avec des sociétés travaillant à l’optimisation de leur propre couche. Quand je pense à cette tendance, je pense à des sociétés comme Intel pour les processeurs, à Microsoft pour les OS ou Cisco pour le réseau. La question est laquelle de ces tendances va gagner? Il me semble, qu’en termes de propriété intellectuelle et de développement technologique, le modèle horizontal est de gagner. Une base de données Oracle bat à plate couture toutes les anciennes bases de données, Les équipements réseau de Cisco écrasent les équipements des spécialistes des serveurs ; et dans le stockage, EMC, HDS et NetApp contrôlent deux-tiers du marché.

SearchStorage.com: Vous parlez d’EMC, NetApp et HDS qui dominent le marché du stockage, mais il y a encore un large fossé entre vous et leader sur le marché, EMC. Comment pouvez-vous combler ce fossé ?
Hitz: Ontap est l'architecture de stockage n° 1 sur le marché. EMC est encore bien plus gros que nous en termes de parts de marché stockage, mais EMC déploie de multiples architectures différentes. Ils ont Enginuity pour Symmetrix et des architectures distinctes pour Clariion / Celerra, Data Domain et Isilon. Si vous regardez la part de marché par architecture, NetApp est n ° 1, EMC est n ° 2, 3 et 4, puis NetApp est n ° 5 avec les E-Series.

Même si EMC vend plus de stockage, ce n'est pas le meilleur bloc de base pour l'infrastructure, car vous devez toujours faire une pause et vous demander: «Attendez une minute, est-ce que je voulais était du Celerra, du VNX, du VNXe du VMAX ou de l’Isilon. Tous sont des objets bien différents.

Nous avons l'E-Series pour les applications extrêmes. Nous disons que le E est pour Extreme - super-haute bande passante, type stockage Teradata. Mais dans la plupart des cas nous disons « Ontap est la solution » C'est une réponse simple.

SearchStorage.com: NetApp revendique son efficacité avec VMware. Maintenant vous avez des vendeurs offrant des systèmes de stockage virtuels à base de VM. Sont-ils une menace pour NetApp?
Hitz: Vers 2007, nous avons fait un gros pari sur VMware. Nous avons restructuré notre société autour d'elle. Nous supportons VMware depuis longtemps maintenant. Nous avons un partenariat efficace avec VMware, sans doute plus que les gens. Je ne sais pas ce que font ceux qui conçoivent des systèmes à partir de rien, mais nous avons pour nous des années de maturation dans ce domaine.

SearchStorage.com: NetApp a été le premier à offrir la déduplication des données primaires. Est ce que la plupart de vos clients l’utilise ?
Hitz: Nous avons jeté un coup d'œil au taux d'adoption de la déduplication à travers le monde. La pénétration moyenne mondiale de la déduplication est d'environ 25%, mais par zones géographiques, certains sont bien plus hauts. Au Danemark, environ 65% de la capacité NetApp installée utilise la déduplication. Dans le Nebraska ce taux est de 2%. J'ai commencé par penser, «Qu'est-ce qui ne va pas avec le Nebraska ou qu’y a-t-il de si spécial au Danemark? « Ce qu’il se passe est que ces technologies ont une adoption dans une zone, puis se propagent. Je pensais que 25% dans le monde entier, était le mieux que nous pouvions faire. Mais si l’on atteint 65% au Danemark, pourquoi pas dans d'autres endroits? Il s'est avéré que nos partenaires de distribution dans la région nordique ont fait de la déduplication une religion et qu’elle est devenue la norme. Ils ont dit: «Nous l'activons par défaut ; si les clients insistent pour dire qu'ils n'en veulent pas nous l’éteignons».  Mais en général, ils ne demandent pas à l'éteindre.

Si nous voulons vraiment que les clients tirent parti [ des fonctions], notre objectif doit être de faire en sorte qu’elles soient activées par défaut. C'est là que nous nous dirigeons vers la déduplication et la compression. Le logiciel doit être assez intelligent pour étudier le cas d'utilisation et dédupliquer de façon plus ou moins agressive. Et le système doit s’auto-optimiser.
SearchStorage.com: Quelle est la stratégie de NetApp en matière de stockage en nuage?
Hitz: Les gens utilisent le terme «nuage» de nombreuses façons, parfois, les gens utilisent le terme nuage parce qu’ils ont déployé beaucoup de VMware. Beaucoup de gens entendent par nuage des infrastructures partagées à grande échelle. Pour d’autre Cloud décrit un business model. Dois-je construire un datacenter moi-même ou dois-je laisser cela à quelqu’un qui me louera de la capacité ? La vraie question est « qui va construire le datacenter : le client ou le cloud provider ? » Nous nous concentrons beaucoup sur les fournisseurs de cloud. 

Quand on regarde les personnes qui utilisent 50 pétaoctets ou plus, la plupart font une forme ou une autre de cloud, soit parce qu’ils ont un business dans l’infrastructure ou parce qu’ils voient cela comme une façon plus ciblée de bâtir un service interne.

Adapté par le magit.fr d'un entretien en anglais réalisé par Dave Raffo, SearchStorage.com