Démarrage de MemVerge Out pour faire du calcul centré sur la mémoire une réalité

La mémoire située au centre de l’univers informatique, en remplacement du traitement, a longtemps été considérée comme un élément déterminant des performances radicalement améliorées des systèmes de datacenter. Combiné avec un traitement accéléré (GPU, FPGA, etc.), des interconnexions plus rapides (NVLink, optique) et des réseaux plus puissants (5G et ses successeurs), le résultat sera un calcul de nouvelle génération, centré sur la mémoire, permettant de nouvelles classes entières d’IA d’entreprise , Les charges de travail des applications HPDA et HPC. C’est le rêve de toute façon.

Il s’agit de mettre plus de données en mémoire, de renoncer à la récupération des données avec latence du stockage traditionnel. Nous nous souvenons d’une présentation mémorable à la conférence ISC 2017 au cours de laquelle le Dr Eng Lim Goh, SVP / CTO, IA de HPE, a parlé d’un avenir dans lequel une décennie de données d’entreprise résiderait en mémoire vive. Une étape importante dans cette direction a été le lancement par Intel, en avril 2019, du dispositif de mémoire de classe de stockage Optane DC qui permet aux applications d’accéder à des pools de données de taille pétaoctet

Mais MemVerge, une startup de Milpitas, Californie âgée de trois ans, soutient qu’une couche de logiciels de services de données doit fonctionner au-dessus du matériel de mémoire persistante pour rapprocher la vision centrée sur la mémoire de la réalité. Aujourd’hui, MemVerge a lancé une stratégie autour de ce qu’il appelle l’informatique à grande mémoire, une combinaison de DRAM, de mémoire persistante et de technologies logicielles MemVerge Memory Machine, conçues pour fournir une mémoire abondante, persistante et hautement disponible.

Alors que l’informatique en mémoire a augmenté au cours de la dernière décennie, le coût élevé, la petite échelle et la volatilité de la DRAM l’ont largement reléguée aux charges de travail critiques pour les performances, nous a expliqué le PDG de MemVerge, Charles Fan. Mais citant une étude d’IDC constatant qu’au cours des cinq prochaines années, 25 pour cent de toutes les données seront des données en temps réel, il a déclaré que «de plus en plus d’applications essentielles à la mission devront traiter les données à un rythme et à un volume croissants. Et nous pensons que la réponse est une architecture centrée sur la mémoire. La façon dont les E / S fonctionnent aujourd’hui, où les données sont constamment déplacées entre les périphériques de stockage et les supports de mémoire, ne sera plus acceptable pour bon nombre de ces cas d’utilisation… Nous pensons que la mémoire persistante change la donne. Cela crée vraiment un nouveau média qui est plus grand, moins cher et persistant. »

Intel Optane DC

Dans son incarnation actuelle, l’offre de la société est rendue possible par Optane, que Fan a appelé «une technologie révolutionnaire. Et nous pensons également que cette technologie s’améliorera au cours des prochaines années, que ce soit d’Intel ou d’autres fabricants de mémoire. Nous pensons que d’ici 2022, nous verrons au moins deux ou trois fabricants de mémoire supplémentaires fournir de la mémoire persistante… servant le même objectif d’activation de ce centre de données centré sur la mémoire. »

Fan, un vétéran de VMware et EMC, a déclaré que le logiciel Machine Memory s’exécute sur les serveurs et les clusters de serveurs de tous les principaux fournisseurs de matériel, ainsi que sur les machines virtuelles et sur les nuages ​​«une fois que le nuage a le bon matériel». En version bêta maintenant, Fan a déclaré que le produit entrerait dans un programme d’accès anticipé avec un nombre limité de clients plus tard ce mois-ci et est prévu pour GA plus tard cette année. Il prendra en charge Intel Optane Gen 2 «prêt à l’emploi» lorsque ce produit sera disponible – en fait, Fan a déclaré qu’Intel avait déjà fourni à MemVerge des échantillons Gen 2.

Il y a trois obstacles à l’adoption généralisée de l’informatique centrée sur la mémoire, a déclaré Fan: les applications existantes ne sont pas plug-and-play – elles doivent être réécrites pour une mémoire persistante; le manque de services de données, ce qui entraîne une lente récupération après des pannes du système; et pas de mémoire partagée en raison de la mémoire cloisonnée dans des serveurs séparés.

Le fan a déclaré que le logiciel de mémoire de la machine répond aux trois problèmes.

Concernant l’utilisation des applications existantes, Fan a déclaré qu’il fallait normalement les programmer «pour profiter pleinement de la grande mémoire adressable en octets et persistante… Vous devez changer votre application pour la programmer avec une nouvelle API, qui est une API de mémoire persistante ou un modèle de programmation de mémoire persistante… Comment les faire fonctionner au-dessus de cette nouvelle infrastructure est un défi. »

Fan a déclaré que le logiciel Memory Machine virtualise la DRAM et les PMM (modules de mémoire persistants), à la fois localement et sur un cluster de serveurs, sur des réseaux à faible latence, tels que RDMA. «Nous prenons en charge RDMA sur Ethernet convergé (RoCE), ainsi que RDMA sur InfiniBand, et nous pouvons créer un lac de mémoire prenant en charge l’application ci-dessus de manière transparente. Vous n’avez donc pas à changer d’application. »

En ce qui concerne la disponibilité de la mémoire, Fan a déclaré que les services de données MemVerge incluent la capture instantanée, la réplication et la hiérarchisation des données ZeroIO. Au cœur du logiciel Memory Machine se trouve son moteur de mémoire persistante distribuée, « le moteur logiciel qui traite la mémoire via notre allocateur de mémoire persistante », a déclaré Fan. « Et il les connecte via notre transport RDMA à travers un cluster géré par notre gestionnaire de cluster. »

« La mémoire jusqu’à présent est toujours principalement une propriété locale, vous accédez à votre mémoire locale », a déclaré Fan. «Et la nouvelle mémoire est plus grande…, c’est jusqu’à six téraoctets de mémoire persistante par serveur qui a deux sockets de CPU. Si vous avez besoin de plus que cela, vous avez besoin d’une couche de logiciel qui peut étendre votre mémoire aux autres serveurs afin qu’ils puissent être rassemblés dans un lac de mémoire disponible pour les applications. »

«Ce sont les trois domaines dans lesquels le matériel lui-même ne fournit pas de solution complète», a-t-il dit, «où vous avez besoin de ce que nous appelons un logiciel de grande mémoire. Il doit créer la compatibilité; il doit fournir les services de données et il doit fournir l’évolutivité de la mise en commun de la mémoire sur plusieurs serveurs. Et c’est ce que fait notre logiciel. »

Fan a déclaré que MemVerge est actuellement composé d’environ 40 personnes, et la société, après avoir récemment achevé un tour de financement de 19 millions de dollars en partie financé par Intel, ainsi que Cisco Investments, NetApp, SK Hynix et d’autres, prévoit d’étendre ses capacités techniques et équipes de vente / marketing.

PDG de MemVerge Charles Fan

« Nous sommes sortis furtivement il y a environ un an, au même moment où Intel a annoncé la mémoire Optane, et à ce moment-là, le produit entrait en version bêta », a déclaré Fan. « Il s’agit de la même technologie, juste plus mature maintenant. Nous la rendons disponible aux clients à déployer dans un environnement de production. « 

«L’évolution généralisée des entreprises vers des modèles commerciaux beaucoup plus centrés sur les données… expose de réelles limitations de performances dans l’infrastructure de données», a déclaré Eric Burgener, vice-président de la recherche, Infrastructure Systems, Platforms and Technologies, chez IDC. «Les avancées récentes en matière de mémoire persistante et de technologie de mémoire définie par logiciel ont été réunies par MemVerge, une startup logicielle visionnaire, pour créer une nouvelle catégorie technologique pour répondre à ces limitations, appelée Big Memory Computing. Sans nécessiter de réécriture d’applications existantes, Big Memory Computing offre la catégorie la plus élevée de performances de persistance des données avec les services de données de classe entreprise nécessaires pour les charges de travail critiques en temps réel qui conduiront de plus en plus à une différenciation compétitive pour les entreprises transformées numériquement. »

Fan a réchauffé la mémoire des commentaires du Dr Goh il y a trois ans à l’ISC de Francfort.

« Cela correspond très bien à notre vision », a-t-il déclaré. «Nous ne sommes pas nouveaux avec cette vision. Les gens en rêvent depuis environ 20 ans. Mais maintenant, je pense qu’il y a une chance réaliste que cela devienne réalité. Même du point de vue d’un développeur HPC, imaginez si vous avez des centaines de téraoctets de mémoire accessibles par nœud informatique? Et toute cette mémoire est persistante et protégée? Et quelles possibilités supplémentaires vous avez pour développer vos simulations, vos analyses et vos calculs? Je pense que cela ouvre un nouveau monde, pour les gens aux frontières… en particulier pour ceux qui sont à la pointe. »

Catégories: Academia, AI / ML / DL, Datacenter, Financial Services, Government, Life Sciences, Networks, Slider: Cloud, Slider: Datacenter, Slider: Front Page, Slider: Software, Slider: Systems, Software, Systems

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *