Infrastructures

Une mémoire « computationnelle » pour assurer calcul et stockage

Share this post:

Le disque dur traditionnel est pris en étau entre le rouleau compresseur Flash et l’indétrônable bande qui commence à se faire une place sur les infrastructures de stockage des opérateurs de Cloud. Mais l’avenir devrait être plus disruptif, avec l’arrivée de la mémoire « computationnelle », qui rassemble calcul et stockage.

 

La mémoire Flash omniprésente

Le disque dur est aujourd’hui frontalement concurrencé par les unités de stockage Flash, qui grignotent rapidement ses parts de marché. Et pour cause ! À tarifs inchangés, la mémoire Flash propose une capacité en croissance constante. La mémoire récente enregistre en effet 4 bits par cellule, là où la génération précédente n’en inscrivait que 3. Cette nouvelle technologie est déjà utilisée dans des produits grand public, comme la gamme 860 QVO de Samsung.

IBM travaille à son adaptation aux spécificités du marché des entreprises. Elle est en effet délicate à exploiter, les composants acceptant un nombre limité d’écritures par cellule (et qui va en se réduisant à mesure que les cellules stockent plus d’informations). Il faut donc trouver des techniques pour augmenter la fiabilité, sans faire de compromis sur la capacité utile ou sur les performances. L’une des voies explorées consiste à placer une couche logicielle au-dessus des unités Flash, afin de les employer de manière plus intelligente. Une approche qui nécessite de disposer d’une expertise globale dans les systèmes de stockage.

 

La bande part à l’assaut du Cloud

Le disque dur est attaqué sur un autre front : l’enregistrement massif de données secondaires. Ses capacités de stockage arrivent à maturité et ne devraient plus progresser aussi rapidement que par le passé. Le disque dur doit faire face à une technologie dont la densité de stockage devrait croitre de plus de 30% chaque année, et avec un coût 10 fois inférieur : la bande.

IBM est aujourd’hui le seul spécialiste au monde à disposer d’équipes de recherche travaillant sur le futur de la bande. C’est aussi le seul acteur du marché à fabriquer des lecteurs de bandes (les autres constructeurs utilisant ces produits en OEM).  La raison de ce positionnement est simple : IBM est convaincu que la bande va rester le média le moins cher pour stocker des données secondaires.

Jusqu’alors, le marché de la bande était limité au backup. Tous les produits étaient conçus pour cet usage. IBM ne compte pas abandonner ce secteur, mais pense aussi aujourd’hui aux acteurs du monde du Cloud. La facture stockage de ces grandes entreprises tend en effet à exploser. Le coût de la bande positionne ce support comme une excellente alternative… moyennant quelques améliorations techniques en cours de développement.

 

Rendre la bande plus réactive grâce à l’IA

En effet, pour que la bande progresse dans le monde du Cloud, il est impératif de pouvoir accéder plus rapidement aux données stockées. Les librairies de bandes actuelles utilisent des robots, chargés d’insérer et de retirer les médias dans les lecteurs. L’Intelligence Artificielle (IA) peut aider à mieux organiser le travail des robots, et ainsi optimiser le temps d’accès aux données. En mettant en cache les informations à l’avance, il est possible d’y accéder sans latence.

L’IA va se charger de caractériser les données et d’examiner comment les utilisateurs y accèdent. Suivant les habitudes de chacun, l’IA mettra en cache les informations fréquemment accédées, ainsi que celles susceptibles d’être consultées ultérieurement. Une fois l’IA entrainée avec le jeu de données d’un client, la bande sera en mesure de combiner à la fois capacité, prix et vitesse. Particularité : cet apprentissage reste spécifique au système de stockage de l’opérateur de Cloud. Un élément qui lui permettra de fidéliser ses clients.

 

Rassembler calcul et stockage

Les avancées sur la mémoire Flash et sur la bande devraient se concrétiser d’ici 3 à 5 ans. Mais la suite se dessine déjà, avec la fusion entre calcul et stockage. Ceci se traduira par de nouveaux systèmes informatiques qui se rapprocheront davantage de notre source d’inspiration privilégiée : le cerveau.

Issu de millions d’années d’évolution et d’optimisation, le cerveau n’a pas choisi la voie consistant à séparer calcul et mémoire. Il en ira de même avec les systèmes informatiques du futur. Le transistor classique devrait céder la place au memristor, capable à la fois de stocker de l’information et d’y appliquer des opérations de base. C’est la mémoire computationnelle.

Ce travail de recherche a été détaillé  dans plusieurs publications scientifiques :

  • lors de la reconstruction d’une image compressée, un circuit de ce type a demandé 50 fois moins d’énergie que le meilleur composant dédié ;
  • sur de la corrélation de flux[1], la mémoire computationnelle s’est montrée 200 fois plus rapide qu’un système composé de deux processeurs et 4 GPUs haute-performance.

Le principe des neurones et synapses propre au cerveau devrait également être repris. Enfin, la dynamique des réseaux de neurones, qui transmettent des données par impulsion, sera aussi reproduite.

[1] Comparaison de jeux de données

 

Préparer le terrain pour la mémoire computationnelle

Il est essentiel de se préparer à l’arrivée de la mémoire computationnelle. Une tâche d’autant plus complexe que cette technologie fonctionne sur un mode analogique et non numérique. Il faudra donc aborder la problématique de la précision des calculs d’une manière différente.

Si des composants spécialisés ont déjà été testés avec succès, la mémoire computationnelle ne pourra prendre son essor que lorsqu’elle sera adaptée à des cas d’usage plus larges : IoT, IA, etc. IBM travaille d’ores et déjà à l’intégration de la mémoire computationnelle analogique dans les frameworks les plus courants relatifs à l’intelligence artificielle et au traitement de données.

Le stockage d’entreprise se concentre aujourd’hui sur les SSD, avec une montée notable de la bande. Demain, la mémoire computationnelle devrait permettre de lier stockage et calcul dans un tout nouveau type de système informatique.

 

Chef du département de recherches en Cloud & Computing Infrastructure au laboratoire d’IBM Research à Zurich.

More Infrastructures stories
3 juillet 2024

Intégration par design : la clé de la réussite de la transformation cloud

La transformation cloud est un processus complexe qui nécessite une planification méticuleuse et une exécution soignée pour réussir. Alors que les organisations se lancent dans la transformation du cloud, elles se concentrent souvent sur la migration des applications et des données vers le cloud, négligeant un aspect critique : l’intégration. L’un des défis majeurs que […]

Continue reading

14 juin 2024

Gestion de l’obsolescence logicielle : véritable enjeu pour la DSI et le business

Dans le paysage numérique actuel, les applications logicielles sont le pilier des entreprises modernes. Cependant, avec l’évolution rapide de la technologie, l’obsolescence logicielle est devenue un défi majeur pour les organisations. Les logiciels obsolètes peuvent entraîner des vulnérabilités de sécurité, des crashes système et une productivité réduite, affectant ainsi la performance commerciale et la compétitivité. […]

Continue reading

12 juin 2024

Simplifier les déclarations liées à la CSRD grâce aux nouvelles fonctionnalités d’IBM®Envizi™

IBM a le plaisir d’annoncer la prise en compte de la directive européenne (CSRD) dans le module « sustainability reporting manager » d’IBM® Envizi™. Cette considération aidera les entreprises à répondre aux exigences de reporting de la directive européenne (CSRD). La CSRD impose aux entreprises de fournir des informations et des indicateurs définis via les […]

Continue reading