La dernière technologie informatique qu'il faut voir pour croire
La loi de Moore, l'idée selon laquelle la quantité de puissance de calcul brute disponible pour un dollar a tendance à doubler tous les 18 mois environ, fait partie de la tradition informatique depuis 1965, lorsque Gordon Moore a observé la tendance pour la première fois et écrit un article à ce sujet. A l'époque, le “Loi” peu était une blague. 49 ans plus tard, personne ne rit.
À l’heure actuelle, les puces informatiques sont fabriquées selon une méthode de fabrication extrêmement raffinée, mais très ancienne. Des feuilles de cristaux de silicium très purs sont recouvertes de diverses substances, gravées à l'aide de faisceaux laser de haute précision, attaquées à l'acide, bombardées d'impuretés de haute énergie et galvanisées..
Plus de vingt couches de ce processus se produisent, construisant des composants à l'échelle nanométrique avec une précision qui est franchement ahurissante. Malheureusement, ces tendances ne peuvent pas durer éternellement.
Nous approchons rapidement du point où les transistors que nous gravons seront si petits que des effets quantiques exotiques empêcheront le fonctionnement de base de la machine. Il est généralement admis que les dernières avancées technologiques en informatique rencontreront les limites fondamentales du silicium vers 2020, lorsque les ordinateurs seront environ 16 fois plus rapides qu’aujourd’hui. Donc, pour que la loi de Moore poursuive sa tendance générale, nous devrons nous séparer du silicium comme nous le faisions avec les tubes à vide et commencer à construire des puces à l'aide de nouvelles technologies offrant davantage de possibilités de croissance..
4. puces neuromorphes
Alors que le marché de l'électronique évolue vers des technologies plus intelligentes qui s'adaptent aux utilisateurs et automatisent plus de travail intellectuel, de nombreux problèmes que les ordinateurs doivent résoudre sont centrés sur l'apprentissage et l'optimisation automatiques. Une technologie puissante utilisée pour résoudre ces problèmes est celle des «réseaux de neurones».
Les réseaux de neurones reflètent la structure du cerveau: ils ont des nœuds qui représentent les neurones et des connexions pondérées entre ces nœuds qui représentent les synapses. L'information circule dans le réseau, manipulée par les poids, afin de résoudre les problèmes. Des règles simples dictent la manière dont les poids entre les neurones changent, et ces changements peuvent être exploités pour produire un comportement d'apprentissage et intelligent. Ce type d'apprentissage est coûteux en calcul lorsqu'il est simulé par un ordinateur conventionnel.
Les puces neuromorphes tentent de résoudre ce problème en utilisant un matériel dédié spécialement conçu pour simuler le comportement et l'entraînement des neurones. De cette manière, une accélération énorme peut être obtenue, tout en utilisant des neurones qui se comportent davantage comme les vrais neurones du cerveau..
IBM et DARPA ont mené la charge de la recherche sur les puces neuromorphes via un projet appelé SyNAPSE, que nous avons déjà mentionné plus haut: Vous ne le croirez pas: la recherche future de DARPA sur des ordinateurs avancés La DARPA est l’une des parties les plus fascinantes et les plus secrètes du gouvernement américain. Voici quelques-uns des projets les plus avancés de la DARPA qui promettent de transformer le monde de la technologie. Lire la suite . Synapse a pour objectif final de construire un système équivalent à un cerveau humain complet, implémenté dans du matériel ne dépassant pas un véritable cerveau humain. A plus court terme, IBM envisage d’inclure des puces neuromorphes dans ses systèmes Watson afin d’accélérer la résolution de certains sous-problèmes de l’algorithme dépendant de réseaux de neurones..
Le système actuel d'IBM implémente un langage de programmation pour le matériel neuromorphique qui permet aux programmeurs d'utiliser des fragments pré-formés d'un réseau de neurones (appelés «corelets») et de les relier pour créer des machines robustes de résolution de problèmes. Vous n'aurez probablement pas de puces neuromorphes dans votre ordinateur pendant longtemps, mais vous utiliserez certainement des services Web utilisant des serveurs à puces neuromorphes dans quelques années seulement..
3. Cube de mémoire hybride micron
L'un des principaux goulots d'étranglement de la conception informatique actuelle est le temps nécessaire pour extraire les données de la mémoire sur laquelle le processeur doit travailler. Le temps nécessaire pour parler aux registres ultra-rapides dans un processeur est considérablement plus court que le temps nécessaire pour extraire des données de la RAM, ce qui est beaucoup plus rapide que l'extraction de données d'un disque dur lourd et en perte de vitesse..
Le résultat est que, souvent, le processeur est simplement obligé d'attendre de longues périodes pour que les données arrivent afin qu'il puisse effectuer la prochaine série de calculs. La mémoire cache du processeur est environ dix fois plus rapide que la RAM, et celle-ci est environ cent mille fois plus rapide que le disque dur. Autrement dit, si parler à la mémoire cache du processeur revient à marcher chez le voisin pour obtenir des informations, parler à la RAM revient à marcher sur plusieurs kilomètres jusqu'au magasin pour obtenir les mêmes informations: les obtenir à partir du disque dur, c'est comme marcher sur la lune.
La technologie Micron pourrait sortir de la progression régulière de la technologie de mémoire DDR conventionnelle en la remplaçant par sa propre technologie, qui empile les modules de mémoire vive en cubes et utilise des câbles à bande passante élevée pour accélérer la communication avec ces cubes. Les cubes sont construits directement sur la carte mère à côté du processeur (plutôt que d'être insérés dans des slots comme le RAM conventionnel). L'architecture de cube de mémoire hybride offre cinq fois plus de bande passante au processeur que le DDR4 à venir, et consomme 70% moins d'énergie. La technologie devrait frapper le marché des supercalculateurs au début de l’année prochaine, et le marché grand public quelques années plus tard..
2. Mémoire de stockage
Une approche différente pour résoudre le problème de mémoire consiste à concevoir une mémoire d'ordinateur qui présente l'avantage de plus d'un type de mémoire. En règle générale, les compromis avec la mémoire se résument au coût, à la vitesse d'accès et à la volatilité (la volatilité est la propriété du besoin d'un approvisionnement constant en énergie pour conserver les données stockées). Les disques durs sont très lents, mais peu coûteux et non volatils.
Ram est volatile, mais rapide et pas cher. Le cache et les registres sont volatils et très coûteux, mais aussi très rapides. La technologie la plus performante est non volatile, rapide d’accès et peu coûteuse à créer. En théorie, les memristors offrent un moyen de le faire.
Les memristors sont similaires aux résistances (dispositifs qui réduisent le flux de courant dans un circuit), avec la prise qu'ils ont en mémoire. Courez à travers eux dans un sens et leur résistance augmente. Courez le courant dans l'autre sens et leur résistance diminue. Le résultat est que vous pouvez construire des cellules de mémoire de type RAM haute vitesse, peu coûteuses et qui ne sont pas volatiles, et qui peuvent être fabriquées à moindre coût.
Cela soulève la possibilité que des blocs de RAM de la taille d'un disque dur stockant l'intégralité du système d'exploitation et du système de fichiers de l'ordinateur (par exemple, un énorme disque RAM non volatile. Qu'est-ce qu'un disque RAM? Comment définir un RAM? Disque et comment configurer un disque unique Les disques durs à semi-conducteurs ne sont pas le premier stockage non mécanique à apparaître dans les PC grand public. La RAM est utilisée depuis des décennies, mais principalement comme solution de stockage à court terme. La RAM rend… Lire la suite), tous accessibles à la vitesse de la RAM. Plus de disque dur. Pas plus marcher sur la lune.
HP a conçu un ordinateur utilisant la technologie memristor et une conception de base spécialisée, qui utilise la photonique (communication basée sur la lumière) pour accélérer la mise en réseau des éléments de calcul. Cet appareil (appelé “La machine”) est capable d'effectuer un traitement complexe sur des centaines de terrabytes de données en une fraction de seconde. La mémoire du memristor est 64-128 fois plus dense que la RAM conventionnelle, ce qui signifie que l'encombrement physique du périphérique est très faible - et que le shebang complet consomme beaucoup moins d'énergie que les salles de serveurs qu'il remplacerait. HP espère mettre sur le marché des ordinateurs basés sur The Machine dans les deux à trois prochaines années.
1. Processeurs de graphène
Le graphène est un matériau constitué de réseaux d'atomes de carbone fortement liés (similaires aux nanotubes de carbone). Il possède un certain nombre de propriétés remarquables, notamment une immense force physique et une quasi-supraconductivité. Il existe des dizaines d'applications potentielles pour le graphène, des ascenseurs spatiaux aux gilets pare-balles en passant par de meilleures batteries, mais celle qui est pertinente pour cet article est leur rôle potentiel dans les architectures informatiques..
Une autre façon de rendre les ordinateurs plus rapides, plutôt que de réduire la taille des transistors, consiste simplement à faire fonctionner ces transistors plus rapidement. Malheureusement, le silicium n'étant pas un très bon conducteur, une quantité importante de l'énergie envoyée par le processeur est convertie en chaleur. Si vous essayez de cadencer des processeurs au silicium bien au-dessus de neuf gigahertz, la chaleur interfère avec le fonctionnement du processeur. Le 9 gigahertz nécessite des efforts de refroidissement extraordinaires (impliquant dans certains cas de l'azote liquide). La plupart des puces grand public fonctionnent beaucoup plus lentement. (Pour en savoir plus sur le fonctionnement des processeurs informatiques classiques, consultez notre article Qu'est-ce qu'un processeur et que fait-il? Qu'est-ce qu'un processeur et que fait-il? Les acronymes informatiques prêtent à confusion. Qu'est-ce qu'un processeur? Et ai-je besoin d'un Processeur quadri ou dual-core? Qu'en est-il d'AMD ou d'Intel? Nous sommes là pour vous aider à expliquer la différence! Lisez plus sur le sujet).
Le graphène, en revanche, est un excellent conducteur. En théorie, un transistor en graphène peut atteindre les 500 GHz sans aucun problème de chaleur, et vous pouvez le graver de la même manière que le silicium. IBM a déjà gravé des puces de graphène analogiques simples à l’aide de techniques de lithographie traditionnelles. Jusqu'à récemment, le problème était double: premièrement, il est très difficile de fabriquer du graphène en grande quantité et deuxièmement, nous ne disposons pas d'un bon moyen de créer des transistors au graphène qui bloquent entièrement le flux de courant dans leur ' Etat.
Le premier problème a été résolu lorsque le géant de l'électronique Samsung a annoncé que son groupe de recherche avait découvert un moyen de produire en masse des cristaux de graphène entiers de haute pureté. Le deuxième problème est plus compliqué. Le problème est que, si la conductivité extrême du graphène le rend attractif du point de vue de la chaleur, il est également gênant de créer des transistors, des dispositifs destinés à arrêter de conduire des milliards de fois par seconde. Le graphène, contrairement au silicium, n'a pas de «bande interdite» - un débit de courant tellement faible que le matériau tombe à une conductivité nulle. Heureusement, il semble y avoir quelques options à cet égard.
Samsung a développé un transistor utilisant les propriétés d'une interface silicium-graphène afin de produire les propriétés souhaitées, et construit avec celui-ci un certain nombre de circuits logiques de base. Bien qu’il ne s’agisse pas d’un ordinateur à graphène pur, ce schéma permettrait de préserver bon nombre des effets bénéfiques du graphène. Une autre option pourrait être l'utilisation de la «résistance négative» pour construire un type de transistor différent, qui pourrait être utilisé pour construire des portes logiques qui fonctionnent à plus forte puissance, mais avec moins d'éléments..
Parmi les technologies présentées dans cet article, le graphène est le plus éloigné de la réalité commerciale. Il faudra peut-être une décennie pour que la technologie soit suffisamment mature pour remplacer réellement le silicium. Cependant, à long terme, il est très probable que le graphène (ou une variante du matériau) sera la colonne vertébrale de la plate-forme informatique du futur.
Les dix prochaines années
Notre civilisation et une grande partie de notre économie dépendent désormais profondément de la loi de Moore et d'énormes institutions investissent des sommes énormes pour tenter de prévenir sa fin. Un certain nombre d'améliorations mineures (telles que les architectures de puces 3D et l'informatique tolérante aux erreurs) aideront à maintenir la loi de Moore au-delà de son horizon théorique de six ans, mais ce genre de chose ne peut pas durer éternellement..
Au cours de la prochaine décennie, nous devrons faire le saut vers une nouvelle technologie et obtenir de l’argent intelligent sur le graphène. Ce changement va bouleverser sérieusement le statu quo de l’industrie informatique et gagner et perdre beaucoup de fortunes. Même le graphène n'est bien sûr pas une solution permanente. Il est très probable que, dans quelques décennies, nous nous retrouvions ici pour débattre de la nouvelle technologie à adopter, maintenant que nous avons atteint les limites du graphène..
Selon vous, quelle direction va prendre la dernière technologie informatique? Laquelle de ces technologies a, selon vous, les meilleures chances d’amener l’électronique et les ordinateurs au niveau supérieur??
Crédits d'image: Main féminine dans des gants antistatiques via Shutterstock
Explorez plus sur: CPU.