La Technologie des Chiplets e(s)t le Futur des Microarchitectures

Sommaire

1] Le déclin de la loi de Moore
2] L’Histoire récente d’Intel
3] La solution à ce problème de stagnance: les chiplets
4] Le marché moderne et la performance actuelle
5] Le futur des chiplets

 

Glossaire

Microchip/Chip - morceau de silicium comportant des transistors, lui donnant un aspect fonctionnel dans la
logique ou le traitement de données, ou exécution d’instructions.

 

Bande Passante - usuellement mesurée en GB/seconde, définit la quantité d’information qui
peut traverser une connection quelconque indiquée.

 

I/O - Interfaces, comme les controleurs memoire, PCIe, USB, etc…

 

GPU - Graphical Processing Unit, unité de calcul graphique. Le noyau de la carte graphique.
Comporte de nombreux coeurs de calcul à virgule flottante, des coeurs de texturisation, et de traitement
d’image spécialisé.

 

TDP - Enveloppe thermique d’un chip. Elle désigne combien de chaleur, en Watts, doit dégager
le système de refroidissement pour maintenir le chip opérationnel. Ne pas confondre avec la
consommation en électricité.

 

x86 - Architecture “moderne” utilisée dans la plupart des processeurs pour ordinateur de bureau,
indispensable pour certains systèmes opérationnels comme Windows ou Mac OS (sans compter les
versions pour IBM PowerPC).

 

nC/nT - Nombre de coeurs physiques / Nombre de threads d'exécution. La plupart des
processeurs modernes supportent jusqu’à deux canaux d'exécution par coeur physique, mais certains
processeurs dédiés aux tâches scientifiques peuvent en avoir jusqu’à 4 par coeur.

 

Socket - Emplacement physique pour le processeur. Different sockets accommodent différents
processeurs, et ont souvent un nombre de contacts différents allant à la carte mère.

 

Exécution parallèle - Manière d'exécuter deux flux d’instructions sur un seul coeur, appelée
Hyperthreading pour Intel, et SMT (Simultaneous Multi Threading) pour AMD.

 

Chipset - Contrôleur présent sur la carte mere, définit souvent le nombre de ports USB
disponibles, et des capabilités d’overclocking (augmentation de fréquence du processeur).

 

PCB - Printed Circuit Board. Circuit imprimé: plusieures couches de textalite avec des contacts
électriques en cuivre, souvent dorés pour améliorer la connection electrique

 

 

1] Le déclin de la loi de Moore

Pour les quatre dernières décennies, on peut constater que l’industrie suivait la “Loi de Moore”, qui constate que “le nombre de transistors incorporés dans un microprocesseur double tous les deux ans”.

 

Avec de grands progrès de la part de manufacturiers de silicium comme TSMC et Global Foundries, Samsung, et d’autres, la taille du transistor diminuait rapidement. Il y a seulement une douzaine d'années que l’on était encore à 65nm, ce qui parait énorme comparé à ce que produit Samsung aujourd'hui: 10nm, et ce que va produire Global Foundries et TSMC dans le futur proche: 7nm.

 

Bien sur, la taille indiquée par le fabricant en nm ne correspond pas toujours exactement à la taille fixe du transistor, le “7nm” des deux compagnies se rapproche plutôt de 10nm. Il y a toujours une part de marketing dans les technologies modernes.

 

La diminution en taille des transistors amène deux choses cruciales pour maintenir cette loi en vigueur: la possibilité de mettre plus de transistors sur un même espace, et une consommation d'énergie réduite lors de changement d'état. Le fait de pouvoir incorporer plus de transistors sur le microchip* donne des possibilités à augmenter le nombre de coeurs, donner des nouvelles instructions possibles, étendre la diversité ou bande passante* du I/O*, ou ajouter un autre type de processeur comme un GPU* ou un processeur dédié à la sécurité. Mais, la réduction en consommation énergétique par changement d’etat à aussi ses benefices: avoir une frequence plus elevee à la même consommation énergétique et enveloppe thermique (TDP)*, ce qui est important pour les consommateurs réguliers; ou une consommation d'énergie réduite à la même fréquence, ce qui est plus pertinent pour le marché des serveurs.

 

Mais, on avait déjà atteint certains plateaux en 2009, avec la seconde génération de processeurs Intel (Sandy Bridge): la fréquence maximale soutenue (à longue durée) atteint les 5GHz. Seulement maintenant, avec la neuvième génération, peut-on voir une fréquence nettement plus élevée, avec des records de 5.4GHz en utilisation prolongée.

 

De meme, ignorant les propositions de AMD (generation Excavator) qui avait un IPC* nettement plus bas et une architecture trop exotique pour le temps, il n’eut pas tellement de progrès pour le consommateur. On eut les mêmes i3 à 2C/4T, i5 à 4C/4T, et i7 4C/8T*. Seulement les produits haute gamme de chez Intel eurent évolution, mais toujours avec un prix élevé.

 

Ceci-dit, on peut constater que la loi de moore n’est plus applicable, pour les consommateurs, car le plateau de performance était présent jusqu’à la huitième génération de Intel (Coffee Lake). Pour comprendre les raisons, il faut élaborer sur l’histoire des processeurs récents de Intel.

 

 

2] L’Histoire récente d’Intel

Intel, depuis la première et deuxième génération d'Intel Core, suivait une stratégie de chips monolithiques, vendus aux trois marchés du x86*: le consommateur, le professionnel, et l’espace serveur. Bien sur, les trois pouvaient être vendus non-exclusivement à son segment du marché, il existe bien des processeurs de 4 coeurs vendus comme produits serveur, ce qui est parfaitement raisonnable dans certaines applications.

 

Les trois chips étaient désignés de manière suivante: LCC, HCC, et XCC. LCC pour Low Core Count, HCC pour High Core Count, et XCC pour Extreme Core Count. Généralement, le LCC ne bougeait pas: 4C/8T* au maximum, ce qui était vrai jusqu’à la septième génération. D’autre part, le HCC augmentait, étant de 6C/12T sur Sandy Bridge-E (2eme et 3eme génération), puis 10C/20T sur Broadwell-E (6ème génération), et 18C/36T avec Skylake-X (7ème generation). Note importante: le HCC était toujours une génération en arrière par rapport au LCC, avec la même nomination. Le i7 6700K et le i7 6900K sont deux générations différentes. C'était même le cas que la génération 3xxx avait une différence de taille de transistor entre le LCC et le HCC.

 

Une idée générale de ce que ces trois chips représentent peut être donné par la génération (skylake et Broadwell-E) 6xxx: LCC à 4C/8T, HCC à 10C/20T, et XCC à 16C/32T. En contraste, la génération “actuelle” est comprise de LCC à 10C/20T, HCC à 18C/36T, et XCC à 28C/56T, les trois chips sur des sockets* differents.

 

L’approche d’Intel est simple, et “traditionnelle”: faire trois chips monolithiques, et désactiver les coeurs avec défauts de silicium, et les revendre comme bas-de-gamme. Par exemple, le chip produit à 10 coeurs peut avoir 3 ou 4 défaillants, donc il est revendu comme processeur à 6 coeurs pour un prix plus bas que celui sans défauts.

 

Mais, avec cela, vient un grand problème: il faut créer des chips de plus en plus larges, ce qui est exponentiellement plus cher. Sandy Bridge-E, sur 32nm, 6C/12T avait une taille de 435mm^2, alors que le Skylake-X, 14nm, 28C/56T à une taille de 698mm^2.

 

Utilisant le calculateur de isine, on trouve qu'avec un wafer* de 450mm de diamètre, une densité de défauts à 0.1/cm^2, et un chip de 23*30mm (690mm^2), le rendement est de 52% (95 sur 181 bons chips). Bien sûr, cela implique qu’aucun défaut n’est présent sur le chip, donc la production d’un chip “parfait”; mais, il est presque toujours possible de désactiver des coeurs et vendre les chips comme bas de gamme (sauf si le défaut est sur le I/O ou un composant unique). D’autre part, le Sandy Bridge-E de 435mm^2, avec les mêmes paramètres, sauf la taille de 20*21mm (420mm^2) aurait un rendement de 66.7%, donc 207 sur 310 bons processeurs.

 

Depuis 2007, Intel suivait la méthode “tick-tock”: le “tick” représente un rétrécissement du transistor, et le “tock” une nouvelle architecture. On pouvait estimer à peu près 18 mois entre les étapes. Mais, avec le fait que faire un transistor plus petit est de plus en plus difficile, avec Intel ayant des problèmes à produire des wafers de 450mm en passant à 14nm, et encore plus de problèmes en passant à 10nm. Intel devait passer à 10nm déjà en 2016, mais ils ont récemment indiqué que le nouveau transistor devra attendre jusqu’en 2019.

 

La taille du transistor n'a pas changé depuis Skylake, donc la 6eme generation. Aujourd’hui, on est à la 9eme génération (Coffee Lake+), et donc 14nm++(+), car Kaby Lake (7xxx) est 14nm+, et Coffe Lake (8xxx) est 14nm++.

 

Les problèmes de production de 10nm persistent à tel point, que Intel ne sait pas si il serait viable de passer d’un procès extrêmement mature à un procès de fabrication “jeune”: il est possible que les gains initiaux seront minimaux, et donc non-justifiés pour les consommateurs.

 

Il existe néanmoins un processeur de 10nm (Canon Lake) vendu par Intel pour les PC portables: le i3 8121U pour le Lenovo IdeaPad. Par contre, les benchmarks montrent qu’il n’est ni mieux performant, ni moins consommateur en énergie, ce qui justifie la position d’Intel de rester sur 14nm(+++).

 

Parlant brièvement du concurrent, AMD, jusqu’à l'époque de Kaby Lake (7ème génération) n’avait rien de compétitif à proposer, au moins dans le segment haute performance. La série FX d’AMD peut être qualifiée de désastre en terme de ventes aux consommateurs, car même les processeurs bas de gamme comme les i3 et i5 battaient le FX 8350 dans certaines applications. De plus, le TDP était haut (95W contre 45W~54W avec lesquels Intel le battait).

 

Enfonçant encore plus les pauvres ventes, AMD n’avait pas de mind share*, de réputation, comme Intel avait: personne ne pensait à AMD quand ils pensaient aux processeurs. AMD était vu comme marque “bas de gamme”.

 

Enfin, le plus grand problème était l’architecture exotique qu’ils essayèrent d'implémenter: deux processeurs à entiers pour un processeur à virgule flottante (FPU) par coeur.

 

 

Crédit: presentation AMD

Traditionnellement, le processeur comportait un de chaque par coeur, et donc les développeurs devaient s’adapter pour faire bien fonctionner cette architecture.

Mais, AMD étant (trop) innovant, et n’ayant pas beaucoup de ressources, avait du mal à aider les développeurs à s’adapter à une telle architecture.

Côté serveur, d’autre part, les opterons furent un succès.

 

 

 

3] La solution à ce problème de stagnance: les chiplets

Depuis au moins un an pour les consommateurs, nous entrons dans un ère de combat d’architecture, et non de taille du transistor. Puis-ce que nous approchons de la taille limite du transistor sur le silicium, il faut bien trouver d’autres moyens de dépasser son concurrent.

 

C’est pour cela, que AMD a fait appel au talentueux Jim Keller, comme chef de design architectural, pour créer la nouvelle génération de processeurs. Il était fameux pour avoir créé la génération compétitive des Athlons x64. Et, après de nombreuses années de travail avec les ingénieurs AMD, a créé un… Athlon, mais avec une technologie révolutionnaire qui le propulsa dans les meilleures ventes de processeurs.

Ci-dessus est un “die shot” (représentation) de l’architecture Zen, vendue comme Ryzen, Threadripper, et Epyc de première génération pour les consommateurs. À première vue, c’est un processeur à 2x4 coeurs, donc 4 par CCX (Core Complex). Il supporte bien sur toutes les nouvelles technologie, comme l'exécution parallèle* SMT (Simultaneous Multi Threading), la DDR4, le PCIe 3.0 (bientôt 4.0 et 5.0), des composants dédiés à la sécurité, et l’I/O diverse.

 

Mais, la chose qui distingue ce processeur particulier des processeurs “traditionnels” est l'implémentation de la technologie de Infinity Fabric™, qui offre une communication à large bande passante entre CCX voisins, et même CCX sur d’autres morceaux de silicium.

 

Donc, le processeur Ryzen est 213mm^2, mais dans un seul socket, peut faire marcher jusqu’à 32 coeurs aujourd’hui, et (spéculativement mais à forte probabilité) 64 coeurs dans la génération suivante. Tout cela, sans produire des versions nettement différentes du chip (pour technologie ECC et sécurité renforcée).

 

Pour pouvoir faire cela, AMD incorpore 4 des mêmes chips Ryzen sur un seul substrat, et les laisse communiquer entre-eux. Ils sont, en effet, 4x4x2 processeurs distincts, mais visibles comme un seul à 32 coeurs à haut niveau, facilitant le développement (même si il faut quand même s’y ajuster). Bien sur, il existe des problèmes de latence entre CCX, mais cette latence baisse au cours des générations, et avec des solutions élaborées plus tard.

 

Pour comprendre pourquoi cette approche est meilleure, il faut voir le rendement de ce type de production. Donc, prenant (pour exemple) les mêmes wafers que Intel, avec une même densité de défauts, on peut estimer un rendement de 81% (525 bons sur 645), prenant une surface de 14*15mm (210mm^2). De même, il est toujours possible de désactiver des coeurs défaillants et quand même vendre les processeurs.

 

Pour cela, AMD n’est pas obligé de produire plusieurs chips différents pour satisfaire tous les segments du marché.

 

Crédit: presentation AMD

Ici, AMD présente entre un theorique processeur à 32 coeurs monolithique (gauche), et en chiplets (droite).

Même si la surface totale est plus grande à cause des contrôleurs redondants et marges, le coût est moindre car les chips eux-même sont plus petits.

 

(“Die” signifie le chip en silicium)

 

Une telle avancée en architecture demands beaucoup de ressources, c’est pourquoi AMD la développait depuis 2012, et a pu même avoir une augmentation en IPC de 53% comparé à Excavator (FX).

Crédit: presentation AMD

Ceci est une représentation 3D du produit serveur de AMD, où l’on peut en effet voir plusieurs morceaux de silicium distincts, connectés par un câblage dans le substrat lui-même.

 

 

 

 

4] Le marché moderne et la performance actuelle

Une telle technologie nouvelle à en effet des désavantages, qui sont néanmoins compensées par les avantages de l’architecture.

À cause de l’Infinity Fabric™, le processeur devient très dépendant de la fréquence mémoire vive (RAM), comme mesure par eTeknix:

 

 

 

 

 

Cette technologie à besoin de beaucoup de bande passante pour pouvoir fonctionner à pleine capacité. De même, il y a une latence entre CCX, et entre chips, ce qui est pas tellement affectant la performance en applications scientifiques et calculatoires, mais peut apparaître dans la performance des jeux vidéo.

 

Mais, l’argument est tel que Ryzen n’est pas taillé pour le jeu, il est plutôt destiné aux créateurs de contenu et streamers, professionnels 3D, monteurs vidéo, scientifiques, et plus lucrativement, au marché serveur. Mais, élaborons d’abord sur les consommateurs “réguliers”.

 

La première génération Ryzen sortit lors de la 7ème génération d’Intel: Kaby lake. Intel, au temps, proposait un maximum de 4C/8T à ~5GHz avec overclock, pour $339 ~ $350 (le i7 7700K). Alors qu’AMD proposait le Ryzen 1700, 8C/16T à ~4.0GHz avec overclock, pour $330.

 

Les processeurs comme le 1700X et 1800X peuvent etre ignorés, car le même overclock pouvait être atteint avec des cartes mères bas de gamme, chipset* B150 (~$130). Contrairement, la fonction du overclocking n'était disponible que sur des cartes mères haut de gamme chez Intel, Z170 ($200+).

 

La réception des nouveaux processeurs AMD fut très positive: enfin vint un concurrent pour agressivement prendre la part de marché que intel dominait depuis une décennie. Même si la performance dans les jeux était moindre que Intel (dans les cas où plus de 60 images par secondes était important), à cause de la fréquence plus basse et de l’IPC comparable à Broadwell, et que les jeux étaient plutôt optimisés pour du single-thread, et non du multi-thread.

 

Avec la venue de la seconde génération de Ryzen (non pas de l’architecture, mais du processeur) avec un transistor plus mature et sur 12nm au lieu de 14, AMD a pu prendre du marché de Intel, car les ventes en termes de processeurs pour consommateurs sont en faveur de AMD:

 

Data collecté par Mindsource.de

Graphe de processeurs vendus par architecture les 3 derniers mois en Allemagne

 

On peut bien voir que AMD engloutit le marché en terme de ventes brutes de processeurs, mais il opèrent à une marge plus basse ce qui fait que le revenu est plutôt à 50%/50% pour Intel/AMD.

 

Cette image-ci montre bien une montée en partage de marché en 1er quartier 2017, lors de la venue de la première génération de Ryzen.

 

De plus, la spéculation suggère que AMD pourrait atteindre les 30% en market share de l’espace serveur en 4eme quartier 2018, ce qui semble peu, mais il faut tenir en compte que le marché du serveur est très lucratif.

 

 

 

 

Il est estimé à $15.9 milliards, et 30% pourrait donner beaucoup plus d’argent pour investir autre part à AMD, comme le segment GPU, par exemple.

 

 

 

Face à une telle concurrence, Intel fit aussi des démarches pour combattre son concurrent, en augmentant d’abord le nombre de coeurs de 4 à 6 en LCC, et puis à 8 à la 9ème génération. De plus, ils ont poussé un produit qui n'était pas prêt à sortir si tôt: la 8ème génération. Les cartes mères moyenne gamme et bas de gamme n'étaient pas disponibles pour plusieurs mois, ayant le prix d’un processeur bas de gamme, ce qui ne’n justifiait pas l’achat. De plus, l’augmentation de deux coeurs sur les processeurs LCC, comme le i5 8400, tenait une fréquence plus basse en boost que ce qui était inscrit sur son descriptif, car les cartes mere bas de gamme ne pouvait lui délivrer l'énergie nécessaire. Mais, comme Intel le faisait et le fait encore, ils ont faussé les résultats en testant les processeurs sur des cartes mères haut de gamme, qui ne souffraient pas de tels problèmes.

 

Continuant dans leur pratique de fausser les résultats, payer ceux qu’il faut pour éviter l’adoption d’AMD, Intel décida de sortir la 9ème génération, et une critique d’un éditeur “indépendant”. Ils testèrent donc la 9ème génération (8C/16T) et trouvèrent que Intel était 50% plus performant. Ils arrivèrent à de tels résultats car ils utilisaient le “game mode” de AMD qui désactive 4 des 8 coeurs pour un boost plus stable. Ce fut bien sur un scandal, car quand les gens s’en aperçurent, ils réclamaient que le test soit fait dans des conditions qui ne défavorisaient pas AMD à un tel point. Donc, la conclusion est, à présent, que le i9 9900K est 12% plus rapide que le Ryzen 2700X, mais coûte 66% de plus.

 

Intel mentit aussi par rapport à leur processeur 28-core, à Computex 2017, où ils montrèrent qu’il pouvait soutenir 5GHz sur chaque coeur. Ils “oublièrent” de constater qu’il était hors de sa fréquence usuelle, et essayant de cacher le système de refroidissement de 1700W qui l’amenait à température sous-ambiante. Tout cela était pour voler le moment vedette d’AMD, qui devaient montrer leur processeur de la gamme Threadripper 2 à 32C/64T le jour suivant.

 

Bien sur, le public technique devint très sceptique de la première vue de la machine, mais les journalistes moins informés le rapportèrent comme vérité. Cela força AMD à cacher leur score Cinebench, que Intel utilisait aussi, car ils ne voulaient pas se voir battre avant que la vérité fut dévoilée. La desperation d’Intel est apparente, et cela continue à ces jours.

 

 

5] Le futur des chiplets

Quand même le géant Intel est intéressé par les chiplets, après tant d'années de processeurs monolithiques, on peut bien constater que les chiplets sont le futur.

 

Bien que l’approche initiale d’AMD est bonne, il y a des choses qui peuvent encore évoluer. On ne peut pas dire qu’ils ont désintégré le processeur en plusieurs parties, car chacun des processeurs peut vivre à lui-même: Threadripper 1 avait 2 des 4 chips désactivés. La spéculation indique, que la seconde génération de processeurs serveur d’AMD sera non 4 chips, non 8 chips, mais 9. Bien sur, 64 coeurs ne peuvent pas êtres séparés egalement en 9 parties, alors cela suggère qu’un des chips est différent des autres.

 

D’ici vient le vrai atout des chiplets: la désintégration. Elle consiste à séparer le processeur non seulement en plusieurs complexes de coeurs, mais aussi à séparer ses différents modules. Ce qui est estimé qui se passera (sources anonymes de l’industrie), est que il y aura bien 8 chips à coeurs, 8 chacun, sur 7nm; plus un chip de 16nm qui se charge de l’I/O. Il faut comprendre que, comparé aux coeurs, le I/O ne prends pas autant avantage que les coeurs de l’augmentation en performance des transistors. Elle est à un plafond que l’industrie n’a pas besoin d'élever, pour l’instant. Pour cela, il est tout à fait raisonnable de la fabriquer sur un procès plus mature, et moins cher.

 

Mais, se pose donc la question de la latence et bande passante entre chiplets. Le remède à ce problème est pas évident à première vue, mais très intéressant en termes de manufacture: utiliser un interposeur actif.

 

Dans cette génération de processeurs AMD, la connection entre chiplets est établie par le substrat, le PCB* vert du processeur. Cela pose un problème, du fait que l’on ne peut implémenter aucune logique transistoriale, même simple, dessus. Pour cela, entre en jeu l'interposeur actif: un morceau de silicium très large, sur lequel repose les autres modules, ou chiplets du processeur. Lui-même, ne doit pas être sur un procès récent: 65nm suffit amplement, et est pas cher ces jours-ci.

 

Sa fonction est de relier les chiplets avec certains aspects logiques dans l’interposeur lui-même, pour une logistique plus poussée, et avec moins de latence. On pourrait penser que cela augmente le coût drastiquement, mais cela est faux: son activité peut être de seulement quelques pourcents. Cela veut dire qu'une mineure partie du silicium comporte des liaisons et des transistors, et donc le risque qu’un défaut le rende inutilisable est extrêmement faible. De plus, pour contrer cela, la redondance n’ajoute pas beaucoup d'activité sur le chip, mitigant encore plus la probabilité de faillite de l’interposeur

Un exemple présent depuis 2015 d’une telle utilisation de silicium peut être vue (et achetée) dans les cartes Radeon R9 Fury (X) de AMD. C’est une carte graphique à l’architecture Fiji, même si destine plus aux application computationnellement lourdes comme le Deep Learning ou le rendu 3D, et non pas vraiment au jeu vidéo. C'était la première carte graphique à adopter la technologie du HBM (High-Bandwidth Memory), offrant une bande passante nettement plus large que le GDDR5, même si à fréquence moins élevée.

 

Cette technologie fut chère en elle-même, grâce à la haute demande et faible volume de manufacture. Mais, ce qui est important de retenir de ce cas spécifique, est que le géant GPU de 596mm^2 reposait, avec plusieurs morceaux de HBM, sur un interposeur de 1011mm^2. Il faut bien constater, que cet interposeur était très faiblement actif, et servait à connecter seulement le GPU à la mémoire HBM, mais montrait déjà le concept.

 

De plus, l’interposeur donne accès à des logistiques exotiques, et non seulement la répartition en mesh qu’utilisait probablement la carte Fiji (voir image ci-contre).

 

 

Les répartitions logistiques exotiques permettent une connection moins obfusquée par la communication entre autres

coeurs.

 

La répartition en “mesh” fait que si deux coeurs doivent communiquer, et que le chemin passe par les voies de commu

nication d’un autre coeur, bouchant et ralentissant le trafic d'information.

 

 

Alors que les autres systèmes délivrent une latence moins élevée pour la communication entre chiplets.

 

La quantité moyenne de hops (5eme colonne) indique combien de fois, en moyenne, le processeur doit agir sur les différentes parties de l’interposeur pour communiquer avec ses autres coeurs. On constate que la combinaison de plusieures topologies exotiques peut donner des resultats interessants, comme pour le torus plié en axe X, et le “donut à beurre” en axe X.

Enfin, le fait de séparer le processeur en complexes de coeurs peut avoir un grand effet sur la fréquence opérationnelle moyenne du processeur: si un des coeurs est limité à, disons 2.0GHz à 1.2V, et que les autres peuvent atteindre 2.3GHz en moyenne au même courant, le processeur devra malheureusement adopter la vitess du coeur le plus lent, dans un cas monolithique.

 

Alors que si les complexes de coeurs sont séparés et puis triés (sans tri, la séparation est inutile), on peut augmenter la moyenne fréquence des processeurs fabriqués.

Ceci est un graphe d’une étude (qui comprend aussi les recherches sur la logistique des interposeurs actifs), qui fabriqua un processeur à 64 coeurs démonstratif, pour comprendre les effets de la désintégration de l’architecture.

 

On peut observer que les processeurs fait à base de chiplets non triés, et à base de silicium monolithique ont une fréquence moyenne de 2.0GHz, alors que si on les trie, la moyenne monte aux alentours de 2.4GHz ~ 2.5GHz

 

 

En conclusion, on peut constater que la séparation du processeur en chiplets est bien le futur, car AMD le fait deja, Intel s’y intéresse, et des murmurs de GPU à base de chiplets flottent sur les forums technologiques (ce qui nécessiterait un énorme travail sur les drivers).

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *