Inscrivez-vous gratuitement à la Newsletter BFM Business
Des puces de 65, 45, puis 32 nm avant 2010. A cette finesse de gravure, les lois de la physique se rappellent au bon souvenir des fondeurs. Ils les contournent en mixant processeurs généralistes et spécialisées dans leurs
puces.
Tous les dix-huit à vingt-quatre mois, les processeurs accueillent deux fois plus de transistors et de fait, leur puissance double. Ainsi va la loi de Moore, règle quasi immuable du silicium depuis 1965. Il existe tout de même un
problème : plus on réduit la taille des puces et plus les phénomènes de surchauffe et de court-circuit sont amplifiés. Le précepte édicté par Moore se heurte, en effet, à d'autres lois bien plus anciennes : celles de la physique.Fondeurs et constructeurs s'engagent malgré tout dans une course à la puissance. Afin de contourner les obstacles de la physique, les fournisseurs poussent par conséquent leurs systèmes dans les derniers retranchements avec toujours
plus de vitesse d'horloge. Mais, impatients, concurrence oblige, ils ne se contentent plus de consommer ainsi la puissance, ils réinventent les architectures.
80 puces pour un c?"ur !
La grande tendance du moment : les puces qui hébergent des processeurs de natures différentes. IBM suit ce concept avec le Cell, développé avec les Japonais Sony et Toshiba. Mis au point pour la toute nouvelle console de jeux
Playstation 3, le Cell contient un moteur généraliste à base de PowerPC. Ce moteur pilote huit SPE (Synergistic Processor Element), des processeurs spécialisés annexes installées dans un même silicium. Un bus d'interconnexion unique relie ensuite
ces derniers au Power-PC, puis à la mémoire. Le processeur maître exécute la plupart des instructions, mais en se déchargeant des opérations les plus lourdes. Calcul, traitement du son ou de la vidéo sont ainsi confiés à des processeurs
spécialisés.Une architecture qui n'est pas sans rappeler celle du coprocesseur... Avec, cependant, une différence majeure : jadis, on ne confiait aux coprocesseurs que des tâches simples. Les SPE, eux, sont de véritables
microprocesseurs à traitement vectoriel. IBM ne réserve d'ailleurs pas la puissance du Cell aux aficionados des jeux. Il l'a installé dans des serveurs-lames, dont certains ont été testés au sein même du cinquième plus puissant supercalculateur du
monde, le MareNostrum de Barcelone.La mixité a même gagné les multic?"urs au rythme desquels nous vivons depuis les années 2000. La maîtrise du concept par Intel et AMD a aidé à imaginer des configurations atypiques. Quatre, huit, bientôt seize et même quatre-vingts
puces sur un même c?"ur... Ce n'est plus de la science-fiction.Intel propose déjà un quadric?"ur. Enfin, presque. Son Core2 Quad est en réalité un double double-c?"ur. Plus simple à mettre au point qu'un véritable quadric?"ur, il offre plus de puissance qu'un seul double c?"ur. Une
configuration qui comporte toutefois un inconvénient. Parce qu'elles passent par le contrôleur mémoire, les communications entre les c?"urs des deux doubles-c?"urs différents occupent davantage de bande passante. AMD prépare, lui aussi, son
quadric?"ur. Censé être natif - et donc plus performant -, son lancement est toutefois retardé (lire page 16). Sun, de son côté, propose toujours plus avec le Niagara-2. Celui-ci compte huit c?"urs capables d'exécuter chacun huit
séquences d'instructions ou threads. Son futur Rock, promis en fin 2008, passera à 16 puces.Une course à la puissance qui s'est encore accélérée, le mois dernier, avec Intel. Le géant mondial a exhibé 80 c?"urs sur une seule puce. Teraflop tire son nom de la puissance qu'elle déploie. Ce processeur ultra spécialisé cible
le calcul intensif. Il met déjà en exergue les questions soulevées par ces multic?"urs massifs. Même si l'on parle de nanosecondes, les puces installées au beau milieu du silicium communiquent moins rapidement avec la mémoire que celles qui
jouxtent l'extérieur. Une question sur laquelle les fondeurs devront se pencher.Et puisque le multic?"ur est bien là, ' pourquoi ne pas mixer des processeurs de générations différentes, de fréquences différentes ou voués à des fonctions différentes ? ',
imagine Jamel Tayeb, ingénieurs d'application chez Intel. AMD peaufine déjà l'idée avec son projet Fusion prévu pour 2009. Dans un même silicium, il associera des c?"urs spécialisés à ses processeurs généralistes. Au premier rang des candidats, il
place les accélérateurs graphiques (GPU), puisqu'il a acquis ATI en juillet 2006. Bien décidé à aller plus loin, mais conscient que chaque nouvelle architecture représente un coût de développement, AMD a aussi imaginé Torrenza. Cette puce est
capable d'accueillir n'importe quel processeur spécialisé réalisé par un autre constructeur, et la coupler avec les processeurs AMD.Toutefois, ces nouvelles puces vont donner bien du fil à retordre aux développeurs. Le multic?"ur à lui tout seul est un casse-tête. Les applications serveur, souvent mises au point pour plusieurs processeurs, sont déjà
' multithreads ' et prêtes à se jouer de plusieurs c?"urs. En revanche, sur le poste de travail, la situation est radicalement différente. Les systèmes d'exploitation savent bien exécuter l'antivirus
sur un c?"ur et l'indexation de fichiers sur l'autre. Mais un multiprocesseur nécessite des threads d'une taille plus modeste. Il suffit de se souvenir du passage en 32 bits pour imaginer le temps nécessaire afin d'obtenir un catalogue applicatif
de toutes ces puces.HP, de son côté, suit une autre voie en signant le grand retour des puces spécialisées ! Il s'est ainsi emparé d'un de ces anciens spécimens, et l'a remis au goût du jour : les FPGA (Field Programmable Gate Array). Ces
processeurs destinés à un usage précis à un moment donné ne sont pas aussi souples qu'un modèle généraliste, mais ils peuvent être reprogrammés pour un nouvel usage. En effet, ils sont constitués d'un ensemble de blocs logiques assemblables à
l'envi. L'avantage de HP avec son FPNI (Field-Programmable Nanowire Interconnect): c'est l'association avec les nanotechnologies. Il confie ainsi le routage du signal à une interconnexion crossbar de dimension nanométrique. Le prototype, présenté en janvier, et techniquement viable pour 2010, utilise des câbles de
15 nm de largeur. Ce commutateur, petit et performant, occupe d'autant moins d'espace qu'il est installé au-dessus de la puce. Les transistors sur le silicium, eux, ne s'occupent plus que de la logique.
30 000 transistors sur une tête d'épingle
Une course à la puissance et aux nouvelles architectures qui n'a, à ce jour, d'autre but que de contourner les lois de la physique - les dimensions de ces puces se rapprochent dangereusement de la taille de l'atome
(0,25 nm pour le silicium). Prévues respectivement en fin 2007 et 2008, Penryn et Nehalem, d'Intel, seront gravées en 45 nm comme la plupart des prochains siliciums du marché. De quoi installer 30 000 transistors sur une tête
d'épingle... et plusieurs centaines de millions sur un wafer. On passera ensuite à 32 nm. L'avenir est ouvert. ' Nous avons longtemps pensé que nous arriverions aux limites de l'ultraviolet profond pour la gravure et
qu'il faudrait utiliser les rayons X, rappelle Bernard Seité, directeur technique d'AMD France. Or, c'est avec l'ultraviolet qu'on atteint 65 nm, et bientôt 45 nm. Nous pouvons encore repousser l'utilisation des rayons
X. 'Dans ce monde infiniment petit, certaines contraintes physiques cachées jusque-là prennent de l'importance. C'est le cas des électrons qui s'échappent du silicium, par exemple ! Ces courants de fuite causent à la fois une perte
de puissance et une surconsommation. Or, plus la gravure est fine, plus l'isolant utilisé pour empêcher cette évasion doit être fin, lui aussi. Si fin parfois... qu'il en perd son étanchéité. Un comble. AMD et IBM utilisent de ce fait depuis
longtemps le matériau SOI (Silicon on Insulator). Il isole le substrat de silicium avec une couche de dioxyde de silicium ou de saphir. Intel est le premier à exploiter le highK Metal Gate, un isolant à la fois fin et efficace pour le futur Penryn.
IBM y travaille aussi avec AMD pour l'exploiter assez vite. Les matériaux ' highK ' supportent de fortes charges électriques et remplacent favorablement le dioxyde de silicium.
' Depuis toujours, c'est une question d'équilibre, nuance Jamel Tayeb, ingénieur d'application chez Intel. Au fur et à mesure que nous progressons, nous travaillons sur la réduction des courants de fuite
tout en essayant de trouver le bon compromis avec la vitesse de fonctionnement. Sur une puce, il n'est pas utile que tous les transistors aient les mêmes caractéristiques. 'e.delsol@01infomatique.presse.fr
Votre opinion