Type |
Composant électronique |
---|
Forme |
Sous forme de puce carrée ou anciennement en forme de barrette clipsable |
---|
Date |
---|
Utilisateur |
Presque tous les métiers actuellement |
---|
Un microprocesseur est l'unité de traitement de l'information, qui au sein d'un ordinateur exécute des instructions pour réaliser une tâche et dont tous les composants ont été suffisamment miniaturisés pour être regroupés dans un unique boîtier. Fonctionnellement, le processeur est la partie d'un ordinateur qui exécute les instructions et traite les données des programmes.
Jusqu'au début des années 1970, les différents composants électroniques nécessaires au fonctionnement d'un processeur ne pouvaient pas tenir sur un seul circuit intégré, ce qui nécessitait d'interconnecter de nombreux composants dont plusieurs circuits intégrés. En 1971, la société américaine Intel réussit, pour la première fois, à placer tous les composants qui constituent un processeur sur un seul circuit intégré, donnant ainsi naissance au microprocesseur[2].
Cette miniaturisation a permis :
Les principales caractéristiques d'un microprocesseur sont :
La combinaison des caractéristiques précédentes détermine la puissance du microprocesseur qui s’exprime en « millions d'instructions par seconde » (MIPS). Dans les années 1970, les microprocesseurs effectuaient moins d’un million d’instructions par seconde, alors qu’en 2007, les processeurs pouvaient effectuer plus de dix milliards d’instructions par seconde.
En 1969, le microprocesseur est inventé par un physicien d'Intel, Marcian Hoff (surnommé Ted Hoff)[4],[5],[6], et Federico Faggin, qui venait de le rejoindre, fort de recherches menées en Italie. Federico Faggin, physicien du solide italien est en 1968 chez Fairchild-SGS à Agrate Brianza[7], puis à Palo Alto avec Thomas Klein[7], le concepteur du premier circuit intégré commercial à grilles auto-alignées, le Fairchild 3708, puis chef de projet de la Silicon Gate Technology (SGT), la première méthode pratique pour la fabrication des circuits intégrés MOS (structure semi-conducteur/métal/oxyde) avec grilles auto-alignées, qui a remplacé la grille d'aluminium traditionnelle d'un transistor MOS par une grille en silicium, pour intégrer deux fois plus de transistors dans la même surface. Federico Faggin est embauché par Intel en [7], pour être le chef de projet, le créateur de la méthodologie de conception et le concepteur principal. En seulement quelques mois, avec Marcian Hoff, des quatre puces de l'Intel 4004, qui servit initialement à fabriquer des contrôleurs graphiques en mode texte, il conçut un processeur d'usage général, avec une licence achetée au japonais Busicom[7].
Marcian Hoff a formulé l'architecture du microprocesseur (une architecture de bloc et un jeu d'instructions). Le premier microprocesseur commercialisé, le , est l'Intel 4004 4 bits, suivi par l'Intel 8008 à 8 bits et qui servit initialement à fabriquer des contrôleurs graphiques en mode texte[8]. Jugé trop lent par le client qui en avait demandé la conception, il devint un processeur d'usage général.
Ces processeurs sont les précurseurs des Intel 8080, Zilog Z80, et de la future famille des Intel x86[9]. Federico Faggin est l'auteur d'une méthodologie de conception nouvelle pour la puce et la logique, fondée pour la première fois sur la technologie silicon gate développée par lui en 1968 chez Fairchild. Il a aussi dirigé la conception du premier microprocesseur jusqu'à son introduction sur le marché en 1971[10].
Presque à la même époque, la société américaine Motorola effectue des travaux et innovations similaires sous la direction de Chuck Peddle[11], venu de General Electric, où il avait conçu une caisse enregistreuse électronique, mais qui décide en 1970 d'abandonner son activité informatique. Il participe au développement du microprocesseur Motorola 6800, à 8 bits, vendu 300 US$, et qui va servir aux ordinateurs d'usage professionnel Goupil 1 et 2 de la société SMT.
Dans les années 1970, apparaissent les concepts de datagramme et d'informatique distribuée, avec Arpanet, le réseau Cyclades et la Distributed System Architecture, devenue en 1978 le modèle « OSI-DSA ». Le microprocesseur est très vite accueilli comme la pierre angulaire de cette informatique distribuée, car il permet de décentraliser le calcul, avec des machines moins coûteuses et moins encombrantes face au monopole IBM, produites en plus grande série.
En 1990, Gilbert Hyatt revendique la paternité du microprocesseur en se basant sur un brevet qu’il avait déposé en 1970[12]. La reconnaissance de l’antériorité du brevet de Hyatt aurait permis à ce dernier de réclamer des redevances sur tous les microprocesseurs fabriqués de par le monde, mais le brevet de Hyatt a été invalidé en 1995 par l’office américain des brevets, sur la base du fait que le microprocesseur décrit dans la demande de brevet n'avait pas été réalisé, et n'aurait d'ailleurs pas pu l'être avec la technologie disponible au moment du dépôt du brevet[13].
Le tableau suivant décrit les principales caractéristiques des microprocesseurs fabriqués par Intel, et montre leur évolution en termes de nombre de transistors, en miniaturisation des circuits, et en augmentation de puissance. Il faut garder à l'esprit que si ce tableau décrit l'évolution des produits d'Intel, l'évolution des produits des concurrents a suivi avec plus ou moins d'avance ou de retard la même marche.
Un programme informatique est, par essence, un flux d'instructions exécutées par un processeur. Chaque instruction nécessite un à plusieurs cycles d'horloge, l'instruction est exécutée en autant d'étapes que de cycles nécessaires. Les microprocesseurs séquentiels exécutent l'instruction suivante lorsqu'ils ont terminé l'instruction en cours. Dans le cas du parallélisme d'instructions, le microprocesseur pourra traiter plusieurs instructions dans le même cycle d'horloge, à condition que ces instructions différentes ne mobilisent pas simultanément une unique ressource interne. Autrement dit, le processeur exécute des instructions qui se suivent, et ne sont pas dépendantes l'une de l'autre, à différents stades d'achèvement. Cette file d'exécution à venir s'appelle un pipeline. Ce mécanisme a été implémenté la première fois dans les années 1960 par IBM. Les processeurs plus évolués exécutent en même temps autant d'instructions qu'ils ont de pipelines, ce à la condition que toutes les instructions à exécuter parallèlement ne soient pas interdépendantes, c'est-à-dire que le résultat de l'exécution de chacune d'entre elles ne modifie pas les conditions d'exécution de l'une des autres. Les processeurs de ce type sont appelés processeurs superscalaires. Le premier ordinateur à être équipé de ce type de processeur était le Seymour Cray CDC 6600 en 1965. Le Pentium est le premier des processeurs superscalaires pour compatible PC.
Les concepteurs de processeurs ne cherchent pas simplement à exécuter plusieurs instructions indépendantes en même temps, ils cherchent à optimiser le temps d'exécution de l'ensemble des instructions. Par exemple le processeur peut trier les instructions de manière que tous ses pipelines contiennent des instructions indépendantes. Ce mécanisme s'appelle l'exécution out-of-order. Ce type de processeur s'est imposé pour les machines grand public des années 1980 et aux années 1990[14]. L'exemple canonique de ce type de pipeline est celui d'un processeur RISC (Reduced instruction set computer), en cinq étapes. Le Intel Pentium 4 dispose de 35 étages de pipeline[15]. Un compilateur optimisé pour ce genre de processeur fournit un code qui sera exécuté plus rapidement.
Pour éviter une perte de temps liée à l'attente de nouvelles instructions, et surtout au délai de rechargement du contexte entre chaque changement de threads, les fondeurs[c] ont ajouté à leurs processeurs des procédés d'optimisation pour que les threads puissent partager les pipelines, les caches et les registres. Ces procédés, regroupés sous l'appellation simultaneous multithreading, ont été mis au point dans les années 1950. Par contre, pour obtenir une augmentation des performances, les compilateurs doivent prendre en compte ces procédés, il faut donc re-compiler les programmes pour ces types de processeurs. Intel a commencé à produire, début des années 2000, des processeurs implémentant la technologie SMT à deux voies. Ces processeurs, les Pentium 4, peuvent exécuter simultanément deux threads qui se partagent les mêmes pipelines, caches et registres. Intel a appelé cette technologie SMT à deux voies : l’hyper-threading. Le super-threading (en) est, quant à lui, une technologie SMT dans laquelle plusieurs threads partagent aussi les mêmes ressources, mais ces threads ne s'exécutent que l'un après l'autre et non simultanément[16].
Depuis longtemps déjà, existait l'idée de faire cohabiter plusieurs processeurs au sein d'un même composant, par exemple les System on Chip. Cela consistait, par exemple, à ajouter au processeur, un coprocesseur arithmétique, un DSP, voire un cache mémoire, éventuellement même l'intégralité des composants que l'on trouve sur une carte mère. Des processeurs multi-cœur utilisant deux ou quatre cœurs sont donc apparus, comme le POWER4 d'IBM sorti en 2001. Ils disposent des technologies citées préalablement. Les ordinateurs qui disposent de ce type de processeurs coûtent moins cher que l'achat d'un nombre équivalent de processeurs. Cependant, les performances ne sont pas directement comparables, cela dépend du problème traité. Des API spécialisées ont été développées afin de tirer parti au mieux de ces technologies, comme le Threading Building Blocks d'Intel.
Année | Nom | Nombre de transistors |
Finesse de gravure (nm) |
Nombre de cœurs | Fréquence de l'horloge | Largeur des données |
MIPS |
---|---|---|---|---|---|---|---|
1971 | Intel 4004 | 2 300 | 10 000 | 1 | 740 kHz | 4 bits/ bus 4 bits |
0,06 |
1974 | Intel 8080 | 6 000 | 6 000 | 1 | 2 MHz | 8 bits/ bus 8 bits |
0,64 |
1979 | Intel 8088 | 29 000 | 3 000 | 1 | 5 MHz | 16 bits/ bus 8 bits |
0,33 |
1982 | Intel 80286 | 134 000 | 1 500 | 1 | 6 à 16 MHz (20 MHz chez AMD) | 16 bits/ bus 16 bits |
1 |
1985 | Intel 80386 | 275 000 | 1 500 | 1 | 16 à 40 MHz | 32 bits/ bus 32 bits |
5 |
1989 | Intel 80486 | 1 200 000 (800 nm) | 1 000 à 800 | 1 | 16 à 100 MHz | 32 bits/ bus 32 bits |
20 |
1993 | Pentium (Intel P5) | 3 100 000 | 800 à 250 | 1 | 60 à 233 MHz | 32 bits/ bus 64 bits |
100 |
1997 | Pentium II | 7 500 000 | 350 à 250 | 1 | 233 à 450 MHz | 32 bits/ bus 64 bits |
300 |
1999 | Pentium III | 9 500 000 | 250 à 130 | 1 | 450 à 1 400 MHz | 32 bits/ bus 64 bits |
510 |
2000 | Pentium 4 | 42 000 000 | 180 à 65 | 1 | 1,3 à 3,8 GHz | 32 bits/ bus 64 bits |
1 700 |
2004 | Pentium 4 D (Prescott) | 125 000 000 | 90 à 65 | 1 | 2,66 à 3,6 GHz | 32 bits/ bus 64 bits |
9 000 |
2006 | Core 2 Duo (Conroe) | 291 000 000 | 65 | 2 | 2,4 GHz (E6600) | 64 bits/ bus 64 bits |
22 000 |
2007 | Core 2 Quad (Kentsfield) | 2*291 000 000 | 65 | 4 | 3 GHz (Q6850) | 64 bits/ bus 64 bits |
2*22 000 (?) |
2008 | Core 2 Duo (Wolfdale) | 410 000 000 | 45 | 2 | 3,33 GHz (E8600) | 64 bits/ bus 64 bits |
~24 200 |
2008 | Core 2 Quad (Yorkfield) | 2*410 000 000 | 45 | 4 | 3,2 GHz (QX9770) | 64 bits/ bus 64 bits |
~2*24 200 |
2008 | Intel Core i7 (Bloomfield) | 731 000 000 | 45 | 4 | 3,33 GHz (Core i7 975X) | 64 bits/ bus 64 bits |
82 300 |
2009 | Intel Core i5/i7 (Lynnfield) | 774 000 000 | 45 | 4 | 3,06 GHz (I7 880) | 64 bits/ bus 64 bits |
76 383 |
2010 | Intel Core i7 (Gulftown) | 1 170 000 000 | 32 | 6 | 3,47 GHz (Core i7 990X) | 64 bits/ bus 64 bits |
147 600 |
2011 | Intel Core i3/i5/i7 (Sandy Bridge) |
1 160 000 000 | 32 | 4 | 3,5 GHz (Core i7 2700K) | 64 bits/ bus 64 bits |
393 216 |
2011 | Intel Core i7/Xeon (Sandy Bridge-E) |
2 270 000 000 | 32 | 4 à 6 | 3,5 GHz (Core i7 3970X) | 64 bits/ bus 64 bits |
1 ou 2M |
2012 | Intel Core i3/i5/i7 (Ivy Bridge) |
1 400 000 000 | 22 | 4 à 6 | 3,5 GHz (Core i7 3770K) | 64 bits/ bus 64 bits |
|
2013 | Intel Core i3/i5/i7 (Haswell) | 1 400 000 000 | 22 | 4 à 6 | 3,8 GHz (Core i7 4770K) | 64 bits/ bus 64 bits |
|
2014 | Intel Core i3/i5/i7 (Broadwell) | 1 400 000 000 | 14 | 4 à 10 | 3,8 GHz (Core i7 5775R) | 64 bits/ bus 64 bits |
|
2015 | Intel Core i3/i5/i7 (Skylake) | 1 750 000 000 | 14 | 4 à 8 | 4 GHz (Core i7 6700K) | 64 bits/ bus 64 bits |
|
2016 | Intel Core i3/i5/i7 (Kaby Lake) |
? | 14 | 4 | 4,2 GHz (Core i7 7700K) | 64 bits/ bus 64 bits |
|
2017 | Intel Core i3/i5/i7 (Coffee Lake) |
? | 14 | 6 | 5,0 GHz (Core i7 8086K) | 64 bits/ bus 64 bits |
|
2019 | Intel Core i3/i5/i7 (Coffee Lake R) |
? | 14 | 8 | 5,0 GHz (Core i7 9900KS) | 64 bits/ bus 64 bits |
|
2019 | Intel Core i3/i5/i7 (Ice Lake) |
? | 10 | 4 | 4,1 GHz (Core i7-1068NG7) | 64 bits/ bus 64 bits |
|
2019 | Intel Core i3/i5/i7/i9 (Tiger Lake) |
? | 10 | 4 | 5,0 GHz (Core i7-11375H) | 64 bits/ bus 64 bits |
|
2020 | Intel Core i3/i5/i7/i9 (Comet Lake) |
? | 14 | 8 | 5,3 GHz (Core i9-10900K) | 64 bits/ bus 64 bits |
|
2021 | Intel Core i3/i5/i7/i9 (Rocket Lake) |
? | 14 | 8 | 5,3 GHz (Core i9-11900K) | 64 bits/ bus 64 bits |
|
2021 | Intel Core i3/i5/i7/i9 (Alder Lake) |
? | 10 | 8 + 8 | 5,3 GHz (Core i9-12900KS) | 64 bits/ bus 64 bits | |
2022 | Intel Core i3/i5/i7/i9 (Raptor Lake) |
? | 10 | 8 + 16 | 6,0 GHz (Core i9-13900KS) 6,2 GHz (Core i9-14900KS) |
64 bits/ bus 64 bits |
|
2023 | Intel Core Ultra 5/7/9 (Meteor Lake) |
? | 7 | 6 + 8 | 5,1 GHz (Core Ultra 9-185H) | 64 bits/ bus 64 bits |
|
2024 | Intel Core Ultra 5/7/9 (Lunar Lake) |
? | 3 | 4 + 4 | 5,1 GHz (Core Ultra 9-288V) | 64 bits/ bus 64 bits |
|
2025 | ? | ? | ? |
Les microprocesseurs sont habituellement regroupés en familles, en fonction du jeu d'instructions qu'ils exécutent. Si ce jeu d'instructions comprend souvent une base commune à toute la famille, les microprocesseurs les plus récents d'une famille peuvent présenter de nouvelles instructions. La rétrocompatibilité au sein d'une famille n'est donc pas toujours assurée. Par exemple un programme dit compatible x86 écrit pour un processeur Intel 80386[17], qui permet la protection mémoire, pourrait ne pas fonctionner sur des processeurs antérieurs, mais fonctionne sur tous les processeurs plus récents (par exemple un Core Duo d'Intel ou un Athlon d'AMD).
Il existe des dizaines de familles de microprocesseurs. Parmi celles qui ont été les plus utilisées, on peut citer :
Les microprocesseurs sont cadencés par un signal d'horloge (signal oscillant régulier imposant un rythme au transfert entre circuit). Au milieu des années 1980, ce signal avait une fréquence de 4 à 8 MHz. Dans les années 2000, cette fréquence atteint 3 GHz. Plus cette fréquence est élevée, plus le microprocesseur peut exécuter à un rythme élevé les instructions de base des programmes mais plus la qualité des bus doit être soignée et leur longueur adaptée à la fréquence.
L'augmentation de la fréquence présente des inconvénients :
L'overclocking consiste à appliquer au microprocesseur une fréquence du signal d'horloge supérieure aux recommandations du fabricant ce qui permet d'exécuter plus d'instructions à chaque seconde. Cela nécessite souvent plus de puissance d'alimentation au risque de dysfonctionnements voire de destruction en cas de surchauffe.
Les microprocesseurs actuels sont optimisés pour exécuter plus d'une instruction par cycle d'horloge, ce sont des microprocesseurs avec des unités d'exécution parallélisées. De plus ils sont dotés de procédures qui « anticipent » les instructions suivantes avec l'aide de la statistique.
Dans la course à la puissance des microprocesseurs, deux méthodes d'optimisation sont en concurrence :
Néanmoins, avec la diminution de la taille des transistors sur les puces et l'accélération des fréquences d'horloge, la distinction entre RISC et CISC a quasiment complètement disparu. Là où des familles tranchées existaient, on observe aujourd'hui des microprocesseurs où une structure interne RISC apporte de la puissance tout en restant compatible avec une utilisation de type CISC (la famille Intel x86 a ainsi subi une transition entre une organisation initialement très typique d'une structure CISC. Actuellement, elle utilise un cœur RISC très rapide, s'appuyant sur un système de réarrangement du code à la volée) mis en œuvre, en partie, grâce à des mémoires caches de plus en plus grandes, comportant jusqu'à trois niveaux.
L'unité centrale d'un microprocesseur comprend essentiellement :
Certains registres ont un rôle très particulier :
Seul le Program Counter est indispensable, il existe de (rares) processeurs ne comportant pas de registre d'état ou pas de pointeur de pile (par exemple le NS320xx (en)).
L'unité de contrôle peut aussi se décomposer :
Pour commencer, le microprocesseur va charger une instruction contenue en mémoire grâce au compteur de programme. Ce dernier est au passage incrémenté, afin que le processeur traite l'instruction suivante au prochain cycle. L'instruction est décodée et si nécessaire le microprocesseur va chercher en mémoire les données supplémentaires. Dans certains cas, des instructions servent uniquement à charger une donnée dans un registre précis ou à écrire une donnée d'un registre en mémoire. Dans ce cas, le processeur charge ou écrit la donnée puis passe à l'instruction suivante. Dans le cas où le processeur doit effectuer une opération de calcul, le processeur fait appel à l'ALU. Dans de nombreuses architectures, celle-ci fonctionne avec un registre accumulateur. Celui-ci enregistre le résultat de l'opération précédente, qui peut ensuite être réutilisé. Dans le cas d'un saut (goto, jump), c'est le compteur de programme qui est directement modifié. Dans le cas d'un saut conditionnel (if), le processeur vérifie avant le saut qu'une condition booléenne est valide (true). Dans certains sauts (jump), le processeur ajoute une valeur à l'accumulateur. Cela permet au programme d'être exécuté à n'importe quel endroit dans la mémoire. Les instructions se divisent donc en plusieurs catégories :
À la fin du cycle, le processeur finit de ranger ses données en mémoire ou dans les registres spécifiques. En cas de retenue, un registre spécial reçoit la valeur de la retenue, ce qui permet de le combiner à nouveau pour fonctionner avec plus de bits que ce que permet l'architecture. En cas d'erreur, comme une division par zéro, le processeur modifie un registre d'état et peut déclencher une interruption. Toutes ces étapes peuvent s’effectuer en plusieurs cycles d'horloge. Une optimisation consiste à les exécuter à la chaîne (principe du pipeline) ou en parallèle (architecture superscalaire). Actuellement, face à la difficulté liée à la montée en fréquence des microprocesseurs, les fabricants tentent d'augmenter le nombre d'instructions par cycle (IPC) afin d'augmenter la vitesse de leurs processeurs. Cela a conduit à l'apparition de processeurs multi-cœurs, composés de plusieurs unités, ou cœurs, capables d'exécuter une instruction indépendamment de l'autre (contrairement à une architecture superscalaire, qui conserve des registres en commun). On parle alors de « calcul en parallèle ». Néanmoins, cela nécessite des programmes adaptés et les performances de ces processeurs dépendent de plus en plus de la qualité de programmation des programmes qu'ils exécutent.
La fabrication d'un microprocesseur est essentiellement identique à celle de n'importe quel circuit intégré. Elle suit donc un procédé complexe. Mais l'énorme taille et complexité de la plupart des microprocesseurs a tendance à augmenter encore le coût de l'opération. La loi de Moore, qui indique que le nombre de transistors des microprocesseurs sur les puces de silicium double tous les deux ans, indique également que les coûts de production doublent en même temps que le degré d'intégration.
La fabrication des microprocesseurs est aujourd'hui considérée comme l'un des deux facteurs d'augmentation de la capacité des unités de fabrication (avec les contraintes liées à la fabrication des mémoires à grande capacité). La finesse de la gravure industrielle a atteint 45 nm en 2006[21]. En diminuant encore la finesse de gravure, les fondeurs se heurtent aux règles de la mécanique quantique.
Malgré l'usage de techniques de gravures de plus en plus fines, l'échauffement des microprocesseurs reste approximativement proportionnel au carré de leur tension à architecture donnée. Avec V la tension, f la fréquence, et k un coefficient d'ajustement, on peut calculer la puissance dissipée P :
Ce problème est lié à un autre, celui de la dissipation thermique et donc souvent des ventilateurs, sources de nuisances sonores. Le refroidissement liquide peut être utilisé. L'utilisation d'une pâte thermique assure une meilleure conduction de la chaleur du processeur vers le radiateur. Si l'échauffement ne pose pas de problème majeur pour des applications type ordinateur de bureau, il en pose pour toutes les applications portables. Il est techniquement facile d'alimenter et de refroidir un ordinateur fixe. Pour les applications portables, ce sont deux problèmes délicats. Le téléphone portable, l'ordinateur portable, l'appareil photo numérique, le PDA, le baladeur MP3 ont une batterie qu'il s'agit de ménager pour que l'appareil portable ait une meilleure autonomie.