1. Fréquence du processeur du serveur
La fréquence principale du processeur du serveur est également appelée fréquence d'horloge. L'unité est le MHz et est utilisée pour indiquer la vitesse de calcul du processeur. Fréquence principale du processeur = FSB × facteur de multiplication. Beaucoup de gens pensent que la fréquence principale détermine la vitesse de fonctionnement du processeur. Ce n'est pas seulement unilatéral, mais aussi pour les serveurs, cette compréhension est également biaisée. Jusqu'à présent, il n'existe pas de formule définitive permettant de réaliser la relation numérique entre la fréquence principale et la vitesse de calcul réelle. Même les deux principaux fabricants de processeurs, Intel et AMD, ont de grands différends sur ce point. Nous partons d'Intel en regardant les tendances de développement de produits. , on voit qu'Intel attache une grande importance au renforcement du développement de sa propre fréquence principale. Comme d'autres fabricants de processeurs, quelqu'un l'a un jour comparé à un processeur Transmeta 1G. Son efficacité de fonctionnement est équivalente à celle d'un processeur Intel 2G.
Par conséquent, la fréquence principale du CPU n'est pas directement liée à la puissance de calcul réelle du CPU. La fréquence principale indique la vitesse d'oscillation du signal d'impulsion numérique dans le CPU. Nous pouvons également en voir des exemples dans les processeurs Intel : les puces Itanium à 1 GHz peuvent fonctionner presque aussi vite que les Xeon/Opteron à 2,66 GHz, ou les puces Itanium 2 à 1,5 GHz sont à peu près aussi rapides que les Xeon/Opteron à 4 GHz. La vitesse de calcul du CPU dépend également des indicateurs de performances de divers aspects du pipeline du CPU.
Bien entendu, la fréquence principale est liée à la vitesse de calcul réelle. On peut seulement dire que la fréquence principale n'est qu'un aspect des performances du processeur et ne représente pas les performances globales du processeur.
2. Fréquence du bus frontal (FSB) du serveur
La fréquence du bus frontal (FSB) (c'est-à-dire la fréquence du bus) affecte directement la vitesse d'échange direct de données entre le processeur et la mémoire. Il existe une formule qui peut être calculée, c'est-à-dire bande passante des données = (fréquence du bus × bande passante des données)/8. La bande passante maximale de la transmission des données dépend de la largeur et de la fréquence de transmission de toutes les données transmises simultanément. Par exemple, le Xeon Nocona actuel qui prend en charge 64 bits dispose d'un bus frontal de 800 MHz. Selon la formule, sa bande passante maximale de transmission de données est de 6,4 Go/seconde.
La différence entre la fréquence FSB et FSB : La vitesse du FSB fait référence à la vitesse de transmission des données, et le FSB est la vitesse de fonctionnement synchrone entre le CPU et la carte mère. En d'autres termes, le FSB à 100 MHz fait spécifiquement référence au signal d'impulsion numérique oscillant dix millions de fois par seconde ; tandis que le bus frontal à 100 MHz fait référence à la quantité de transmission de données que le processeur peut accepter par seconde, soit 100 MHz × 64 bits × 8 octets. /bit=800 Mo/s.
En fait, l’émergence de l’architecture « HyperTransport » a modifié la fréquence réelle du bus frontal (FSB). Nous savions auparavant que l'architecture IA-32 devait comporter trois composants importants : le hub de contrôleur de mémoire (MCH), le hub de contrôleur d'E/S et le hub PCI, tels que les chipsets typiques d'Intel, Intel 7501 et Intel7505, qui sont des processeurs doubles Xeon. sur mesure. Le MCH qu'ils contiennent fournit au processeur une fréquence de bus frontal de 533 MHz. Avec la mémoire DDR, la bande passante du bus frontal peut atteindre 4,3 Go/seconde.
Cependant, à mesure que les performances du processeur continuent de s’améliorer, cela entraîne également de nombreux problèmes dans l’architecture du système. L'architecture "HyperTransport" résout non seulement le problème, mais améliore également plus efficacement la bande passante du bus, comme c'est le cas des processeurs AMD Opteron. L'architecture flexible du bus d'E/S HyperTransport lui permet d'intégrer le contrôleur de mémoire, de sorte que le processeur ne transmette pas de données. via le bus système. Le chipset échange des données directement avec la mémoire. Dans ce cas, je ne sais pas par où commencer pour parler de la fréquence du bus frontal (FSB) dans les processeurs AMD Opteron.
3. Processeur FSB
Le FSB est la fréquence de base du CPU et son unité est également le MHz. Le FSB du processeur détermine la vitesse de fonctionnement de l'ensemble de la carte mère. Pour parler franchement, sur les ordinateurs de bureau, ce que nous appelons l'overclocking fait référence à l'overclocking du FSB du processeur (bien sûr, dans des circonstances normales, le multiplicateur du processeur est verrouillé, je pense que cela est bien compris). Mais pour les CPU des serveurs, l'overclocking n'est absolument pas autorisé. Comme mentionné précédemment, le processeur détermine la vitesse de fonctionnement de la carte mère. Les deux fonctionnent de manière synchrone. Si le processeur du serveur est overclocké et que le FSB est modifié, un fonctionnement asynchrone se produira (de nombreuses cartes mères de bureau prennent en charge le fonctionnement asynchrone). serveur pour fonctionner de manière asynchrone. Instabilité du système.
Dans la plupart des systèmes informatiques actuels, le FSB est également la vitesse de fonctionnement synchrone entre la mémoire et la carte mère. De cette façon, on peut comprendre que le FSB du processeur est directement connecté à la mémoire pour obtenir un état de fonctionnement synchrone entre les deux. Il est facile de confondre FSB et fréquence FSB. Parlons de la différence entre les deux dans l’introduction suivante du FSB.
4. Bits du processeur et longueur des mots
Bit : le binaire est utilisé dans les circuits numériques et la technologie informatique, et les codes sont uniquement "0" et "1". Que "0" ou "1" soit un "bit" dans le processeur.
Longueur du mot : en informatique, le nombre de chiffres binaires que le processeur peut traiter simultanément par unité de temps (en même temps) est appelé longueur du mot. Par conséquent, un processeur capable de traiter des données d’une longueur de mot de 8 bits est généralement appelé processeur 8 bits. De la même manière, un processeur 32 bits peut traiter des données binaires d'une longueur de mot de 32 bits par unité de temps. La différence entre la longueur d'un octet et celle d'un mot : étant donné que les caractères anglais couramment utilisés peuvent être représentés par un binaire de 8 bits, 8 bits sont généralement appelés un octet. La longueur du mot n'est pas fixe et la longueur du mot est différente selon les processeurs. Un processeur 8 bits ne peut traiter qu'un octet à la fois, tandis qu'un processeur 32 bits peut traiter 4 octets à la fois. De même, un processeur 64 bits peut traiter 8 octets à la fois.
5. Coefficient de multiplication de fréquence
Le facteur de multiplication fait référence à la relation proportionnelle relative entre la fréquence principale du CPU et le FSB. Sous le même FSB, plus le multiplicateur de fréquence est élevé, plus la fréquence du processeur est élevée. Mais en fait, selon le principe du même FSB, un processeur à multiplicateur élevé en lui-même n'a que peu d'importance. En effet, la vitesse de transmission des données entre le processeur et le système est limitée. Un processeur qui recherche aveuglément des multiplicateurs élevés et obtient une fréquence principale élevée aura un effet de « goulot d'étranglement » évident : la vitesse maximale à laquelle le processeur obtient les données du système. ne peut pas satisfaire les exigences de vitesse de calcul du processeur. De manière générale, à l'exception des exemples d'ingénierie, les processeurs Intel ont des multiplicateurs verrouillés, mais AMD ne les a pas verrouillés auparavant.
6.Cache du processeur
La taille du cache est également l'un des indicateurs importants du processeur, et la structure et la taille du cache ont un impact important sur la vitesse du processeur. Le cache du processeur fonctionne à une fréquence extrêmement élevée, fonctionnant généralement à la même fréquence que le processeur. processeur, et son efficacité de fonctionnement est bien supérieure à celle de la mémoire système et du disque dur. Dans le travail réel, le processeur a souvent besoin de lire le même bloc de données à plusieurs reprises, et l'augmentation de la capacité du cache peut améliorer considérablement le taux de lecture des données dans le processeur sans avoir à les rechercher dans la mémoire ou le disque dur, améliorant ainsi le système. performance. . Cependant, en raison de facteurs tels que la surface et le coût de la puce CPU, le cache est très petit.
Le cache L1 (cache de niveau un) est le cache de premier niveau du processeur, qui est divisé en cache de données et cache d'instructions. La capacité et la structure du cache L1 intégré ont un impact plus important sur les performances du processeur. Cependant, la mémoire cache est composée de RAM statique et a une structure compliquée. Lorsque la zone de la puce du processeur ne peut pas être trop grande, la capacité. du cache L1 n'est pas suffisant. Probablement rendu trop gros. La capacité du cache L1 d'un processeur de serveur général est généralement de 32 à 256 Ko.
Le cache L2 (cache de deuxième niveau) est le cache de deuxième couche du processeur, qui est divisé en puces internes et externes. Le cache L2 interne sur puce fonctionne à la même vitesse que la fréquence principale, tandis que le cache L2 externe ne fonctionne qu'à la moitié de la fréquence principale. La capacité du cache L2 affectera également les performances du processeur. Le principe est que plus elle est grande, mieux c'est. La plus grande capacité du processeur domestique actuel est de 512 Ko, tandis que le cache L2 du processeur sur les serveurs et les postes de travail atteint 256 Ko. 1 Mo, et certains atteignent 2 Mo ou 3 Mo.
Le cache L3 (cache à trois niveaux) est divisé en deux types. Le premier était externe et les actuels sont intégrés. Son effet réel est que l'application du cache L3 peut réduire davantage la latence de la mémoire et améliorer les performances du processeur lors du calcul de grandes quantités de données. La réduction de la latence de la mémoire et l'amélioration des capacités de calcul de données volumineuses sont utiles pour les jeux. Dans le domaine des serveurs, l'ajout de cache L3 présente encore une amélioration significative des performances. Par exemple, une configuration avec un cache L3 plus grand utilisera la mémoire physique plus efficacement, de sorte qu'elle pourra gérer plus de demandes de données qu'un sous-système d'E/S disque plus lent. Les processeurs dotés de caches L3 plus grands offrent un comportement de cache du système de fichiers plus efficace et des longueurs de file d'attente de messages et de processeur plus courtes.
En fait, le premier cache L3 a été appliqué au processeur K6-III commercialisé par AMD. Le cache L3 à cette époque était limité par le processus de fabrication et n'était pas intégré à la puce, mais à la carte mère. Le cache L3, qui ne peut être synchronisé qu'avec la fréquence du bus système, n'est en réalité pas très différent de la mémoire principale. Plus tard, le cache L3 a été utilisé par le processeur Intel Itanium pour le marché des serveurs. Ensuite, il y a le P4EE et le Xeon MP. Intel prévoit également de lancer un processeur Itanium2 avec 9 Mo de cache L3, et plus tard un processeur Itanium2 double cœur avec 24 Mo de cache L3.
Mais au fond, le cache L3 n'est pas très important pour améliorer les performances du processeur. Par exemple, le processeur Xeon MP équipé de 1 Mo de cache L3 n'est toujours pas l'adversaire d'Opteron. On voit que l'augmentation du bus frontal. est plus efficace que l'augmentation du cache.
[Page coupée]
7. Jeu d'instructions étendu du processeur
Le processeur s'appuie sur des instructions pour calculer et contrôler le système. Chaque processeur est conçu avec une série de systèmes d'instructions qui correspondent à ses circuits matériels. La force des instructions est également un indicateur important du processeur. Le jeu d’instructions est l’un des outils les plus efficaces pour améliorer l’efficacité des microprocesseurs. À partir de l'architecture traditionnelle actuelle, le jeu d'instructions peut être divisé en deux parties : un jeu d'instructions complexe et un jeu d'instructions simplifié du point de vue d'applications spécifiques, telles que MMX (Multi Media Extended) d'Intel, SSE, SSE2 (Streaming-Single instruction multiple). data -Extensions 2), SEE3 et 3DNow! d'AMD sont tous des jeux d'instructions étendus du CPU, qui améliorent respectivement les capacités de traitement multimédia, graphique et Internet du CPU.
Nous appelons généralement le jeu d'instructions étendu du CPU le « jeu d'instructions du CPU ». Le jeu d'instructions SSE3 est également le plus petit jeu d'instructions actuellement, MMX contenait 57 commandes, SSE contenait 50 commandes, SSE2 contenait 144 commandes et SSE3 contenait 13 commandes. Actuellement, SSE3 est également le jeu d'instructions le plus avancé. Les processeurs Intel Prescott prennent déjà en charge le jeu d'instructions SSE3. AMD ajoutera la prise en charge du jeu d'instructions SSE3 aux futurs processeurs double cœur qui prendront également en charge ce jeu d'instructions.
8. Tension de fonctionnement du cœur du processeur et des E/S
À partir du 586CPU, la tension de fonctionnement du CPU est divisée en deux types : tension de base et tension d'E/S. Habituellement, la tension de base du CPU est inférieure ou égale à la tension d'E/S. La taille de la tension du cœur est déterminée en fonction du processus de production du processeur. Généralement, plus le processus de production est petit, plus la tension de fonctionnement du cœur est généralement de 1,6 à 5 V ; La basse tension peut résoudre les problèmes de consommation d’énergie excessive et de génération excessive de chaleur.
9. Processus de fabrication
Le micron du processus de fabrication fait référence à la distance entre les circuits au sein du circuit intégré. La tendance dans les processus de fabrication est vers une densité plus élevée. Les conceptions de circuits IC à plus haute densité signifient que les circuits intégrés de même taille peuvent avoir des conceptions de circuits avec une densité plus élevée et des fonctions plus complexes. Désormais, les principaux sont 180 nm, 130 nm et 90 nm. Récemment, des responsables ont déclaré qu'il existait un processus de fabrication en 65 nm.
10. Jeu d'instructions
(1)Jeu d'instructions CISC
Jeu d'instructions CISC, également connu sous le nom de jeu d'instructions complexe, le nom anglais est CISC (abréviation de Complex Instruction Set Computer). Dans un microprocesseur CISC, chaque instruction du programme est exécutée en série dans l'ordre, et les opérations de chaque instruction sont également exécutées en série dans l'ordre. L'avantage de l'exécution séquentielle est un contrôle simple, mais le taux d'utilisation des différentes parties de l'ordinateur n'est pas élevé et la vitesse d'exécution est lente. En fait, il s'agit du processeur de la série x86 (c'est-à-dire de l'architecture IA-32) produit par Intel et de ses processeurs compatibles, tels qu'AMD et VIA. Même le nouveau X86-64 (également appelé AMD64) appartient à la catégorie CISC.
Pour savoir ce qu'est un jeu d'instructions, nous devons commencer par le processeur d'architecture X86 actuel. Le jeu d'instructions X86 a été spécialement développé par Intel pour son premier processeur 16 bits (i8086). Le processeur du premier PC au monde, le i8088 (version simplifiée du i8086), lancé par IBM en 1981, utilisait également des instructions X86. l'ordinateur La puce X87 a été ajoutée pour améliorer les capacités de traitement des données en virgule flottante. Désormais, le jeu d'instructions X86 et le jeu d'instructions X87 seront collectivement appelés jeu d'instructions X86.
Bien qu'avec le développement continu de la technologie CPU, Intel a successivement développé de nouveaux i80386, i80486, jusqu'aux précédents PII Xeon, PIII Xeon, Pentium 3, et enfin à la série Pentium 4 actuelle, Xeon (à l'exclusion de Xeon Nocona), mais afin de Pour garantir que l'ordinateur peut continuer à exécuter diverses applications développées dans le passé pour protéger et hériter de riches ressources logicielles, tous les processeurs produits par Intel continuent d'utiliser le jeu d'instructions X86, de sorte que ses processeurs appartiennent toujours à la série X86. Étant donné que la série Intel X86 et ses processeurs compatibles (tels que AMD Athlon MP) utilisent tous le jeu d'instructions X86, la vaste gamme actuelle de séries X86 et de processeurs compatibles a été constituée. Le x86CPU comprend actuellement principalement le processeur du serveur Intel et le processeur du serveur AMD.
(2)Jeu d'instructions RISC
RISC est l'abréviation de « Reduced Instruction Set Computing » en anglais, qui signifie « jeu d'instructions réduit » en chinois. Il a été développé sur la base du système d'instructions CISC. Quelqu'un a testé la machine CISC et a montré que la fréquence d'utilisation des différentes instructions est très différente. Les instructions les plus couramment utilisées sont des instructions relativement simples, qui ne représentent que 20 % des instructions. nombre total d'instructions Mais la fréquence d'apparition dans le programme représente 80 %. Un système d’instructions complexe augmentera inévitablement la complexité du microprocesseur, rendant le développement du processeur long et coûteux. Et les instructions complexes nécessitent des opérations complexes, ce qui réduira inévitablement la vitesse de l’ordinateur. Pour les raisons ci-dessus, les processeurs RISC sont nés dans les années 1980. Par rapport aux processeurs CISC, les processeurs RISC ont non seulement rationalisé le système d'instructions, mais ont également adopté ce qu'on appelle une « structure superscalaire et super-pipeline », qui a considérablement augmenté les capacités de traitement parallèle.
Le jeu d'instructions RISC est la direction de développement des processeurs hautes performances. Il s’oppose au CISC (Complex Instruction Set) traditionnel. En comparaison, RISC a un format d'instruction unifié, moins de types et moins de méthodes d'adressage que les jeux d'instructions complexes. Bien entendu, la vitesse de traitement est grandement améliorée. À l'heure actuelle, les processeurs dotés de ce système d'instructions sont couramment utilisés dans les serveurs de milieu à haut de gamme, en particulier les serveurs haut de gamme qui utilisent tous des processeurs dotés du système d'instructions RISC. Le système d'instructions RISC est plus adapté à UNIX, le système d'exploitation des serveurs haut de gamme. Désormais, Linux est également un système d'exploitation de type UNIX. Les processeurs de type RISC ne sont pas compatibles avec les processeurs Intel et AMD au niveau logiciel et matériel.
À l'heure actuelle, les processeurs qui utilisent les instructions RISC dans les serveurs milieu à haut de gamme incluent principalement les catégories suivantes : processeurs PowerPC, processeurs SPARC, processeurs PA-RISC, processeurs MIPS et processeurs Alpha.
(3)IA-64
Il y a eu beaucoup de débats quant à savoir si l'EPIC (Explicitly Parallel Instruction Computers) est le successeur des systèmes RISC et CISC. En prenant le système EPIC seul, il s'agit plutôt d'une étape importante pour les processeurs Intel de passer au système RISC. Théoriquement, le processeur conçu par le système EPIC peut bien mieux gérer les logiciels d'application Windows que les logiciels d'application basés sur Unix dans la même configuration hôte.
Le processeur du serveur Intel utilisant la technologie EPIC est Itanium (nom de code de développement : Merced). Il s'agit d'un processeur 64 bits et le premier de la série IA-64. Microsoft a également développé un système d'exploitation nommé Win64 et le prend en charge dans le logiciel. Après qu'Intel ait adopté l'ensemble, l'architecture IA-64 utilisant le jeu d'instructions EPIC est née. IA-64 constitue une énorme amélioration par rapport à x86 à bien des égards. Il dépasse de nombreuses limites de l'architecture IA32 traditionnelle et réalise des améliorations révolutionnaires en termes de capacités de traitement des données, de stabilité du système, de sécurité, de convivialité et de rationalité considérable.
Le plus gros défaut des microprocesseurs IA-64 est leur manque de compatibilité avec x86. Afin que les processeurs IA-64 d'Intel puissent mieux exécuter les logiciels de deux générations, la société a utilisé des processeurs IA-64 (Itanium, Itanium2... ) introduit le x86. -décodeur vers IA-64, qui peut traduire les instructions x86 en instructions IA-64. Ce décodeur n'est pas le décodeur le plus efficace, ni le meilleur moyen d'exécuter du code x86 (le meilleur moyen est d'exécuter du code x86 directement sur le processeur x86), donc les performances d'Itanium et Itanium2 lors de l'exécution d'applications x86 sont très mauvaises. C'est également devenu la raison fondamentale de l'émergence du X86-64.
(4)X86-64 (AMD64/EM64T)
Conçu par AMD, il peut gérer simultanément des opérations sur des entiers 64 bits et est compatible avec l'architecture X86-32. Il prend en charge l'adressage logique 64 bits et offre la possibilité de convertir en adressage 32 bits ; cependant, les instructions d'opération de données sont par défaut en 32 bits et 8 bits, et offre l'option de conversion en 64 bits et 16 bits ; prend en charge les registres à usage général, s'il s'agit d'une opération 32 bits, il est nécessaire d'étendre le résultat à 64 bits complets. De cette façon, il y a une différence entre « exécution directe » et « exécution de conversion » dans l'instruction. Le champ d'instruction est de 8 bits ou 32 bits, ce qui peut éviter que le champ soit trop long.
La création du x86-64 (également appelé AMD64) n'est pas sans fondement. L'espace d'adressage 32 bits des processeurs x86 est limité à 4 Go de mémoire et les processeurs IA-64 ne sont pas compatibles avec x86. AMD prend pleinement en compte les besoins des clients et améliore les fonctions du jeu d'instructions x86 afin que ce jeu d'instructions puisse prendre en charge les modes de calcul 64 bits en même temps. C'est pourquoi AMD appelle leur structure x86-64. Techniquement, afin d'effectuer des opérations 64 bits dans l'architecture x86-64, AMD a introduit un nouveau registre à usage général R8-R15 en tant qu'extension de l'utilisation originale de ces registres. Les registres originaux tels que EAX et EBX ont également été étendus de 32 bits à 64 bits. Huit nouveaux registres ont été ajoutés à l'unité SSE pour prendre en charge SSE2. L'augmentation du nombre de registres entraînera des améliorations des performances. Dans le même temps, afin de prendre en charge les codes et registres 32 et 64 bits, l'architecture x86-64 permet au processeur de fonctionner dans les deux modes suivants : Long Mode (mode long) et Legacy Mode (mode génétique). Le mode long est divisé en deux sous-modes : Mode (mode 64 bits et mode Compatibilité). La norme a été introduite dans les processeurs de serveur Opteron d'AMD.
Cette année, la technologie EM64T prenant en charge le 64 bits a également été lancée. Avant d'être officiellement nommée EM64T, il s'agissait de IA32E. C'est le nom de la technologie d'extension 64 bits d'Intel pour distinguer le jeu d'instructions X86. L'EM64T d'Intel prend en charge le sous-mode 64 bits, similaire à la technologie X86-64 d'AMD. Il utilise un adressage plan linéaire 64 bits, ajoute 8 nouveaux registres à usage général (GPR) et ajoute 8 registres pour prendre en charge les instructions SSE. Semblable à AMD, la technologie 64 bits d'Intel sera compatible avec IA32 et IA32E ne sera utilisée que lors de l'exécution d'un système d'exploitation 64 bits. IA32E sera composé de 2 sous-modes : le sous-mode 64 bits et le sous-mode 32 bits, qui sont rétrocompatibles avec AMD64. L'EM64T d'Intel sera entièrement compatible avec la technologie X86-64 d'AMD. Désormais, le processeur Nocona a ajouté une technologie 64 bits, et le processeur Intel Pentium 4E prend également en charge la technologie 64 bits.
Il faut dire que les deux sont des architectures de microprocesseurs 64 bits compatibles avec le jeu d'instructions x86, mais il existe encore quelques différences entre EM64T et AMD64. Le bit NX du processeur AMD64 ne sera pas fourni dans les processeurs Intel.
11. Superpipeline et superscalaire
Avant d'expliquer le superpipeline et le superscalaire, comprenons d'abord le pipeline. Le pipeline a été utilisé pour la première fois par Intel dans la puce 486. La chaîne de montage fonctionne comme une chaîne de montage dans la production industrielle. Dans la CPU, un pipeline de traitement d'instructions est composé de 5 à 6 unités de circuit avec différentes fonctions, puis une instruction X86 est divisée en 5 à 6 étapes puis exécutée par ces unités de circuit respectivement, de sorte qu'une instruction puisse être complétée en une seule fois. Cycle d'horloge du processeur, augmentant ainsi la vitesse de calcul du processeur. Chaque pipeline d'entiers du Pentium classique est divisé en quatre niveaux de pipeline, à savoir la prélecture des instructions, le décodage, l'exécution et la réécriture des résultats. Le pipeline à virgule flottante est divisé en huit niveaux de pipeline.
Superscalar utilise plusieurs pipelines intégrés pour exécuter plusieurs processeurs en même temps. Son essence est d'échanger de l'espace contre du temps. Le super pipeline consiste à effectuer une ou plusieurs opérations en un seul cycle machine en affinant le pipeline et en augmentant la fréquence principale. Son essence est d'échanger du temps contre de l'espace. Par exemple, le pipeline du Pentium 4 compte jusqu'à 20 étages. Plus les étapes (étapes) du pipeline sont conçues, plus il peut exécuter une instruction rapidement, afin qu'il puisse s'adapter aux processeurs avec des fréquences de fonctionnement plus élevées. Cependant, un pipeline trop long entraîne également certains effets secondaires. Il est très probable que la vitesse de calcul réelle d'un processeur doté d'une fréquence plus élevée soit inférieure. C'est le cas du Pentium 4 d'Intel, même si sa fréquence principale peut être aussi élevée. 1,4G ou plus, mais ses performances informatiques sont bien inférieures à l'Athlon 1,2G d'AMD ou même au Pentium III.
12. Formulaire de colis
L'emballage du processeur est une mesure de protection qui utilise des matériaux spécifiques pour solidifier la puce du processeur ou le module du processeur afin d'éviter tout dommage. Généralement, le processeur doit être emballé avant de pouvoir être livré à l'utilisateur. La méthode d'empaquetage du processeur dépend de la forme d'installation du processeur et de la conception d'intégration du périphérique. D'un point de vue général de classification, les processeurs généralement installés à l'aide de sockets Socket sont empaquetés à l'aide de PGA (grid array), tandis que les processeurs installés à l'aide d'emplacements Slot x sont tous empaquetés. en utilisant la forme d'emballage SEC (boîte de jonction simple face). Il existe également des technologies de packaging telles que PLGA (Plastic Land Grid Array) et OLGA (Organic Land Grid Array). En raison d'une concurrence de plus en plus féroce sur le marché, l'orientation actuelle du développement de la technologie de conditionnement des processeurs est principalement la réduction des coûts.
7. Jeu d'instructions étendu du processeur
Le CPU s'appuie sur des instructions pour calculer et contrôler le système. Chaque CPU est conçu avec une série de systèmes d'instructions qui correspondent à ses circuits matériels. La force des instructions est également un indicateur important du processeur. Le jeu d’instructions est l’un des outils les plus efficaces pour améliorer l’efficacité des microprocesseurs. À partir de l'architecture traditionnelle actuelle, le jeu d'instructions peut être divisé en deux parties : un jeu d'instructions complexe et un jeu d'instructions simplifié du point de vue d'applications spécifiques, telles que MMX (Multi Media Extended) d'Intel, SSE, SSE2 (Streaming-Single instruction multiple). data -Extensions 2), SEE3 et 3DNow! d'AMD sont tous des jeux d'instructions étendus du CPU, qui améliorent respectivement les capacités de traitement multimédia, graphique et Internet du CPU.
Nous appelons généralement le jeu d'instructions étendu du CPU le « jeu d'instructions du CPU ». Le jeu d'instructions SSE3 est également le plus petit jeu d'instructions actuellement, MMX contenait 57 commandes, SSE contenait 50 commandes, SSE2 contenait 144 commandes et SSE3 contenait 13 commandes. Actuellement, SSE3 est également le jeu d'instructions le plus avancé. Les processeurs Intel Prescott prennent déjà en charge le jeu d'instructions SSE3. AMD ajoutera la prise en charge du jeu d'instructions SSE3 aux futurs processeurs double cœur qui prendront également en charge ce jeu d'instructions.
8. Tension de fonctionnement du cœur du processeur et des E/S
À partir du 586CPU, la tension de fonctionnement du CPU est divisée en deux types : tension de base et tension d'E/S. Habituellement, la tension de base du CPU est inférieure ou égale à la tension d'E/S. La taille de la tension du cœur est déterminée en fonction du processus de production du processeur. Généralement, plus le processus de production est petit, plus la tension de fonctionnement du cœur est généralement de 1,6 à 5 V ; La basse tension peut résoudre les problèmes de consommation d’énergie excessive et de génération excessive de chaleur.
9. Processus de fabrication
Le micron du processus de fabrication fait référence à la distance entre les circuits au sein du circuit intégré. La tendance dans les processus de fabrication est vers une densité plus élevée. Les conceptions de circuits IC à plus haute densité signifient que les circuits intégrés de même taille peuvent avoir des conceptions de circuits avec une densité plus élevée et des fonctions plus complexes. Désormais, les principaux sont 180 nm, 130 nm et 90 nm. Récemment, des responsables ont déclaré qu'il existait un processus de fabrication en 65 nm.
10. Jeu d'instructions
(1)Jeu d'instructions CISC
Jeu d'instructions CISC, également connu sous le nom de jeu d'instructions complexe, le nom anglais est CISC (abréviation de Complex Instruction Set Computer). Dans un microprocesseur CISC, chaque instruction du programme est exécutée en série dans l'ordre, et les opérations de chaque instruction sont également exécutées en série dans l'ordre. L'avantage de l'exécution séquentielle est un contrôle simple, mais le taux d'utilisation des différentes parties de l'ordinateur n'est pas élevé et la vitesse d'exécution est lente. En fait, il s'agit du processeur de la série x86 (c'est-à-dire de l'architecture IA-32) produit par Intel et de ses processeurs compatibles, tels qu'AMD et VIA. Même le nouveau X86-64 (également appelé AMD64) appartient à la catégorie CISC.
Pour savoir ce qu'est un jeu d'instructions, nous devons commencer par le processeur d'architecture X86 actuel. Le jeu d'instructions X86 a été spécialement développé par Intel pour son premier processeur 16 bits (i8086). Le processeur du premier PC au monde, le i8088 (version simplifiée du i8086), lancé par IBM en 1981, utilisait également des instructions X86. l'ordinateur La puce X87 a été ajoutée pour améliorer les capacités de traitement des données en virgule flottante. Désormais, le jeu d'instructions X86 et le jeu d'instructions X87 seront collectivement appelés jeu d'instructions X86.
Bien qu'avec le développement continu de la technologie CPU, Intel a successivement développé de nouveaux i80386, i80486, jusqu'aux précédents PII Xeon, PIII Xeon, Pentium 3, et enfin à la série Pentium 4 actuelle, Xeon (à l'exclusion de Xeon Nocona), mais afin de Pour garantir que l'ordinateur peut continuer à exécuter diverses applications développées dans le passé pour protéger et hériter de riches ressources logicielles, tous les processeurs produits par Intel continuent d'utiliser le jeu d'instructions X86, de sorte que ses processeurs appartiennent toujours à la série X86. Étant donné que la série Intel X86 et ses processeurs compatibles (tels que AMD Athlon MP) utilisent tous le jeu d'instructions X86, la vaste gamme actuelle de séries X86 et de processeurs compatibles a été formée. Le x86CPU comprend actuellement principalement le processeur du serveur Intel et le processeur du serveur AMD.
(2)Jeu d'instructions RISC
RISC est l'abréviation de « Reduced Instruction Set Computing » en anglais, qui signifie « jeu d'instructions réduit » en chinois. Il a été développé sur la base du système d'instructions CISC. Quelqu'un a testé la machine CISC et a montré que la fréquence d'utilisation des différentes instructions est très différente. Les instructions les plus couramment utilisées sont des instructions relativement simples, qui ne représentent que 20 % des instructions. nombre total d'instructions Mais la fréquence d'apparition dans le programme représente 80 %. Un système d’instructions complexe augmentera inévitablement la complexité du microprocesseur, rendant le développement du processeur long et coûteux. Et les instructions complexes nécessitent des opérations complexes, ce qui réduira inévitablement la vitesse de l’ordinateur. Pour les raisons ci-dessus, les processeurs RISC sont nés dans les années 1980. Par rapport aux processeurs CISC, les processeurs RISC ont non seulement rationalisé le système d'instructions, mais ont également adopté ce qu'on appelle une « structure superscalaire et super-pipeline », qui a considérablement augmenté les capacités de traitement parallèle.
Le jeu d'instructions RISC est la direction de développement des processeurs hautes performances. Il s’oppose au CISC (Complex Instruction Set) traditionnel. En comparaison, RISC a un format d'instruction unifié, moins de types et moins de méthodes d'adressage que les jeux d'instructions complexes. Bien entendu, la vitesse de traitement est grandement améliorée. À l'heure actuelle, les processeurs dotés de ce système d'instructions sont couramment utilisés dans les serveurs de milieu à haut de gamme, en particulier les serveurs haut de gamme qui utilisent tous des processeurs dotés du système d'instructions RISC. Le système d'instructions RISC est plus adapté à UNIX, le système d'exploitation des serveurs haut de gamme. Désormais, Linux est également un système d'exploitation de type UNIX. Les processeurs de type RISC ne sont pas compatibles avec les processeurs Intel et AMD au niveau logiciel et matériel.
À l'heure actuelle, les processeurs qui utilisent les instructions RISC dans les serveurs milieu à haut de gamme incluent principalement les catégories suivantes : processeurs PowerPC, processeurs SPARC, processeurs PA-RISC, processeurs MIPS et processeurs Alpha.
(3)IA-64
Il y a eu beaucoup de débats quant à savoir si l'EPIC (Explicitly Parallel Instruction Computers) est le successeur des systèmes RISC et CISC. En prenant le système EPIC seul, il s'agit plutôt d'une étape importante pour les processeurs Intel de passer au système RISC. Théoriquement, le processeur conçu par le système EPIC peut bien mieux gérer les logiciels d'application Windows que les logiciels d'application basés sur Unix dans la même configuration hôte.
Le processeur du serveur Intel utilisant la technologie EPIC est Itanium (nom de code de développement : Merced). Il s'agit d'un processeur 64 bits et le premier de la série IA-64. Microsoft a également développé un système d'exploitation nommé Win64 et le prend en charge dans le logiciel. Après que Intel ait adopté l'ensemble, donc l'architecture IA-64 utilisant l'ensemble d'instructions épique est née. L'IA-64 est une énorme amélioration par rapport à x86 sous de nombreux aspects. Il franchit de nombreuses limites de l'architecture traditionnelle IA32 et atteint des améliorations de percée des capacités de traitement des données, de la stabilité du système, de la sécurité, de l'utilisabilité et de la rationalité considérable.
Le plus grand défaut des microprocesseurs IA-64 est leur manque de compatibilité avec x86. -To-ia-64 Decoder, qui peut traduire les instructions x86 en instructions IA-64. Ce décodeur n'est pas le décodeur le plus efficace, ni la meilleure façon d'exécuter du code x86 (la meilleure façon est d'exécuter du code x86 directement sur le processeur x86), donc les performances d'Itanium et d'Itanium2 lors de l'exécution des applications x86 très mauvaises. Cela est également devenu la raison fondamentale de l'émergence de x86-64.
(4) x86-64 (AMD64 / EM64T)
Conçu par AMD, il peut gérer les opérations entières 64 bits en même temps et est compatible avec l'architecture x86-32. Il prend en charge l'adressage logique 64 bits et fournit l'option de convertir en adressage 32 bits; Prend en charge les registres généraux, s'il s'agit d'une opération 32 bits, il est nécessaire d'étendre le résultat à 64 bits complets. De cette façon, il y a une différence entre «l'exécution directe» et «l'exécution de la conversion» dans l'instruction.
La création de x86-64 (également appelée AMD64) n'est pas sans fondement. AMD considère pleinement les besoins des clients et améliore les fonctions de l'ensemble d'instructions x86 afin que cet ensemble d'instructions puisse prendre en charge les modes informatiques 64 bits en même temps. Techniquement, afin d'effectuer des opérations 64 bits dans l'architecture x86-64, AMD a introduit un nouveau registre à usage général R8-R15 en tant qu'expansion de l'utilisation d'origine de ces registres. Les registres d'origine tels que EAX et EBX ont également été passés de 32 bits à 64 bits. Huit nouveaux registres ont été ajoutés à l'unité SSE pour soutenir SSE2. L'augmentation du nombre de registres entraînera des améliorations des performances. Dans le même temps, afin de prendre en charge les codes et les registres 32 et 64 bits, l'architecture X86-64 permet au processeur de fonctionner dans les deux modes suivants: mode long (mode long) et mode hérité (mode génétique). Le mode long est divisé en deux sous-modèles: mode (mode 64 bits et mode de compatibilité). La norme a été introduite dans les processeurs d'Opteron Server d'AMD.
Cette année, la technologie EM64T qui prend en charge 64 bits a également été lancée. L'EM64T d'Intel prend en charge le sous-mode 64 bits, ce qui est similaire à la technologie X86-64 d'AMD. Semblable à AMD, la technologie 64 bits d'Intel sera compatible avec IA32 et IA32E. IA32E sera composé de 2 sous-modèles: sous-mode 64 bits et sous-mode 32 bits, qui sont en arrière compatibles avec AMD64. L'EM64T d'Intel sera entièrement compatible avec la technologie X86-64 d'AMD. Maintenant, le processeur Nocona a ajouté une technologie 64 bits, et le processeur Pentium 4E d'Intel prend également en charge la technologie 64 bits.
Il convient de dire que les deux sont des architectures de microprocesseurs 64 bits compatibles avec l'ensemble d'instructions x86, mais il y a encore quelques différences entre EM64T et AMD64.
11. Superpipeline et superscalar
Avant d'expliquer Superpipeline et Superscalar, comprenons d'abord le pipeline. Le pipeline a été utilisé pour la première fois par Intel dans la puce 486. La chaîne de montage fonctionne comme une chaîne de montage en production industrielle. Dans le CPU, un pipeline de traitement des instructions est composé de 5 à 6 unités de circuit avec différentes fonctions, puis une instruction x86 est divisée en 5 à 6 étapes puis exécutée par ces unités de circuit respectivement, de sorte qu'une instruction peut être terminée en une Cycle d'horloge du CPU. Chaque pipeline entier du Pentium classique est divisé en quatre niveaux de pipeline, à savoir la préfecture, le décodage, l'exécution et l'écriture des résultats.
Superscalar utilise plusieurs pipelines intégrés pour exécuter plusieurs processeurs en même temps. Le super pipeline consiste à effectuer une ou plusieurs opérations dans un cycle de machine en affinant le pipeline et en augmentant la fréquence principale. Par exemple, le pipeline du Pentium 4 est aussi long que 20 étapes. Plus les étapes (étapes) du pipeline sont longues, plus il peut compléter une instruction, donc il peut s'adapter aux processeurs avec des fréquences de fonctionnement plus élevées. Cependant, un pipeline excessivement long apporte également certains effets secondaires. 1,4 g ou plus.
12. Formulaire de package
L'emballage CPU est une mesure protectrice qui utilise des matériaux spécifiques pour solidifier la puce CPU ou le module CPU pour éviter les dommages. La méthode d'emballage du CPU dépend du formulaire d'installation du CPU et de la conception d'intégration de l'appareil. Utilisation de la forme d'emballage SEC (Boîte à jonction monoplaquée). Il existe également des technologies d'emballage telles que PLGA (Plastic Land Trid Bread) et OLGA (Bio Land Grid Land). En raison de la concurrence du marché de plus en plus féroce, la direction de développement actuelle de la technologie d'emballage du processeur est principalement une économie de coûts.