Das zentrale Gerät des Computers weist die Hauptmerkmale auf. Welchen Einfluss hat jeder Parameter? Hauptmerkmale des Prozessors

💖 Gefällt es dir? Teilen Sie den Link mit Ihren Freunden

Zentraleinheit (CPU oder Zentraleinheit - CPU; englische Zentraleinheit, abgekürzt als CPU, wörtlich - Zentraleinheit) - Mikroschaltung, Ausführer von Maschinenanweisungen (Programmcode), Hauptteil Hardware Computer oder speicherprogrammierbare Steuerung. Manchmal auch Mikroprozessor oder einfach Prozessor genannt.

❑ Zusammensetzung Software und die Prinzipien seiner Verbindung mit technischen Geräten. Das Verhältnis von Computerstrukturen und -funktionen basiert auf dem modularen Aufbau der Computerstruktur. Sein Wesen besteht darin, dass ein Computer aus einer Reihe von Modulen besteht – Geräten und Blöcken, die vollständige Funktionen implementieren und strukturell unempfindlich gegenüber einander sind. Der größte Vorteil dieses Prinzips ist die Möglichkeit, Ihren Computer durch den Einbau neuer, verbesserter Funktionsmodule zu aktualisieren. Physisch sind die Module durch Kabel verbunden.

Die Kombination von Methoden sowie Algorithmen und Einheiten für den Informationsaustausch wird als technische Schnittstelle eines Computers bezeichnet. Die Schnittstelle ist ein wichtiger Bestandteil der Computerarchitektur. Seine wichtigsten Parameter sind die Länge des übertragenen Podiums und die Geschwindigkeit der Kommunikation sowie die Bedeutung eines etwaigen von der Öffentlichkeit akzeptierten Standards. Es muss darauf geachtet werden, zwischen technischen und Benutzerschnittstellen zu unterscheiden: Die technische Schnittstelle definiert die Regeln für die Gerätekompatibilität, und die Benutzerschnittstelle definiert, wie der Benutzer mit dem System interagiert und seinen Betrieb steuert.

Die Entwicklungsgeschichte der Prozessorproduktionstechnologie stimmt vollständig mit der Entwicklungsgeschichte der Elüberein.

Die erste Phase, die den Zeitraum von den vierziger bis späten fünfziger Jahren betraf, war die Entwicklung von Prozessoren mit elektromechanischen Relais, Ferritkernen (Speichergeräten) und Vakuumröhren. Sie wurden in speziellen Steckverbindern an zu Racks montierten Modulen installiert. Eine große Anzahl solcher Racks, die durch Leiter verbunden waren, bildeten zusammen den Prozessor. Ein charakteristisches Merkmal war geringe Zuverlässigkeit, geringe Leistung und hohe Wärmeentwicklung.

Das Prinzip des modularen Aufbaus wurde umgesetzt. b Backbone-Architektur. Für eine bequemere und effizientere Nutzung sowohl des gesamten Computers als auch seiner Geräte wurden an der klassischen Computerschaltung Änderungen vorgenommen: der zentrale Teil oder Verarbeitungsteil sowie der Peripherie- oder Schaltungsteil. Hilfsgeräte sind über einen Eingang mit dem zentralen Teil verbunden – einen Eingangskanal, der den Informationsaustausch steuert. E/A-Geräte sind unabhängige Prozessoren, die auf den Datenaustausch spezialisiert sind.

Dies ist die hierarchische Struktur eines Computers, bei der es sich auf der höchsten Ebene der Hierarchie um den Zentralprozessor und den Arbeitsspeicher handelt, auf einer niedrigeren Ebene um Eingabe-Ausgabe-Kanäle und noch niedrigere Schnittstellengeräte-Controller. Zumindest werden die Geräte geortet. Bei solchen Strukturen handelt es sich um Hochleistungs-Mehrplatzrechner.

Die zweite Stufe, von Mitte der fünfziger bis Mitte der sechziger Jahre, war die Einführung von Transistoren. Die Transistoren wurden auf Platinen montiert, die einem modernen Erscheinungsbild ähnelten, und in Racks installiert. Nach wie vor bestand der durchschnittliche Prozessor aus mehreren solcher Racks. Die Leistung ist gestiegen, die Zuverlässigkeit ist gestiegen und der Energieverbrauch ist gesunken.

Reis. 6 Hierarchische Architektur eines Universalcomputers. Architektur von Mainline-Computern. Mini- und Mikrocomputerklassen, zu denen auch Personalcomputer gehören, haben eine einfachere Struktur und eine geringe Anzahl von Hauptgeräten. Ihre Architektur basiert auf der Verwendung einer gemeinsamen Schnittstelle. Schnittstellenbus – Verbindungskanal. Die Grundarchitektur weist keine klare Hierarchie auf, alle Geräte tauschen Daten über den Bus aus. Die Reihenfolge des Datenaustauschs wird durch die folgenden Regeln bestimmt.

b Die Daten werden nach Geschlecht übermittelt. b Die Breite der Schnittstelle muss der Länge der Maschine entsprechen. Zu einem Zeitpunkt werden Daten von einem Gerätepaar ausgetauscht. An den Common Interface Bus gesendete Daten, Befehle, Adressen oder Steuersignale sind die Systemadresse des Geräts, an das die Informationen gesendet werden.

Die dritte Stufe, die Mitte der sechziger Jahre begann, war der Einsatz von Mikroschaltungen. Zunächst wurden Mikroschaltungen mit einem geringen Integrationsgrad verwendet, die einfache Transistor- und Widerstandsbaugruppen enthielten. Mit der Weiterentwicklung der Technologie wurden dann Mikroschaltungen verwendet, die einzelne Elemente digitaler Schaltkreise implementierten (zuerst Elementarschalter und logische Elemente, dann komplexere Elemente – Elementarregister). , Zähler, Addierer) und später erschienen Mikroschaltungen, die Funktionsblöcke des Prozessors enthielten – ein Mikroprogrammgerät, ein arithmetisch-logisches Gerät, Register, Geräte für die Arbeit mit Daten und Befehlsbussen.

Reis. 7 Magnetisch Rechnerarchitektur. Computersystemtopologie. Nach Topologie Computersysteme Es werden folgende Arten von Systemarchitekturen unterschieden. b Zentralisierte Computersysteme. ❑ Personalcomputersysteme. Verteilte Computersysteme.

Zentralisierte Computersysteme. In einem zentralisierten Computersystem führt ein Computer viele Benutzerberechnungen durch. Dies wird hauptsächlich von Allzweck- oder Supercomputern erledigt. Es kann auch ein Server für Minicomputer sein.

Der vierte Schritt war die Schaffung eines Mikroprozessors, bei dem alle Hauptelemente und Blöcke des Prozessors physisch auf einem Chip untergebracht waren. 1971 entwickelte Intel den weltweit ersten 4-Bit-Mikroprozessor, den 4004, der für den Einsatz in Mikrorechnern vorgesehen war. Nach und nach wurden fast alle Prozessoren im Mikroprozessorformat hergestellt. Die einzige Ausnahme bildeten lange Zeit nur Kleinserienprozessoren, für die Lösung spezieller Probleme optimierte Hardware (z. B. Supercomputer oder Prozessoren zur Lösung einer Reihe militärischer Probleme) oder Prozessoren, die besondere Anforderungen an Zuverlässigkeit, Geschwindigkeit oder Schutz vor stellten elektromagnetische Impulse und ionisierende Strahlung. Mit der Kostensenkung und der Verbreitung moderner Technologien werden diese Prozessoren nach und nach auch im Mikroprozessorformat hergestellt.

Banken und andere große und geografisch verteilte Unternehmen mit zentralisierten Datenbanken nutzen Banken. Personalcomputersysteme. Die Grundidee eines Personalcomputersystems besteht darin, dass der Computer jederzeit als separates Werkzeug für Arbeit und Produktivität dienen soll. Ein persönliches Computersystem ist effektiv für individuelle Arbeiten: Vorbereiten von Texten, Präsentationen, Arbeiten mit Taschenrechnern, Durchführen einfacher Entwurfsarbeiten. Auch für kleine Unternehmen und Institutionen sind solche Systeme sinnvoll.

b größere Flexibilität bei einzelnen Aufgaben. Geringerer Einfluss auf andere Mitarbeiter. Es ist schwierig, Arbeit einzelnen Benutzern zuzuordnen. Doppelte Hardware und Software. Daten und andere Systemressourcen – Anwendungen, Prozessoren – können lokale oder beliebige andere Knoten im System sein. b größere Möglichkeiten, Arbeit, Informationen und andere Ressourcen rationeller zu verteilen.

Der erste im Handel erhältliche Mikroprozessor war der 4-Bit-Intel 4004. Ihm folgten der 8-Bit-Intel 8080 und der 16-Bit-8086, die den Grundstein für die Architektur aller modernen Desktop-Prozessoren legten. Aufgrund der Verbreitung von 8-Bit-Speichermodulen wurde jedoch der 8088 herausgebracht, ein Klon des 8086 mit einem 8-Bit-Speicherbus. Dann kam die Modifikation 80186. Der 80286-Prozessor führte einen geschützten Modus mit 24-Bit-Adressierung ein, der die Nutzung von bis zu 16 MB Speicher ermöglichte. Der Intel 80386-Prozessor erschien 1985 und führte einen verbesserten geschützten Modus mit 32-Bit-Adressierung ein, der die Verwendung von bis zu 4 GB ermöglichte Arbeitsspeicher und Unterstützung für den virtuellen Speichermechanismus. Diese Prozessorreihe basiert auf einem Register-Computing-Modell.

Sie können Ihre Arbeit auch dann fortsetzen, wenn einige Systemknoten ausgefallen sind oder aus anderen Gründen nicht funktionieren. Schwieriger wird es, den Datenschutz zu organisieren. Die Aufrechterhaltung einheitlicher Standards ist komplex. Moderne Methoden zur Organisation verteilter Computersysteme.

Client-Server-Architektur. In der Client/Server-Architektur fungieren verschiedene Computer im Netzwerk als Clients oder Server. Computer – Kunden fordern beliebige Dienstleistungen wie Drucken oder Data Mining an. Diese Anfragen werden an bestimmte Computer – Server – gesendet, die die angegebene Arbeit ausführen. Der Client verbindet einen Server mit einem Netzwerk, dessen Zweck nicht nur darin besteht, eine Verbindung herzustellen, sondern auch die Verbindung zu verwalten. Das Netzwerk leitet die Anfrage des Clients an den entsprechenden Server weiter und gibt die Ergebnisse der Arbeit zurück.

Parallel dazu werden Mikroprozessoren entwickelt, die auf dem Stack-Computing-Modell basieren.

IN moderne Computer Die Prozessoren sind als kompaktes Modul (ca. 5x5x0,3 cm groß) konzipiert, das in einen ZIF-Sockel gesteckt wird. Die meisten modernen Prozessoren sind in Form eines einzelnen Halbleiterchips implementiert, der Millionen und neuerdings sogar Milliarden von Transistoren enthält. In den ersten Computern waren Prozessoren sperrige Einheiten, die manchmal ganze Schränke und sogar Räume einnahmen und aus einer Vielzahl einzelner Komponenten bestanden.

Die Client-Server-Architektur ermöglicht Ihnen die Organisation Computerarbeit auf modularer Basis, d.h. Unterteilen Sie das System in Module oder einige funktionale Komponenten der globalen Struktur. Dies ist ein weit verbreitetes System, weil es... Große Auswahl an technischen Möglichkeiten und flexibler Geräteeinsatz.

b Größere Fähigkeit, Hardware und Software anzupassen und zu koordinieren verschiedene Hersteller. Äquivalente Knotenarchitektur. Die äquivalente Knotenarchitektur ist eine wichtige Alternative zur Client-Server-Architektur für kleine Knoten Computernetzwerke. Dabei kann jeder Arbeitsplatz direkt mit einem anderen kommunizieren Arbeitsplatz im Netzwerk, ohne dedizierte Serverdienste zu nutzen. Bei der Verbindung mit anderen Computern kann es zu Problemen mit einheitlichen Kopien derselben Dokumente kommen.

Den Entwicklern wird zunächst eine technische Aufgabe gestellt, auf deren Grundlage über die Architektur des künftigen Prozessors, seinen internen Aufbau und die Fertigungstechnologie entschieden wird. Die Aufgabe verschiedener Gruppen besteht darin, die entsprechenden Funktionsblöcke des Prozessors zu entwickeln und deren Zusammenspiel und elektromagnetische Verträglichkeit sicherzustellen. Da es sich bei dem Prozessor tatsächlich um einen digitalen Automaten handelt, der den Prinzipien der Booleschen Algebra vollständig entspricht, wird mithilfe spezieller Software, die auf einem anderen Computer ausgeführt wird, ein virtuelles Modell des zukünftigen Prozessors erstellt. Es wird verwendet, um den Prozessor zu testen, elementare Befehle und erhebliche Codemengen auszuführen, das Zusammenspiel verschiedener Blöcke des Geräts zu ermitteln, Optimierungen durchzuführen und nach Fehlern zu suchen, die in einem Projekt dieser Ebene unvermeidlich sind.

Burgis et al. Kaunas: Technologie. . IN technische Spezifikationen Prozessor sollten Sie nicht nur darauf achten, einen neuen Desktop-Computer zu installieren oder einen alten zu aktualisieren. Prozessoren sind auch der Hauptbestandteil von Laptops. Daher lohnt es sich auch ohne Desktop-Computer zu wissen, welche Parameter berücksichtigt werden müssen. Bei der Auswahl eines Prozessors ist es wichtig zu berücksichtigen, auf welchem ​​Motherboard er eingesetzt werden soll.

Darüber hinaus wird die Prozessorgeschwindigkeit auch bei Mehrkernprozessoren angegeben. Je mehr Kerne, desto schneller und flüssiger ist der Prozessor. Derzeit sind Zwei- und Vierkernprozessoren noch am weitesten verbreitet, man kann sie aber auch mit sechs, acht oder zehn Kernen erwerben, allerdings muss man sich entscheiden, ob man einen braucht leistungsstarker Prozessor, im Voraus, da solche Prozessoren Ihren Geldbeutel stark beschädigen. Darüber hinaus verweisen einige Softwareanbieter auf Minimum System Anforderungen, also wenn Sie ein sehr leistungsfähiges Programm installieren möchten oder Computerspiel, sollten Sie überlegen, ob der CPU-Kern für einen reibungslosen Betrieb ausreicht.

Anschließend wird aus digitalen Grundmatrixkristallen und Mikroschaltungen, die elementare Funktionsblöcke der digitalen Elektronik enthalten, ein physikalisches Modell des Prozessors erstellt, anhand dessen die elektrischen und zeitlichen Eigenschaften des Prozessors überprüft, die Prozessorarchitektur getestet und Fehler korrigiert werden geht weiter und Fragen der elektromagnetischen Verträglichkeit werden geklärt (z. B. bei fast gewöhnlicher Taktfrequenz von 10 GHz funktionieren bereits 7 mm lange Leiterabschnitte als Sende- oder Empfangsantennen).

Ein weiterer sehr wichtiger Parameter bei der Auswahl eines neuen Prozessors ist die taktische Frequenz des Prozessors. Diese Frequenz wird in Gigahertz gemessen und gibt an, wie viele Prozessoren gleichzeitig Vorgänge ausführen können. Je höher dieser Parameter ist, desto effizienter und reibungsloser arbeitet der gesamte Computer.

Bei der Kombination von Prozessor und Mainboard sollte man auf die Busfrequenz, gemessen in Megahertz, achten. Es zeigt an, wie oft der Prozessor mit dem Rest des Computers zusammenarbeitet und ist in Kombination mit ein äußerst wichtiger Parameter Hauptplatine. Wir möchten Sie daran erinnern, dass die technischen Parameter aller Computerkomponenten auf das maximale Niveau konfiguriert werden müssen – eine teure und leistungsstarke Grafikkarte erfordert auch einen den Spezifikationen entsprechenden Prozessor.

Dann beginnt die Kooperationsphase zwischen Schaltkreis- und Prozessingenieuren, die mithilfe spezieller Software den elektrischen Schaltkreis, der die Prozessorarchitektur enthält, in eine Chip-Topologie umwandeln. Moderne Systeme automatisches Design erlauben im Allgemeinen von Elektrischer Schaltplan Sie erhalten direkt ein Paket mit Schablonen zum Erstellen von Masken. In dieser Phase versuchen Technologen die Umsetzung technische Lösungen, festgelegt von Schaltungsentwicklern unter Berücksichtigung der verfügbaren Technologie. Diese Phase ist eine der längsten und schwierigsten in der Entwicklung und erfordert manchmal Kompromisse seitens der Schaltungsdesigner, um einige architektonische Lösungen aufzugeben. Es ist zu beachten, dass eine Reihe von Herstellern kundenspezifischer Chips (Foundry) Entwicklern (Design Center oder Fabless) eine Kompromisslösung anbieten, bei der sie in der Phase des Prozessordesigns die von ihnen präsentierten Bibliotheken von Elementen und Blöcken verwenden, die entsprechend dem Vorhandenen standardisiert sind Technologie (Standardzelle). Dies führt zu einer Reihe von Einschränkungen für architektonische Lösungen, aber die Phase der technologischen Anpassung läuft tatsächlich auf das Spielen mit Lego hinaus. Im Allgemeinen sind benutzerdefinierte Mikroprozessoren schneller als Prozessoren, die mit vorhandenen Bibliotheken erstellt wurden.

Wie bei allen anderen Computerkomponenten ist es wichtig zu beachten, welche Anschlussprozessoren an das Motherboard angeschlossen werden. Es ist sogar möglich, dass Sie dies nicht durch einfaches Aktualisieren Ihres tun können alter Computer zum neuen Prozessor. Denn bisher wurden alle anderen Anschlüsse genutzt und Prozessoren mit alten Anschlusstypen lange Zeit geschlossen. Bevor Sie also den Kauf eines Prozessors planen, prüfen Sie unbedingt, ob dieser zu Ihrem Computer passt. Bewerten Sie außerdem unbedingt den Zweck Ihres Computers.

Schließlich möchte man nicht viel Geld für ein Bauteil ausgeben, das nicht bestimmungsgemäß verwendet wird. Und obwohl es im Internet aussagekräftige Informationen über den Prozessor gibt, ist es am besten, Ihre Fragen an qualifizierte Fachleute zu stellen, damit Sie das Produkt kaufen können, das Sie benötigen.

Der nächste Schritt besteht darin, einen Prototyp eines Mikroprozessorchips zu erstellen. Bei der Herstellung moderner ultragroßer integrierter Schaltkreise kommt das Lithographieverfahren zum Einsatz. Gleichzeitig werden durch spezielle Masken mit Schlitzen abwechselnd Schichten aus Leitern, Isolatoren und Halbleitern auf das Substrat des zukünftigen Mikroprozessors (ein dünner Kreis aus monokristallinem Silizium oder Saphir) aufgebracht. Die entsprechenden Stoffe verdampfen im Vakuum und lagern sich durch die Löcher der Maske auf dem Prozessorchip ab. Manchmal kommt Ätzen zum Einsatz, wenn eine aggressive Flüssigkeit Bereiche des Kristalls angreift, die nicht durch eine Maske geschützt sind. Gleichzeitig bilden sich auf dem Substrat etwa hundert Prozessorkristalle. Das Ergebnis ist eine komplexe Mehrschichtstruktur mit Hunderttausenden bis Milliarden Transistoren. Je nach Anschluss arbeitet der Transistor in der Mikroschaltung als Transistor, Widerstand, Diode oder Kondensator. Die separate Erstellung dieser Elemente auf einer Mikroschaltung ist im Allgemeinen nicht rentabel. Nach Abschluss des Lithographievorgangs wird das Substrat in Elementarkristalle zersägt. An den darauf gebildeten Kontaktpads (aus Gold) werden dünne Goldleiter angelötet, die als Adapter für die Kontaktpads des Mikroschaltungskörpers dienen. Als nächstes werden im Allgemeinen der Kühlkörper des Kristalls und die Abdeckung der Mikroschaltung angebracht.

Jeder kann das Richtige auswählen und guter Computer für sich. Es stimmt, es spielt keine Rolle, dass man bei der Auswahl nicht alles wissen kann. Menschen sind sehr individuell, sie wählen sehr unterschiedlich und es lohnt sich nicht wirklich, etwas herauszufinden. Es ist wichtig, genau zu wissen, was Sie wollen, wofür Ihr Computer verwendet wird und welchen Hauptzweck er hat. Zuhause mag schwierig sein, aber seien Sie vorsichtig und Sie werden feststellen, dass es nicht so schwierig ist. Nachfolgend finden Sie hier viele Antworten, die Ihnen helfen, Fehler beim Kauf zu vermeiden. Zunächst müssen Sie verstehen, dass alle Computer aus einzelnen Komponenten bestehen.

Anschließend beginnt die Testphase des Prozessorprototyps, bei der die Einhaltung der spezifizierten Eigenschaften überprüft und nach verbleibenden unentdeckten Fehlern gesucht wird. Erst danach wird der Mikroprozessor in Produktion genommen. Aber auch während der Produktion wird der Prozessor durch technologische Verbesserungen, neue Designlösungen und Fehlererkennung ständig optimiert.

Und bei der Auswahl richtige Einstellung Parameter können diese Teile mit einem zuverlässigen und zuverlässigen Gerät kombiniert werden. Ein Desktop-Computer besteht aus: Gehäuse, Netzteil, Motherboard, Prozessor, Arbeitsspeicher, Festplatte, Video-, Audio-, Netzwerk- und andere Karten, Optisches Gerät, interne und externe Anschlüsse. Das Wesentliche bei der Auswahl eines Desktop-Computers: Schritt 8. Auswahl einer Stromquelle Konzentrieren Sie sich auf Prozessor, Motherboard, RAM, Grafikkarte, Festplatte und Netzteil.

Dies ist Voraussetzung für einen guten Kauf. Aber zunächst müssen Sie einen Prozessor und ein Motherboard auswählen. Schritt 1: Wählen Sie einen Prozessor aus. Der Prozessor ist eine der wichtigsten Funktionen – ein integrierter Mikrochip, der den Ablauf grundlegender Prozesse in einem Computer steuert. Dies wirkt sich direkt auf die Leistung Ihres Computers aus. Die Hauptmerkmale des Prozessors sind Serie, Sockeltyp, Anzahl der Kerne, innere Erinnerung, Betriebsfrequenz, Systembusfrequenz. Zudem sollte der Prozessor immer mit dem Arbeitsspeicher und dem Mainboard kompatibel sein.

Es ist zu beachten, dass parallel zur Entwicklung universeller Mikroprozessoren Sätze von Computerperipherieschaltungen entwickelt werden, die mit dem Mikroprozessor verwendet werden und auf deren Grundlage sie erstellt werden Motherboards. Die Entwicklung eines Mikroprozessorsatzes (Chipsatzes) ist eine Aufgabe, die nicht weniger komplex ist als die Herstellung eines Mikroprozessorchips.

In den letzten Jahren besteht die Tendenz, einige Chipsatzkomponenten (Speichercontroller, PCI-Express-Buscontroller) auf den Prozessor zu übertragen. Weitere Einzelheiten finden Sie unter „System auf einem Chip“.

In den frühen 1970er Jahren ermöglichten Durchbrüche in der LSI- und VLSI-Technologie (Large-Scale Integrated Circuit bzw. Very Large-Scale Integrated Circuit) die Unterbringung aller erforderlichen CPU-Komponenten in einem einzigen Halbleiterbauelement. Es erschienen sogenannte Mikroprozessoren. Mittlerweile sind die Wörter Mikroprozessor und Prozessor praktisch zu Synonymen geworden, aber das war damals nicht der Fall, denn konventionelle (große) und Mikroprozessor-Computer existierten noch mindestens 10-15 Jahre friedlich nebeneinander und erst in den frühen 1980er Jahren verdrängten Mikroprozessoren ihre älteren Brüder . Es muss gesagt werden, dass der Übergang zu Mikroprozessoren später die Entwicklung von Personalcomputern ermöglichte, die mittlerweile in fast jedes Zuhause eingedrungen sind.

Der erste Mikroprozessor, der Intel 4004, wurde am 15. November 1971 von der Intel Corporation eingeführt. Es enthielt 2.300 Transistoren, lief mit einer Taktrate von 92,6 kHz (das Dokument besagt, dass ein Befehlszyklus 10,8 Mikrosekunden dauert, und in den Werbematerialien von Intel heißt es 108 kHz) und kostete 300 US-Dollar.

Im Laufe der Jahre hat die Mikroprozessortechnologie viele verschiedene Mikroprozessorarchitekturen entwickelt. Viele davon sind (in erweiterter und verbesserter Form) noch heute im Einsatz. Zum Beispiel Intel x86, das sich zunächst zu 32-Bit IA-32 und später zu 64-Bit x86-64 (das Intel EM64T nennt) entwickelte. x86-Prozessoren kamen ursprünglich nur in IBM-Personalcomputern (IBM-PCs) zum Einsatz, werden heute aber zunehmend in allen Bereichen der Computerindustrie eingesetzt, vom Supercomputer bis hin zu eingebetteten Lösungen. Sie können auch Architekturen wie Alpha, POWER, SPARC, PA-RISC, MIPS (RISC-Architektur) und IA-64 (EPIC-Architektur) auflisten.

Die meisten derzeit verwendeten Prozessoren sind Intel-kompatibel, das heißt, sie verfügen über eine Reihe von Anweisungen und Programmierschnittstellen, die in Intel-Prozessoren implementiert sind.

Die beliebtesten Prozessoren werden heute von Intel, AMD und IBM hergestellt. Unter den Prozessoren von Intel: 8086, i286 (im Computer-Slang „zwei“, „zwei“ genannt), i386 („drei“, „drei“), i486 („vier“), Pentium („Stump“, „Stump“) , „zweiter Stumpf“, „dritter Stumpf“ usw. Es gibt auch eine Rückkehr von Namen: Pentium III heißt „drei“, Pentium 4 heißt „vier“), Pentium II, Pentium III, Celeron (eine vereinfachte Version von Pentium), Pentium 4, Core 2 Quad, Core i7, Xeon (Prozessorserie für Server), Itanium, Atom (Prozessorserie für eingebettete Technologie) usw. AMD hat Prozessoren mit x86-Architektur in seiner Produktlinie (Analoga von 80386 und 80486). , K6-Familie und K7-Familie – Athlon, Duron, Sempron) und x86-64 (Athlon 64, Athlon 64 X2, Phenom, Opteron usw.). IBM-Prozessoren (POWER6, POWER7, Xenon, PowerPC) werden in Supercomputern, Video-Set-Top-Boxen der 7. Generation und eingebetteter Technologie verwendet; früher in Apple-Computern verwendet.

Laut IDC lag der Anteil von Intel am Mikroprozessormarkt für PCs, Laptops und Server Ende 2009 bei 79,7 %, der von AMD bei 20,1 %.

In den nächsten 10 bis 20 Jahren wird sich der materielle Teil der Prozessoren dadurch höchstwahrscheinlich ändern technologischer Prozess wird an physische Produktionsgrenzen stoßen. Vielleicht wird es sein:

Optische Computer – in denen anstelle elektrischer Signale Lichtströme (Photonen, keine Elektronen) verarbeitet werden.

Quantencomputer, deren Funktionsweise vollständig auf Quanteneffekten basiert. Derzeit wird daran gearbeitet, funktionierende Versionen von Quantenprozessoren zu erstellen.

Molekularcomputer sind Computersysteme, die die Rechenfähigkeiten von Molekülen (hauptsächlich organischer) nutzen. Molekularcomputer nutzen die Idee der Rechenleistung der Anordnung von Atomen im Raum.

Die Entwicklung von Mikroprozessoren in Russland wird von CJSC MCST und NIISI RAS durchgeführt. Auch die Entwicklung spezialisierter Mikroprozessoren mit Schwerpunkt auf der Schaffung neuronaler Systeme und der digitalen Signalverarbeitung wird vom Wissenschaftlich-Technischen Zentrum „Module“ und dem Staatlichen Einheitsunternehmens-Wissenschafts- und Produktionszentrum „ELVEES“ durchgeführt. Eine Reihe von Mikroprozessorserien werden auch von Angstrem OJSC hergestellt.

NIISI entwickelt Prozessoren der Comdiv-Serie auf Basis der MIPS-Architektur. Technischer Prozess - 0,5 Mikrometer, 0,3 Mikrometer; KNI.

KOMDIV32, 1890VM1T, einschließlich der Version KOMDIV32-S (5890VE1T), beständig gegen die Auswirkungen von Weltraumfaktoren (ionisierende Strahlung)

KOMDIV64, KOMDIV64-SMP

Arithmetischer Coprozessor KOMDIV128

STC Modul hat Mikroprozessoren der NeuroMatrix-Familie entwickelt und bietet diese an:

1998, 1879VM1 (NM6403) – Hochleistungs-Spezialmikroprozessor digitale Verarbeitung Signale mit Vektor-Pipeline-VLIW/SIMD-Architektur. Fertigungstechnologie - CMOS 500 nm, Frequenz 40 MHz.

2007, 1879VM2 (NM6404) – Modifikation von 1879VM1 mit einer auf 80 MHz erhöhten Taktfrequenz und 2 Mbit RAM auf dem Prozessorchip. Fertigungstechnologie - 250 nm CMOS.

2009, 1879VM4 (NM6405) – ein leistungsstarker digitaler Signalprozessor mit einer Vektor-Pipeline-VLIW/SIMD-Architektur basierend auf einem patentierten 64-Bit-NeuroMatrix-Prozessorkern. Fertigungstechnologie - 250 nm CMOS, Taktfrequenz 150 MHz.

Dank einer Reihe von Hardwarefunktionen können Mikroprozessoren dieser Serie nicht nur als spezialisierte digitale Signalprozessoren, sondern auch zum Aufbau neuronaler Netze eingesetzt werden.

State Unitary Enterprise SPC ELVIS entwickelt und produziert Mikroprozessoren der Multicore-Serie, deren Besonderheit der asymmetrische Multicore ist. In diesem Fall enthält ein Chip physisch einen CPU-RISC-Kern mit MIPS32-Architektur, der die Funktionen des Zentralprozessors des Systems übernimmt, und einen oder mehrere Kerne eines spezialisierten Beschleunigerprozessors für die digitale Signalverarbeitung mit Gleitkomma-/Festkomma-ELcore-xx (ELcore). = Kern der Elvees), basierend auf der „Harvard“-Architektur. Der CPU-Kern ist führend in der Chipkonfiguration und führt das Hauptprogramm aus. Der CPU-Kern erhält Zugriff auf die Ressourcen des DSP-Kerns, der Slave des CPU-Kerns ist. Die CPU des Chips unterstützt den Linux-Kernel 2.6.19 oder das harte Echtzeit-OS QNX 6.3 (Neutrino).

2004, 1892VM3T (MC-12) – Einchip-Mikroprozessorsystem mit zwei Kernen. Zentralprozessor – MIPS32, Signal-Coprozessor – SISD-Kern ELcore-14. Fertigungstechnologie - CMOS 250 nm, Frequenz 80 MHz. Spitzenleistung 240 MFLOPs (32 Bit).

2004, 1892VM2Ya (MC-24) – Einchip-Mikroprozessorsystem mit zwei Kernen. Zentralprozessor – MIPS32, Signal-Coprozessor – SIMD-Kern ELcore-24. Fertigungstechnologie - CMOS 250 nm, Frequenz 80 MHz. Spitzenleistung 480 MFLOPs (32 Bit).

2006, 1892VM5YA (MC-0226) – Einchip-Mikroprozessorsystem mit drei Kernen. Zentralprozessor – MIPS32, 2 Signal-Coprozessoren – MIMD-Kern ELcore-26. Fertigungstechnologie - CMOS 250 nm, Frequenz 100 MHz. Spitzenleistung 1200 MFLOPs (32 Bit).

2008, NVCom-01 („Navicom“) – Einchip-Mikroprozessorsystem mit drei Kernen. Zentralprozessor – MIPS32, 2 Signal-Coprozessoren – MIMD DSP-Cluster DELCore-30 (Dual ELVEES Core). Fertigungstechnologie - CMOS 130 nm, Frequenz 300 MHz. Spitzenleistung 3600 MFLOPs (32 Bit). Als Telekommunikations-Mikroprozessor konzipiert, verfügt er über eine integrierte 48-Kanal-GLONASS/GPS-Navigationsfunktion.

Als vielversprechendes Projekt von SPC ELVIS wird MC-0428 vorgestellt – der MultiForce-Prozessor – ein Single-Chip-Mikroprozessorsystem mit einem zentralen Prozessor und vier spezialisierten Kernen. Fertigungstechnologie - CMOS 130 nm, Frequenz bis 340 MHz. Die Spitzenleistung wird voraussichtlich bei mindestens 8000 MFLOPs (32 Bit) liegen.

OJSC Angstrem (Unternehmen) produziert (entwickelt) die folgende Serie von Mikroprozessoren:

1839 – 32-Bit-VAX-11/750-kompatibler Mikroprozessor-Bausatz mit 6 Chips. Fertigungstechnologie - CMOS, Taktfrequenz 10 MHz.

1836VM3 – 16-Bit-LSI-11/23-kompatibler Mikroprozessor. Software kompatibel mit DEC PDP-11. Fertigungstechnologie - CMOS, Taktfrequenz 16 MHz.

1806VM2 – 16-Bit-LSI/2-kompatibler Mikroprozessor. Software kompatibel mit LCI-11 von DEC. Fertigungstechnologie - CMOS, Taktfrequenz 5 MHz.

L1876VM1 32-Bit-RISC-Mikroprozessor. Fertigungstechnologie - CMOS, Taktfrequenz 25 MHz.

Zu den Eigenentwicklungen von Angstrem gehört der Single-Chip-8-Bit-RISC-Mikrocomputer Theseus.

Das Unternehmen MCST hat eine Familie universeller SPARC-kompatibler RISC-Mikroprozessoren mit Designstandards von 130 und 350 nm und Frequenzen von 150 bis 500 MHz entwickelt und in Produktion genommen (weitere Einzelheiten finden Sie im Artikel über die Serie – MCST-R und darüber). die darauf basierenden Computersysteme Elbrus-90micro ). Der Elbrus VLIW-Prozessor mit der ursprünglichen ELBRUS-Architektur wurde ebenfalls entwickelt und wird in den Elbrus-3M1-Komplexen verwendet. Die Hauptabnehmer russischer Mikroprozessoren sind militärisch-industrielle Komplexunternehmen.

In der Sowjetzeit war der MPK KR580, der für Bildungszwecke verwendet wurde, aufgrund seiner unmittelbaren Einfachheit und Klarheit einer der beliebtesten Chips – ein Satz ähnlicher Chips Intel-Chips 82xx. Wird in Haushaltscomputern wie Radio 86RK, YuT-88, Mikrosha usw. verwendet.

Moderne CPUs, die in Form separater Mikroschaltungen (Chips) implementiert sind und alle Funktionen dieses Gerätetyps implementieren, werden als Mikroprozessoren bezeichnet. Letztere haben seit Mitte der 1980er Jahre praktisch andere CPU-Typen verdrängt, wodurch der Begriff immer häufiger als gebräuchliches Synonym für das Wort „Mikroprozessor“ wahrgenommen wurde. Dies ist jedoch nicht der Fall: Die Zentraleinheiten einiger Supercomputer sind auch heute noch komplexe Komplexe, die auf der Basis von Mikroschaltungen mit großer (LSI) und ultragroßer Integration (VLSI) aufgebaut sind.

Ursprünglich beschrieb der Begriff „Zentraleinheit“ eine spezielle Klasse logischer Maschinen, die für die Ausführung komplexer Computerprogramme konzipiert waren. Aufgrund der relativ engen Übereinstimmung dieses Zwecks mit den Funktionen der damals existierenden Computerprozessoren wurde er natürlich auf die Computer selbst übertragen. Die Verwendung des Begriffs und seiner Abkürzung im Zusammenhang mit Computersystemen begann in den 1960er Jahren. Das Design, die Architektur und die Implementierung von Prozessoren haben sich seitdem mehrmals geändert, ihre wichtigsten ausführbaren Funktionen sind jedoch dieselben geblieben wie zuvor.

Frühe CPUs wurden als einzigartige Komponenten für einzigartige, sogar einzigartige Computersysteme entwickelt. Später gingen die Computerhersteller von der teuren Methode der Entwicklung von Prozessoren, die ein einzelnes oder mehrere hochspezialisierte Programme ausführen sollten, zur Massenproduktion von Standard-Mehrzweckklassen über Prozessorgeräte. Der Trend zur Standardisierung von Computerkomponenten entstand im Zeitalter der rasanten Entwicklung von Halbleiterelementen, Großrechnern und Minicomputern und erfreute sich mit dem Aufkommen integrierter Schaltkreise noch größerer Beliebtheit. Durch die Schaffung von Mikroschaltungen konnte die Komplexität von CPUs weiter gesteigert und gleichzeitig ihre physikalische Größe verringert werden. Die Standardisierung und Miniaturisierung von Prozessoren hat dazu geführt, dass darauf basierende digitale Geräte tief in den menschlichen Alltag eingedrungen sind. Moderne Prozessoren finden sich nicht nur in Hightech-Geräten wie Computern, sondern auch in Autos, Taschenrechnern, Mobiltelefone und sogar in Kinderspielzeug. Am häufigsten handelt es sich dabei um Mikrocontroller, bei denen sich neben dem Rechengerät noch weitere Komponenten auf dem Chip befinden (Programm- und Datenspeicher, Schnittstellen, Ein-/Ausgabeanschlüsse, Timer usw.). Die modernen Rechenleistungen eines Mikrocontrollers sind mit den Prozessoren von Personalcomputern von vor zehn Jahren vergleichbar und übertreffen deren Leistung oft sogar deutlich.

Die meisten modernen PC-Prozessoren basieren im Allgemeinen auf einer Version des von John von Neumann erfundenen zyklischen sequentiellen Verarbeitungsprozesses.

J. von Neumann hatte 1946 den Plan, einen Computer zu bauen.

Die wichtigsten Schritte in diesem Prozess werden im Folgenden erläutert. In verschiedenen Architekturen und für verschiedene Mannschaften Möglicherweise sind zusätzliche Schritte erforderlich. Arithmetische Anweisungen können beispielsweise zusätzliche Speicherzugriffe erfordern, die Operanden lesen und Ergebnisse schreiben. Eine Besonderheit der von Neumann-Architektur besteht darin, dass Anweisungen und Daten im selben Speicher gespeichert werden.

Phasen des Ausführungszyklus:

– Der Prozessor legt die im Programmzählerregister gespeicherte Zahl auf den Adressbus und gibt einen Lesebefehl an den Speicher.

– die eingestellte Nummer ist eine Adresse für den Speicher; Nachdem der Speicher die Adresse und den Lesebefehl erhalten hat, stellt er den an dieser Adresse gespeicherten Inhalt auf den Datenbus und meldet die Bereitschaft.

Der Prozessor empfängt eine Zahl vom Datenbus, interpretiert sie als Befehl (Maschinenbefehl) seines Befehlssystems und führt ihn aus.

Wenn der letzte Befehl kein Verzweigungsbefehl ist, erhöht der Prozessor die im Programmzähler gespeicherte Zahl um eins (vorausgesetzt, die Länge jedes Befehls beträgt eins). Dadurch wird dort die Adresse des nächsten Befehls gebildet.

Dieser Zyklus wird ausnahmslos ausgeführt und dieser Zyklus wird als Prozess bezeichnet (daher der Name des Geräts).

Während des Prozesses liest der Prozessor eine im Speicher enthaltene Befehlsfolge und führt sie aus. Diese Befehlsfolge wird Programm genannt und stellt den Algorithmus des Prozessors dar. Die Reihenfolge der Lesebefehle ändert sich, wenn der Prozessor einen Sprungbefehl liest, dann kann die Adresse des nächsten Befehls eine andere sein. Ein weiteres Beispiel für eine Prozessänderung wäre der Empfang eines Stoppbefehls oder der Wechsel in den Interrupt-Modus.

CPU-Befehle stellen die unterste Ebene der Computersteuerung dar, daher ist die Ausführung jedes Befehls unvermeidlich und bedingungslos. Es erfolgt keine Prüfung der Zulässigkeit der durchgeführten Aktionen, insbesondere kein möglicher Verlust wertvoller Daten. Damit der Computer nur gültige Aktionen ausführen kann, müssen die Befehle ordnungsgemäß im erforderlichen Programm organisiert sein.

Die Geschwindigkeit des Übergangs von einer Phase des Zyklus zur anderen wird vom Taktgenerator bestimmt. Der Taktgenerator erzeugt Impulse, die als Rhythmus für den Zentralprozessor dienen. Die Frequenz der Taktimpulse wird Taktfrequenz genannt.

Zur Verbesserung der Leistung wurde im Zentralprozessor eine Pipeline-Architektur eingeführt. Um jeden Befehl auszuführen, ist es normalerweise notwendig, eine bestimmte Anzahl ähnlicher Operationen auszuführen, zum Beispiel: einen Befehl aus dem RAM holen, einen Befehl entschlüsseln, einen Operanden im RAM adressieren, einen Operanden aus dem RAM holen, einen Befehl ausführen, schreiben das Ergebnis in den RAM. Jeder dieser Vorgänge ist einer Stufe des Förderers zugeordnet. Beispielsweise enthält eine MIPS-I-Mikroprozessor-Pipeline vier Stufen:

– Anweisungen zum Empfangen und Dekodieren,

– Adressieren und Holen eines Operanden aus dem RAM,

– arithmetische Operationen durchführen,

– Speichern des Ergebnisses der Operation.

Nach der Veröffentlichung k-te Stufe Am Fließband beginnt sie sofort mit der Arbeit im nächsten Team. Wenn wir davon ausgehen, dass jede Stufe des Förderers eine Zeiteinheit für ihre Arbeit aufwendet, dann dauert die Ausführung eines Befehls auf einem Förderer der Länge n Stufen n Zeiteinheiten, im optimistischsten Fall jedoch das Ergebnis der Ausführung jeder weiteren Stufe Der Befehl wird nach jeder Zeiteinheit abgerufen.

Wenn keine Pipeline vorhanden ist, dauert die Ausführung eines Befehls tatsächlich n Zeiteinheiten (da der Befehl noch abgerufen, entschlüsselt usw. werden muss), und die Ausführung von m Befehlen dauert Zeiteinheiten. Bei Verwendung einer Pipeline (im optimistischsten Fall) dauert die Ausführung von m Anweisungen nur n + m Zeiteinheiten.

Faktoren, die die Fördereffizienz verringern:

– Pipeline-Ausfallzeit, wenn einige Stufen nicht verwendet werden (z. B. ist das Adressieren und Abrufen eines Operanden aus dem RAM nicht erforderlich, wenn der Befehl mit Registern arbeitet);

– Warten: Wenn der nächste Befehl das Ergebnis des vorherigen verwendet, kann die Ausführung des letzteren nicht beginnen, bevor der erste ausgeführt wurde (dies wird durch die Verwendung einer Ausführung außerhalb der Reihenfolge umgangen);

– Löschen der Pipeline, wenn ein Verzweigungsbefehl auf sie trifft (dieses Problem kann mithilfe der Verzweigungsvorhersage geglättet werden).

Manche moderne Prozessoren haben mehr als 30 Stufen in der Pipeline, was die Prozessorleistung erhöht, aber zu vielen Ausfallzeiten führt (z. B. im Falle eines Fehlers bei der bedingten Verzweigungsvorhersage). Es besteht kein Konsens über die optimale Pipelinelänge: Verschiedene Programme können deutlich unterschiedliche Anforderungen haben.

Superskalare Architektur ist die Fähigkeit, mehrere Maschinenanweisungen in einem Prozessorzyklus auszuführen, indem die Anzahl der Ausführungseinheiten erhöht wird. Das Aufkommen dieser Technologie hat zu einer deutlichen Steigerung der Produktivität geführt. Gleichzeitig gibt es eine gewisse Grenze für das Wachstum der Anzahl der Aktoren, ab der die Produktivität praktisch nicht mehr wächst und die Aktoren im Leerlauf sind. Teillösungen für dieses Problem sind beispielsweise Hypertechnologie Einfädeln.

CISC-Prozessoren – Computer mit komplexem Befehlssatz – Berechnungen mit einem komplexen Befehlssatz. Prozessorarchitektur basierend auf einem komplexen Befehlssatz. Typische Vertreter von CISC sind Mikroprozessoren der x86-Familie (obwohl diese Prozessoren viele Jahre lang nur CISC waren). externes System Befehle: Zu Beginn des Ausführungsprozesses werden komplexe Befehle in einfachere Mikrooperationen (MOPs) zerlegt, die vom RISC-Kern ausgeführt werden.

RISC-Prozessoren – Computer mit reduziertem Befehlssatz – Berechnungen mit einem vereinfachten Befehlssatz (in der Literatur wird das Wort „reduziert“ oft fälschlicherweise mit „reduziert“ übersetzt). Die auf einem vereinfachten Befehlssatz basierende Prozessorarchitektur zeichnet sich durch das Vorhandensein von Befehlen fester Länge, eine große Anzahl von Registern, Register-zu-Register-Operationen und das Fehlen einer indirekten Adressierung aus. Das RISC-Konzept wurde von John Cocke von IBM Research entwickelt und der Name wurde von David Patterson geprägt.

Durch die Vereinfachung des Befehlssatzes soll die Pipeline verkürzt werden, wodurch Verzögerungen bei bedingten und unbedingten Verzweigungsvorgängen vermieden werden. Ein homogener Registersatz vereinfacht die Arbeit des Compilers bei der Optimierung ausführbaren Programmcodes. Darüber hinaus haben RISC-Prozessoren einen geringeren Stromverbrauch und eine geringere Wärmeableitung.

Zu den ersten Implementierungen dieser Architektur gehörten MIPS-, PowerPC-, SPARC-, Alpha- und PA-RISC-Prozessoren. IN mobile Geräte ARM-Prozessoren sind weit verbreitet.

MISC-Prozessoren – Computer mit minimalem Befehlssatz – Berechnungen mit einem minimalen Befehlssatz. Weitere Entwicklung Ideen des Teams von Chuck Moore, der glaubt, dass das Prinzip der Einfachheit, das ursprüngliche Prinzip der RISC-Prozessoren, zu schnell in den Hintergrund getreten ist. Im hitzigen Kampf um maximale Leistung hat RISC viele CISC-Prozessoren eingeholt und an Komplexität übertroffen. Die MISC-Architektur basiert auf einem Stack-Computing-Modell mit einer begrenzten Anzahl von Anweisungen (ca. 20–30 Anweisungen).

VLIW-Prozessoren – Sehr langes Befehlswort Befehlswort. Eine Prozessorarchitektur mit expliziter Rechenparallelität, die in das Prozessorbefehlssystem integriert ist. Sie sind die Basis für die EPIC-Architektur. Der wesentliche Unterschied zu superskalaren CISC-Prozessoren besteht darin, dass bei ihnen ein Teil des Prozessors (Scheduler) für das Laden der Ausführungsgeräte verantwortlich ist, wofür eine relativ kurze Zeit vorgesehen ist, während der Compiler mit dem Laden von Rechengeräten für den VLIW-Prozessor beschäftigt ist. für die deutlich mehr Zeit aufgewendet wird (Downloadqualität und dementsprechend Leistung müssten theoretisch höher sein). Ein Beispiel für einen VLIW-Prozessor ist Intel Itanium.

Mehrkernprozessoren – enthalten mehrere Prozessorkerne in einem Paket (auf einem oder mehreren Chips).

Prozessoren, die für die Ausführung einer Kopie ausgelegt sind Betriebssystem auf mehreren Kernen, stellen eine hochintegrierte Implementierung von Multiprocessing dar.

Erste Mehrkern-Mikroprozessor wurde POWER4 von IBM, das 2001 erschien und über zwei Kerne verfügte.

Im Oktober 2004 veröffentlichte Sun Microsystems Dual-Core-Prozessor UltraSPARC IV, das aus zwei modifizierten UltraSPARC III-Kernen bestand. Anfang 2005 entstand der Dual-Core UltraSPARC IV+.

Am 14. November 2005 veröffentlichte Sun den UltraSPARC T1 mit acht Kernen, wobei jeder Kern vier Threads ausführte.

5. Januar 2006 Intel des Jahres stellte den ersten Dual-Core-Prozessor auf einem einzigen Chip, Core Duo, für die mobile Plattform vor

Am 10. September 2007 wurden native (in Form eines einzelnen Chips) Quad-Core-Prozessoren für AMD Opteron-Server veröffentlicht, die während der Entwicklung den Codenamen AMD Opteron Barcelona trugen. Am 19. November 2007 kam der AMD Phenom Quad-Core-Prozessor für Heimcomputer in den Handel. Diese Prozessoren implementieren die neue Mikroarchitektur K8L (K10).

Im Oktober 2007 kam der UltraSPARC T2 mit acht Kernen auf den Markt, wobei jeder Kern 8 Threads ausführte.

Im März 2010 veröffentlichte AMD den weltweit ersten 12-Kerner Serverprozessoren Opteron 6100 x86-Architektur.

An dieser Moment Insbesondere Dual-, Quad- und Six-Core-Prozessoren sind weit verbreitet Intel Core Prozessor 2 Duo auf dem 65-nm-Conroe-Kern (später auf dem 45-nm-Wolfdale-Kern) und dem Athlon 64 X2 basierend auf der K8-Mikroarchitektur. Im November 2006 wurde der erste Intel Core 2 Quad-Prozessor mit vier Kernen auf Basis des Kentsfield-Kerns veröffentlicht, bei dem es sich um eine Anordnung aus zwei Conroe-Kristallen in einem Paket handelt. Der Nachkomme dieses Prozessors war der Intel Core 2 Quad auf dem Yorkfield-Kern (45 nm), der architektonisch dem Kentsfield ähnelte, jedoch eine größere Cache-Größe und Betriebsfrequenzen aufwies.

AMD ging seinen eigenen Weg und stellte Quad-Core-Prozessoren mit einem einzigen Chip her (im Gegensatz zu Intel, dessen erste Quad-Core-Prozessoren tatsächlich zwei Dual-Core-Chips zusammenklebten). Trotz aller Fortschrittlichkeit dieses Ansatzes war der erste „Quad-Core“ des Unternehmens namens AMD Phenom X4 nicht sehr erfolgreich. Der Rückstand gegenüber zeitgenössischen Konkurrenzprozessoren lag je nach Modell und spezifischer Aufgabenstellung zwischen 5 und 30 Prozent oder mehr.

Bis zum 1. und 2. Quartal 2009 aktualisierten beide Unternehmen ihre Quad-Core-Prozessoren. Intel stellte die Core-i7-Familie vor, die aus drei Modellen besteht, die mit unterschiedlichen Frequenzen arbeiten. Die wichtigsten Highlights dieses Prozessors sind die Verwendung eines Dreikanal-Speichercontrollers (DDR-3-Typ) und einer Achtkern-Emulationstechnologie (nützlich für bestimmte Aufgaben). Darüber hinaus konnte dank allgemeiner Optimierung der Architektur die Prozessorleistung bei vielen Aufgabentypen deutlich verbessert werden. Schwache Seite Plattform mit Core i7 ist der hohe Preis, da für die Installation dieses Prozessors ein teures Motherboard erforderlich ist Intel-Chipsatz X58 und ein Dreikanal-DDR3-Speicherset, das derzeit ebenfalls einen hohen Preis hat.

AMD wiederum präsentierte eine Linie Phenom-Prozessoren II X4. Bei der Entwicklung berücksichtigte das Unternehmen seine Fehler: Das Cache-Volumen wurde erhöht (für den ersten Phenom eindeutig unzureichend) und die Produktion des Prozessors wurde auf eine 45-nm-Prozesstechnologie umgestellt, was eine Reduzierung der Wärmeentwicklung ermöglichte und die Betriebsfrequenzen deutlich erhöhen. Generell liegt der AMD Phenom II Mit der Veröffentlichung des AMD Phenom II X6 Black Thuban 1090T Prozessors hat sich die Situation jedoch deutlich zu Gunsten von AMD verändert. Dieser Prozessor liegt preislich auf dem Niveau des Intel Core i7 930, kann aber leistungstechnisch mit der Intel Core i7-Prozessorlinie mithalten. Seine vollen 6 Kerne eignen sich hervorragend für komplexe Multithread-Aufgaben.

Beim Caching wird ein zusätzlicher Hochgeschwindigkeitsspeicher (Cache) verwendet, um Kopien von Informationsblöcken aus dem Hauptspeicher (RAM) zu speichern, auf die in naher Zukunft wahrscheinlich zugegriffen wird.

Es gibt Caches der Level 1, 2 und 3 (bezeichnet als L1, L2 und L3 – ab Level 1, Level 2 und Level 3). Der Cache der ersten Ebene hat die geringste Latenz (Zugriffszeit), ist jedoch klein; außerdem werden die Caches der ersten Ebene häufig mit mehreren Ports ausgestattet. Also, AMD-Prozessoren K8 war in der Lage, gleichzeitiges 64-Bit-Schreiben und -Lesen oder zwei 64-Bit-Lesevorgänge pro Takt durchzuführen; AMD K8L konnte zwei 128-Bit-Lese- oder Schreibvorgänge in beliebiger Kombination durchführen. Intel-Prozessoren Core 2 kann 128-Bit-Schreib- und Lesevorgänge pro Taktzyklus durchführen. Ein L2-Cache hat normalerweise eine deutlich höhere Zugriffslatenz, kann aber viel größer gemacht werden. Der Level-3-Cache ist der größte und ziemlich langsam, aber immer noch viel schneller als RAM.

Die Harvard-Architektur unterscheidet sich von der Von-Neumann-Architektur dadurch, dass der Programmcode und die Daten in unterschiedlichen Speichern gespeichert werden. In einer solchen Architektur sind viele Programmiermethoden unmöglich (z. B. kann ein Programm seinen Code während der Ausführung nicht ändern; es ist unmöglich, den Speicher zwischen den Programmen dynamisch neu zu verteilen). Programmcode und Daten); Die Harvard-Architektur ermöglicht jedoch eine effizientere Arbeit bei begrenzten Ressourcen und wird daher häufig in eingebetteten Systemen verwendet.

Parallele Architektur – Die von Neumann-Architektur hat den Nachteil, dass sie sequentiell ist. Egal wie groß die Datenmenge ist, die verarbeitet werden muss, jedes Byte davon muss den Zentralprozessor passieren, auch wenn für alle Bytes die gleiche Operation durchgeführt werden muss. Dieser Effekt wird als von-Neumann-Engpass bezeichnet.

Um diesen Nachteil zu überwinden, wurden und werden parallele Prozessorarchitekturen vorgeschlagen. In Supercomputern kommen Parallelprozessoren zum Einsatz.

Mögliche Optionen für eine parallele Architektur können sein (gemäß Flynns Klassifizierung):

SISD – ein Befehlsstrom, ein Datenstrom;

SIMD – ein Befehlsstrom, viele Datenströme;

MISD – mehrere Befehlsströme, ein Datenstrom;

MIMD – viele Befehlsströme, viele Datenströme.

Für die digitale Signalverarbeitung, insbesondere bei begrenzter Verarbeitungszeit, werden spezialisierte Hochleistungs-Mikroprozessoren mit paralleler Architektur eingesetzt.

Die ersten x86-Prozessoren verbrauchten (nach modernen Maßstäben) eine winzige Menge Energie, einen Bruchteil eines Watts. Eine Erhöhung der Anzahl der Transistoren und eine Erhöhung der Taktfrequenz der Prozessoren führten zu einem deutlichen Anstieg dieses Parameters. Die produktivsten Modelle benötigen bis zu 130 Watt oder mehr. Der zunächst unbedeutende Faktor Energieverbrauch hat nun gravierende Auswirkungen auf die Entwicklung der Prozessoren:

– Verbesserung der Produktionstechnologie zur Reduzierung des Verbrauchs, Suche nach neuen Materialien zur Reduzierung von Leckströmen, Senkung der Versorgungsspannung des Prozessorkerns;

– das Aussehen von Sockets (Sockel für Prozessoren) mit eine große Anzahl Kontakte (mehr als 1000), von denen die meisten für die Stromversorgung des Prozessors bestimmt sind. So beträgt die Anzahl der Hauptstromkontakte bei Prozessoren für den beliebten LGA775-Sockel 464 (ca. 60 % der Gesamtzahl);

– Änderung des Prozessorlayouts. Der Prozessorkristall wurde von innen nach außen verschoben, um eine bessere Wärmeableitung an den Kühler des Kühlsystems zu gewährleisten.

– Integration von Temperatursensoren und einem Überhitzungsschutzsystem in den Chip, das die Prozessorfrequenz reduziert oder sogar stoppt, wenn die Temperatur unzulässig ansteigt;

– Auftritt in die neuesten Prozessoren intelligente Systeme, die die Versorgungsspannung und die Frequenz einzelner Prozessorblöcke und Kerne dynamisch ändern und nicht verwendete Blöcke und Kerne abschalten;

– das Aufkommen von Energiesparmodi, um den Prozessor bei geringer Last „in den Ruhezustand“ zu versetzen.

AUFGABE 2

248,615 =8F,9D70FA (16) = 370,47270 (8) =10111000,10011 (2)

248|16

240 15

8

0.615 * 16 =9.84

0.84*16 =13.44

0.44*16= 7.04

0.04*16 = 0.64

0.64*16 = 10.24

248|8

248 31|8

0 24 3

7

0.615*8 =4.92

0.92*8 = 7.36

0.36*8 = 2.88

0.28*8=7.04

0.04*8 = 0.32

248 |2

248 124|2

0 124 62 |2

0 62 31 |2

0 30 15|2

1 14 7|2

1 6 3 |2

1 2 1

0

0.615*2 = 1.23

0.23*2 = 0.46

0.46*2 = 0.92

0.92*2 = 1.84

0.84*2 = 1.68

322,549 =142,8C8B4 (16) =502,43105 (8) =
101000010.10001 (2)

322|8

320 40 |8

2 40 5

0

0.549*8= 4.392

0.392 * 8 = 3.136

0.136 * 8 = 1.088

0.088 * 8 = 0.704

0.704 * 8 = 5.632

322|16

320 20 |16

2 16 1

4

0.549*16 =8.784

0.784 * 16 =12.544

0.544*16 =8.704

0.704*16 =11.264

0.264*16 = 4.224

322 |2

322 161|2

0 160 80 |2

1 80 40 |2

0 40 20 |2

0 20 10 |2

0 10 5 |2

0 4 2 |2

1 2 1

0

0.549 *2 = 1.098

0.098*2 = 0.196

0.196*2 = 0.392

0.392*2 = 0.784

0.784 *2 = 1.568

11001100,10101 =204,65625 (10) = 314,52 (8) =CC.A8 (16)

11110001.11101= 241.90625 (10) = 361.72 (8) =F1.E8 (16)

2.462E+03 = 2462

7,355E-02 = 0,07355

5,526E+04 = -55260

1,254E-01 = 0,1254

AUFGABE 3

1) alle Dateien, deren Namen mit „pr“ beginnen und nicht mehr als drei Zeichen enthalten

Probe

pr*.

alle Dateien

*

2) order.txt aus dem Setup-Ordner

D:\Setup\order.txt

alladdin.exe aus dem Spieleordner

D:\Mguk\Games\alladdin.exe

AUFGABE 4

Um die Aufgabe zu diesem Thema abzuschließen, müssen Sie in einem Textverarbeitungsprogramm entwickeln Microsoft Word Werbeblatt zu einem bestimmten Thema. Das Dokument muss enthalten:

- Text;

– geschweifter Text;

- Zeichnung;

- Tisch.

Zum Thema: „Werbeblatt für einen Buchverlag mit Formular zur Buchbestellung per Post.“






Abonnieren Sie den kostenlosen Katalog und erhalten Sie einen Rabatt auf jeden zweiten Einkauf

Gutschein für kostenlosen vierteljährlichen Katalog

VOLLSTÄNDIGER NAME. _______________________________

Alter___________________________

Art Ihrer Aktivität____________

Deine Interessen_____________________

Ihre literarischen Vorlieben______________________________

Gesamtbetrag des Einkaufs

Rabattbetrag

bis zu 1000 Rubel.

Monitore. Zweck, Haupttypen, Betriebsarten und Eigenschaften Drucker persönlicher Computer, ihre Arten und Eigenschaften

Die wichtigste Komponente eines jeden Computers ist sein Prozessor (Mikroprozessor)- ein softwaregesteuertes Informationsverarbeitungsgerät, das in Form eines oder mehrerer groß- oder ultragroßintegrierter Schaltkreise hergestellt ist.

Der Prozessor umfasst die folgenden Komponenten:

§ Kontrollgerät- erzeugt und liefert zum richtigen Zeitpunkt bestimmte Steuersignale (Steuerimpulse) an alle PC-Elemente, die durch die Besonderheiten des ausgeführten Vorgangs und die Ergebnisse früherer Vorgänge bestimmt werden;

§ Arithmetische Logikeinheit (ALU)- Entwickelt, um alle arithmetischen Aufgaben auszuführen logische Operationenüber numerische und symbolische Informationen;

§ Coprozessor- ein zusätzlicher Block, der für komplexe mathematische Berechnungen und beim Arbeiten mit Grafik- und Multimediaprogrammen erforderlich ist;

§ Allzweckregister- Hochgeschwindigkeitsspeicherzellen, die hauptsächlich als verschiedene Zähler und Zeiger auf den PC-Adressraum verwendet werden und deren Zugriff die Geschwindigkeit des ausgeführten Programms erheblich erhöhen kann;

§ Cache-Speicher- ein Hzur kurzfristigen Speicherung, Aufzeichnung und Ausgabe von Informationen, die zu einem bestimmten Zeitpunkt verarbeitet oder in Berechnungen verwendet werden. Dadurch wird die Prozessorleistung verbessert;

§ Datenbus- Schnittstellensystem, das den Datenaustausch mit anderen PC-Geräten implementiert;

§ Taktgenerator(Impulse);

§ Interrupt-Controller;

Die Hauptmerkmale des Prozessors sind:

Taktfrequenz- die Anzahl der Elementaroperationen (Zyklen), die der Prozessor in einer Sekunde ausführt. Die Taktrate wird in Megahertz (MHz) oder Gigahertz (GHz) gemessen. Je höher die Taktrate, desto schneller läuft der Prozessor. Diese Aussage gilt für eine Generation von Prozessoren, denn in verschiedene Modelle Prozessoren benötigen unterschiedlich viele Taktzyklen, um bestimmte Aktionen auszuführen.

Bittiefe– die Anzahl der Binärstellen (Bits) von Informationen, die in einem Taktzyklus verarbeitet (oder übertragen) werden. Die Bitgröße bestimmt auch die Anzahl der Binärbits, die im Prozessor zum Adressieren des RAM verwendet werden können.

Die Prozessoren zeichnen sich außerdem aus durch: Typ des Prozessorkerns(Produktionstechnologie, bestimmt durch die Dicke der minimalen Elemente des Mikroprozessors); Busfrequenz, wo sie arbeiten; Cache-Größe; Zugehörigkeit zu einer bestimmten Familie(sowie Generierung und Modifikation); "Formfaktor"(Gerätestandard und Aussehen) Und Zusatzfunktionen (zum Beispiel das Vorhandensein eines speziellen Systems von „Multimedia-Befehlen“, das die Arbeit mit Grafiken, Video und Ton optimieren soll).

Heutzutage verfügen fast alle Desktop-IBM-PC-kompatiblen Computer über Prozessoren von zwei Hauptherstellern (zwei Familien) – Intel Und AMD.

Im Laufe der gesamten Entwicklungsgeschichte des IBM PC gab es acht Hauptgenerationen der Intel-Mikroprozessorfamilie (von i8088 bis Pentium IV). Darüber hinaus hat Intel Spin-off-Generationen hervorgebracht und produziert diese auch weiterhin Pentium-Prozessoren(Pentium Pro, Pentium MMX, Intel Celeron usw.). Generationen von Intel-Mikroprozessoren unterscheiden sich in Geschwindigkeit, Architektur, Formfaktor usw. Darüber hinaus werden in jeder Generation verschiedene Modifikationen vorgenommen.

Ein Konkurrent der Intel-Mikroprozessoren ist heute die AMD-Mikroprozessorfamilie: Athlon, Sempron, Opteron (Shanghai), Phenom.

Intel-Mikroprozessoren und AMD sind nicht kompatibel (obwohl beide IBM-PC-kompatibel sind und dieselben Programme unterstützen) und erfordern entsprechende Motherboards und manchmal Speicher.

Für PCs wie Macintosh (Apple) werden eigene Prozessoren der Familie hergestellt Mac.



Freunden erzählen