So ermitteln Sie die RAM-Frequenz. Sehen Sie, was „DRAM“ in anderen Wörterbüchern ist. Lesezugriffsprotokoll

💖 Gefällt es dir? Teilen Sie den Link mit Ihren Freunden

Im vorherigen Abschnitt haben wir gesehen, dass DRAM-Chips Adressen multiplexen, um Ressourcen zu sparen. Wir haben auch gesehen, dass der Zugriff auf DRAM-Zellen Zeit braucht, weil sich die Kondensatoren in diesen Zellen so entladen, dass nicht sofort ein stabiles Signal entsteht. Wir haben auch gesehen, dass DRAM-Zellen aufgeladen werden müssen. Jetzt ist es an der Zeit, alles zusammenzufassen und zu sehen, wie diese Faktoren die Details des DRAM-Zugriffs bestimmen.

Wir werden uns auf moderne Technologie konzentrieren und nicht auf asynchrones DRAM und seine Varianten eingehen, da diese nicht relevant sind. Leser, die sich für dieses Thema interessieren, werden auf und verwiesen. Wir werden auch nicht über Rambus DRAM (RDRAM) sprechen, obwohl diese Technologie nicht veraltet ist. Es ist einfach nicht weit verbreitet Systemspeicher. Wir werden uns ausschließlich auf synchrones DRAM (SDRAM – Synchronous DRAM) und seinen Nachfolger Double Data Rate DRAM (DDR) konzentrieren.

Synchrones DRAM arbeitet, wie der Name schon sagt, mit einer Zeitquelle. Der Speichercontroller verfügt über einen Taktgenerator, dessen Frequenz die Frequenz des Systembusses (FSB – Front Side Bus) bestimmt – der von DRAM-Chips verwendeten Speichercontrollerschnittstelle. Zum Zeitpunkt des Schreibens sind Frequenzen von 800 MHz, 1066 MHz und sogar 1333 MHz im Einsatz, wobei 1600 MHz für die nächste Generation angekündigt sind. Das bedeutet nicht, dass die Busfrequenz wirklich so hoch ist. Stattdessen werden Daten zwei- oder viermal in einem Taktzyklus übertragen. Große Zahlen verkauft sich besser, daher bewerben Hersteller einen 200-MHz-Bus mit vierfacher Datenrate als „effektiven“ 800-MHz-Bus.

Heutzutage beträgt bei SDRAM eine Datenübertragung 64 Bit – 8 Byte. Daher beträgt die Datenübertragungsrate für den FSB das 8-Byte-fache der effektiven Busfrequenz (6,4 Gbit/s für einen 200-MHz-Bus mit vierfacher Datenübertragungsgeschwindigkeit). Das scheint viel zu sein, aber das ist Spitzengeschwindigkeit, ein Maximum, das nicht übertroffen werden kann. Wie wir sehen werden, geht das Kommunikationsprotokoll mit dem RAM-Modul davon aus, dass es viele Zeiträume gibt, in denen keine Daten übertragen werden. Genau diese Zeiträume müssen wir verstehen und minimieren lernen, um die beste Leistung zu erzielen.

2.2.1 Lesezugriffsprotokoll

Abbildung 2.8: Zeitdiagramme des SDRAM-Lesezugriffsprotokolls

Abbildung 2.8 zeigt die Aktivität an einigen Ausgängen des DRAM-Moduls, die in drei Phasen unterteilt werden kann, die in der Abbildung unterschiedlich eingefärbt sind. Wie immer fließt die Zeit von links nach rechts. Viele Details werden weggelassen. Hier geht es nur um Bustakte, RAS- und CAS-Signale sowie Adress- und Datenbusse. Der Lesezyklus beginnt damit, dass der Speichercontroller die Zeilenadresse über den Adressbus sendet und den RAS-Signalpegel senkt. Alle Signale werden gelesen, während das Taktsignal (CLK) ansteigt. Es spielt also keine Rolle, ob die Signale keine exakten Rechteckwellenformen sind – solange sie stabil sind, wenn sie mit dem Lesen beginnen. Das Festlegen der Zeilenadresse bewirkt, dass der RAM-Chip die Adresszeile zwischenspeichert.

Das CAS-Signal kann über t RCD-Taktzyklen (RAS-to-CAS Delay) gesendet werden. Anschließend wird die Spaltenadresse über den Adressbus übertragen und der CAS-Signalpegel reduziert. Hier sehen wir, wie zwei Teile einer Adresse (fast die Hälfte) über denselben Adressbus übertragen werden können.

Abschließend ist die Adressierung abgeschlossen und die Daten können übertragen werden. Der RAM-Chip benötigt einige Zeit, um dies vorzubereiten. Diese Verzögerung wird üblicherweise CAS-Latenz (CL) genannt. In Abbildung 2.8 ist er gleich 2. Er kann je nach Qualität des Speichercontrollers, des Motherboards und des DRAM-Moduls höher oder niedriger sein. Es können auch halbe Werte angenommen werden. Bei CL=2,5 beginnt die Übertragung der ersten Daten beim ersten Abfall des Taktsignals im blauen Bereich.

Bei all diesen Vorbereitungen wäre es verschwenderisch, nur ein einziges Datenwort zu übertragen. Aus diesem Grund ermöglichen DRAM-Module dem Speichercontroller, die übertragene Datenmenge festzulegen. Normalerweise besteht die Wahl zwischen 2, 4 oder 8 Wörtern. Dadurch können ganze Cache-Zeilen ohne eine neue RAS/CAS-Sequenz gefüllt werden. Der Speichercontroller kann auch ohne eine neue Zeilenauswahl ein CAS-Signal senden. Auf diese Weise können Sie sequentielle Speicheradressen viel schneller lesen oder schreiben, da Sie kein RAS-Signal senden und die Leitung nicht deaktivieren müssen (siehe unten). Der Speichercontroller muss entscheiden, ob die Zeichenfolge „offen“ bleiben soll. Theoretisch könnte es negative Folgen haben, wenn Sie es die ganze Zeit offen lassen bestehende Anwendungen(cm. ). Wann senden? neues Signal CAS – bestimmt durch die Command Rate-Eigenschaft des RAM-Moduls (normalerweise als T bezeichnet). X, Wo X Dieser Wert ist z. B. 1 oder 2, bei Hochleistungs-DRAM-Modulen, die in jedem Zyklus neue Befehle akzeptieren, beträgt er 1.

In diesem Beispiel gibt SDRAM ein Wort pro Zyklus aus. Das kann die erste Generation. DDR kann zwei Wörter pro Zyklus übertragen. Dies verkürzt die Übertragungszeit, ändert jedoch nichts an der Latenz. Im Prinzip funktioniert DDR2 gleich, in der Praxis sieht es allerdings anders aus. Hier muss nicht näher darauf eingegangen werden. Es genügt der Hinweis, dass DDR2 schneller, billiger, zuverlässiger und energieeffizienter gemacht werden kann (weitere Einzelheiten finden Sie unter).

2.2.2 Vorladung und Aktivierung

Abbildung 2.8 deckt nicht den gesamten Zyklus ab. Es zeigt nur einen Teil des gesamten DRAM-Zugriffszyklus. Bevor ein neues RAS-Signal gesendet werden kann, muss die aktuell ausgewählte Leitung deaktiviert und die neue Leitung aufgeladen werden. Wir können uns hier auf den Fall konzentrieren, dass dies durch einen expliziten Befehl geschieht. Es gibt Protokollverbesserungen, die diesen zusätzlichen Schritt in einigen Fällen überflüssig machen. Die durch den Ladevorgang verursachte Verzögerung beeinträchtigt jedoch weiterhin den Betrieb.

Abbildung 2.9: SDRAM-Vorladung und -Aktivierung

Abbildung 2.9 zeigt die Aktivität, die mit einem CAS-Signal beginnt und mit einem CAS-Signal für eine andere Leitung endet. Die vom ersten CAS-Signal angeforderten Daten erscheinen wie zuvor über CL-Zyklen hinweg. Für dieses Beispiel sind zwei Wörter erforderlich, deren Übertragung in das SDRAM zwei Zyklen dauert. Sie können sich vier Wörter auf einem DDR-Chip vorstellen.

Selbst bei DRAM-Modulen mit einer Befehlsrate von 1 kann der Vorladebefehl nicht sofort ausgegeben werden. Sie müssen warten, während die Daten übertragen werden. In unserem Fall sind das zwei Zyklen. Es stellt sich heraus, dass es dasselbe ist wie bei CL, aber das ist nur ein Zufall. Für das Vorladesignal gibt es keine spezielle Standleitung. Stattdessen verwenden einige Implementierungen gleichzeitig niedrigere Write Enable (WE)- und RAS-Ebenen. Diese Kombination hat für sich genommen keine Bedeutung (siehe Codierungsdetails in ).

Sobald der Vorladebefehl ausgegeben wurde, müssen t RP-Zyklen (Row Precharge Time) abgewartet werden, bevor die Zeile ausgewählt werden kann. In Abbildung 2.9 überschneidet sich die meiste Zeit (in Lila) mit der Datenübertragung (in Hellblau). Das ist gut! Allerdings ist t RP länger als die Datenübertragungszeit, sodass das nächste RAS-Signal um einen Zyklus verzögert wird.

Wenn wir die Zeitachse im Diagramm fortführen würden, würden wir feststellen, dass die nächste Datenübertragung 5 Zyklen nach dem Ende des aktuellen beginnt. Das bedeutet, dass der Datenbus nur in zwei von sieben Zyklen genutzt wird. Multiplizieren Sie das mit der FSB-Geschwindigkeit, und die theoretischen 6,4 Gbit/s auf einem 800-MHz-Bus ergeben 1,8 Gbit/s. Das ist schlecht und sollte vermieden werden. Die in Kapitel 6 beschriebenen Techniken helfen Ihnen, diese Geschwindigkeit zu erhöhen. Aber das muss der Programmierer versuchen.

Es gibt noch eine weitere Timing-Konstante für SDRAM-Module, die wir nicht besprochen haben. In Abbildung 2.9 ist der Vorladebefehl nur durch die Datenübertragungszeit begrenzt. Eine weitere Einschränkung besteht darin, dass das SDRAM-Modul nach dem RAS-Signal Zeit benötigt, bevor es eine weitere Zeile laden kann (diese Zeit wird mit tRAS bezeichnet). Diese Zahl ist normalerweise recht hoch und beträgt das Zwei- bis Dreifache des tRP-Werts. Dies stellt ein Problem dar, wenn auf das RAS-Signal nur ein CAS-Signal folgt und die Datenübertragung nach mehreren Zyklen endet. Nehmen Sie in Abbildung 2.9 an, dass dem ersten CAS-Signal unmittelbar ein RAS-Signal vorausgeht und t RAS gleich 8 Zyklen ist. Dann muss der Vorladebefehl um einen Zyklus verzögert werden, da die Summe aus t RCD , CL und t RP (da sie größer als die Datenübertragungszeit ist) nur 7 Zyklen beträgt.

DDR-Module werden oft mit einer speziellen Notation beschrieben: w-x-y-z-T. Zum Beispiel: 2-3-2-8-T1. Das heisst:

w 2 CAS-Latenz (CL)
X 3 RAS-zu-CAS-Verzögerung (t RCD)
j 2 RAS-Vorladung (tRP)
z 8 Aktiv bis Vorladeverzögerung (t RAS)
TT1Befehlsrate

Es gibt viele weitere Zeitkonstanten, die beeinflussen, wie Befehle ausgegeben und ausgeführt werden sollen. In der Praxis reichen diese fünf Konstanten jedoch aus, um die Leistung des Moduls zu bestimmen.

Manchmal ist es hilfreich, diese Informationen über den von Ihnen verwendeten Computer zu kennen, um bestimmte Messungen richtig zu interpretieren. Und es ist auf jeden Fall nützlich, diese Details zu kennen, wenn Sie einen Computer kaufen, da sie neben FSB- und SDRAM-Geschwindigkeiten zu den wichtigsten Faktoren gehören, die die Leistung eines Computers bestimmen.

Der abenteuerlustige Leser kann auch versuchen, das System anzupassen. Manchmal können Sie im BIOS einige oder alle dieser Werte ändern. SDRAM-Module verfügen über programmierbare Register, in denen diese Werte eingestellt werden können. Normalerweise wählt das BIOS den besten Standardwert. Wenn das RAM-Modul Gute Qualität, dann ist es möglicherweise möglich, eine der Verzögerungen zu reduzieren, ohne die Stabilität des Computers zu beeinträchtigen. Zahlreiche Übertaktungsseiten im Internet bieten eine Menge Dokumentation dazu. Tun Sie dies auf eigene Gefahr und Gefahr, aber sagen Sie später nicht, dass Sie nicht gewarnt wurden.

2.2.3 Nachladen

Das am häufigsten übersehene Thema bei der Betrachtung des DRAM-Zugriffs ist das Aufladen. Wie in Abschnitt 2.1.2 gezeigt, müssen DRAM-Zellen ständig aktualisiert werden. Und dies geschieht nicht unbemerkt vom Rest des Systems. Wenn eine Zeichenfolge überladen ist (die Maßeinheit ist hier Zeichenfolge (siehe), obwohl in anderer Literatur etwas anderes angegeben ist), kann nicht auf sie zugegriffen werden. Die Studie zeigt, dass „überraschenderweise das Aufladen von DRAM einen dramatischen Einfluss auf die Leistung haben kann.“

Gemäß der JEDEC-Spezifikation (Joint Electron Device Engineering Council) muss jede DRAM-Zelle alle 64 ms aufgeladen werden. Wenn das DRAM-Array über 8192 Zeilen verfügt, bedeutet dies, dass der Speichercontroller im Durchschnitt alle 7,8125 Mikrosekunden einen Aufladebefehl senden muss (diese Befehle können in der Warteschlange stehen, sodass in der Praxis der maximale Abstand zwischen zwei von ihnen möglicherweise größer sein kann). Es liegt in der Verantwortung des Speichercontrollers, den Zeitplan für die Aufladebefehle zu verwalten. Das DRAM-Modul merkt sich die Adresse der zuletzt neu geladenen Zeile und erhöht den Adresszähler automatisch für jeden neuen Befehl.

Der Programmierer hat kaum Einfluss auf das Aufladen und den Zeitpunkt, zu dem diese Befehle gegeben werden. Aber es ist wichtig, diesen Teil zu haben Lebenszyklus Bei der Interpretation von Messungen wird DRAM berücksichtigt. Wenn ein wichtiges Wort aus einer Zeichenfolge gelesen werden muss und die Zeichenfolge gerade aufgeladen wird, kann der Prozessor längere Zeit im Leerlauf sein. Wie lange der Ladevorgang dauert, hängt vom DRAM-Modul ab.

2.2.4 Speichertypen

Es lohnt sich, ein wenig Zeit damit zu verbringen, die vorhandenen Speichertypen und ihre nächsten Nachfolger zu beschreiben. Wir beginnen mit SDR (Single Data Rate) SDRAM, da diese die Grundlage für DDR (Double Data Rate) SDRAM bilden. SDRs waren sehr einfach. Die Geschwindigkeit der Speicherzellen und der Datenübertragung war gleich.

Abbildung 2.10: SDR-SDRAM-Operationen

In Abbildung 2.10 kann eine DRAM-Speicherzelle Speicherinhalte mit der gleichen Geschwindigkeit ausgeben, wie sie über den Speicherbus transportiert werden. Wenn eine DRAM-Zelle mit 100 MHz betrieben werden kann, beträgt die Bus-Datenübertragungsrate 100 MB/s. Frequenz F ist für alle Komponenten gleich. Erheben Durchsatz DRAM-Chips sind teuer, da der Stromverbrauch mit der Frequenz steigt. Angesichts der großen Anzahl an Zellenarrays ist dies unglaublich teuer. ( Stromverbrauch = Dynamische Kapazität × Spannung 2 × Frequenz). Tatsächlich ist dies ein noch größeres Problem, da eine Erhöhung der Frequenz auch eine Erhöhung der Spannung erfordert, um die Systemstabilität aufrechtzuerhalten. Beim DDR-SDRAM (später DDR1 genannt) wurde die Bandbreite erhöht, ohne die beteiligten Frequenzen zu erhöhen.

Abbildung 2.11: DDR1-SDRAM-Operationen

Der Unterschied zwischen SDR und DDR1 besteht, wie in Abbildung 2.11 zu sehen und aus dem Namen zu verstehen ist, darin, dass in einem Zyklus die doppelte Datenmenge übertragen wird. Das heißt, der DDR1-Chip kann Daten übertragen, wenn der Signalpegel zunimmt und abnimmt. Dies wird manchmal als „Doppelpumpen“-Reifen bezeichnet. Um dies zu ermöglichen, ohne die Frequenz des Speicherzellenfeldes zu erhöhen, wird ein Puffer verwendet. Der Puffer speichert zwei Bits pro Datenzeile. Dies wiederum erfordert, dass das Zellenfeld in Abbildung 2.7 über einen zweizeiligen Datenbus verfügt. Die Implementierung ist trivial: Sie müssen für zwei DRAM-Zellen dieselbe Spaltenadresse verwenden und parallel auf sie zugreifen. Änderungen am Zellenarray werden minimal sein.

SDR-DRAMs waren einfach anhand ihrer Frequenz bekannt (z. B. PC100 für 100-MHz-SDR). Um den Klang von DDR1-DRAM zu verbessern, mussten Vermarkter diese Schaltung ändern, da sich die Frequenz nicht änderte. Sie haben einen Namen angenommen, der die Byterate enthält, die das DDR-Modul unterstützt (es verfügt über einen 64-Bit-breiten Bus):

100 MHz × 64 Bit × 2 = 1600 Mbit/s

Daher heißt das 100-MHz-DDR-Modul PC1600. Mit 1600 > 100 sind alle Marketinganforderungen erfüllt – es klingt deutlich besser, obwohl die tatsächliche Verbesserung nur das Doppelte beträgt. ( Ich würde es verstehen, wenn sie es verdoppeln würden, sonst wären die Zahlen überhöht.}

Abbildung 2.12: DDR2 SDRAM-Operationen

Um noch mehr aus der Technologie herauszuholen, beinhaltet DDR2 noch ein paar weitere Neuerungen. Die offensichtlichste Änderung ist, wie aus Abbildung 2.1 ersichtlich, die Verdoppelung der Busfrequenz. Eine Verdoppelung der Frequenz bedeutet eine Verdoppelung des Durchsatzes. Da eine Verdoppelung der Frequenz für ein Zellenarray wirtschaftlich nicht machbar ist, muss der I/O-Puffer nun vier Bits pro Zyklus empfangen, die er dann über den Bus überträgt. Das bedeutet, dass die Änderungen am DDR2-Modul die Geschwindigkeit des DIMM-I/O-Puffers erhöhen sollen. Es ist auf jeden Fall möglich und erfordert nicht wesentlich mehr Strom – es handelt sich nur um eine kleine Komponente, nicht um das gesamte Modul. Der Name, den sich die Vermarkter für DDR2 ausgedacht haben, ähnelt dem Namen für DDR1, nur wird bei der Berechnung des Wertes der Multiplikator von zwei durch vier ersetzt (jetzt haben wir einen „Vierfach-Pump“-Bus). Abbildung 2.13 zeigt die heute verwendeten Modulnamen.

Frequenz
Array
Frequenz
Reifen
Geschwindigkeit
Daten
Name
(Geschwindigkeit)
Name
(FSB)
133 MHz266 MHz4256 Mbit/sPC2-4200DDR2-533
166 MHz333 MHz5312 Mbit/sPC2-5300DDR2-667
200 MHz400 MHz6400 Mbit/sPC2-6400DDR2-800
250 MHz500 MHz8000 Mbit/sPC2-8000DDR2-1000
266 MHz533 MHz8512 Mbit/sPC2-8500DDR2-1066

Abbildung 2.13: DDR2-Modulnamen

Im Namen steckt noch ein weiterer Trick. Von der CPU verwendete FSB-Geschwindigkeit Hauptplatine und durch das DRAM-Modul wird in Form der „effektiven“ Frequenz ausgedrückt. Das heißt, es wird mit 2 multipliziert, da die Datenübertragung erfolgt, wenn der Signalpegel des Taktgenerators zunimmt und abnimmt und die Zahl zunimmt. Ein 133-MHz-Modul mit einem 266-MHz-Bus hat also eine FSB-„Frequenz“ von 533 MHz.

DDR3-Spezifikation (die echte, nicht das verwendete GDDR3). Grafikkarten) impliziert weitere Änderungen, die die Logik des Übergangs zu DDR2 fortsetzen. Die Spannung wird von 1,8 V für DDR2 auf 1,5 V für DDR3 reduziert. Da der Stromverbrauch proportional zum Quadrat der Spannung ist, ergibt dies allein eine Verbesserung um 30 %. Wenn man die Chipreduzierung und andere elektrische Verbesserungen hinzufügt, kann DDR3 bei gleicher Frequenz die Hälfte des Stroms verbrauchen. Und bei einer höheren Frequenz kommt man mit der gleichen Menge aus. Oder Sie verdoppeln die Kapazität bei gleicher Wärmeleistung.

Das Zellenarray des DDR3-Moduls läuft mit einem Viertel der externen Busgeschwindigkeit und erfordert einen I/O-Puffer von acht Bit, gegenüber vier Bit von DDR2. Abbildung 2.14 zeigt das Diagramm.

Abbildung 2.14: DDR3-SDRAM-Operationen

Es ist wahrscheinlich, dass DDR3-Module zunächst eine etwas höhere CAS-Latenz haben als DDR2, da es sich bei DDR2 um eine ausgereiftere Technologie handelt. Daher ist die Verwendung von DDR3 nur bei höheren Frequenzen als den mit DDR2 erreichbaren oder wenn der Durchsatz wichtiger ist als die Latenz, sinnvoll. Es ist bereits die Rede von 1,3-V-Modulen, die die gleiche CAS-Latenz wie DDR2 haben werden. Auf jeden Fall die Chance, mehr zu erreichen hohe Geschwindigkeiten aufgrund schnellerer Busse wird die Erhöhung der Latenz überwiegen.

Eins mögliches Problem Bei DDR3 besteht der Vorteil, dass bei Geschwindigkeiten von 1600 MBit/s und höher die Anzahl der Module pro Kanal auf eins reduziert werden kann. IN frühere Versionen Diese Einschränkung galt für alle Frequenzen, daher besteht die Hoffnung, dass sie im Laufe der Zeit für alle Frequenzen aufgehoben wird. Andernfalls wird die Kapazität der Systeme stark eingeschränkt.

Abbildung 2.15 zeigt die erwarteten DDR3-Modulnamen. JEDEC hatte zu diesem Zeitpunkt die ersten vier Typen genehmigt. Wenn man bedenkt, dass die 45-nm-Prozessoren von Intel eine FSB-Geschwindigkeit von 1600 MBit/s haben, sind für den Overclocker-Markt 1866 MBit/s erforderlich. Wir werden dies wahrscheinlich gegen Ende des DDR3-Lebenszyklus sehen.

Frequenz
Array
Frequenz
Reifen
Geschwindigkeit
Daten
Name
(Geschwindigkeit)
Name
(FSB)
100 MHz400 MHz6400 Mbit/sPC3-6400DDR3-800
133 MHz533 MHz8512 Mbit/sPC3-8500DDR3-1066
166 MHz667 MHz10667 Mbit/sPC3-10667DDR3-1333
200 MHz800 MHz12800 Mbit/sPC3-12800DDR3-1600
233 MHz933 MHz14933 Mbit/sPC3-14900DDR3-1866

Abbildung 2.15: DDR3-Modulnamen

Bei allen DDR-Speichern gibt es ein Problem: Eine Erhöhung der Busfrequenz macht es schwierig, parallele Datenbusse zu erstellen. Das DDR2-Modul verfügt über 240 Pins. Alle Verbindungen zu den Daten- und Adresspins sollten so erfolgen, dass sie ungefähr gleich lang sind. Noch problematischer ist, dass bei mehreren DDR-Modulen am selben Bus die Signale mit jedem weiteren Modul immer stärker verzerrt werden. Die DDR2-Spezifikation erlaubt die Verwendung von nur zwei Modulen auf einem Bus (Kanal), DDR3 – nur ein Modul bei hohen Frequenzen. Bei 240 Pins pro Kanal kann eine einzelne Northbridge nicht mehr als zwei Kanäle gut bewältigen. Eine Alternative besteht darin, externe Speichercontroller zu verwenden (siehe Abbildung 2.2), aber das ist sehr teuer.

Das bedeutet nur, dass Motherboards Massencomputer darf nicht mehr als vier DDR2- oder DDR3-Module haben. Dadurch wird die Speicherkapazität des Systems erheblich eingeschränkt. Sogar die alten 32-Bit-IA-32-Prozessoren unterstützten bis zu 64 GB RAM und der Bedarf an großen Speichermengen wächst selbst für Heimsysteme, also muss etwas getan werden.

Eine Lösung besteht darin, jedem Prozessor Speichercontroller hinzuzufügen, wie am Anfang dieses Kapitels gezeigt. AMD erreicht dies mit der Opteron-Prozessorreihe und Intel wird dies mit der CSI-Technologie tun. Dies kann hilfreich sein, solange jedem Prozessor die Speichermenge zugewiesen werden kann, die der Prozessor nutzen kann. In manchen Situationen ist dies nicht der Fall und dieser Ansatz führt zur NUMA-Architektur mit ihren negativen Auswirkungen. Für manche Situationen ist eine völlig andere Lösung erforderlich.

Intels Lösung für große Servermaschinen heißt zumindest für die kommenden Jahre Fully Buffered DRAM (FB-DRAM). FB-DRAM-Module verwenden die gleichen Komponenten wie heutige DDR2-Module und sind daher relativ günstig in der Herstellung. Der Unterschied besteht in der Verbindung zum Speichercontroller. Anstelle eines parallelen Datenbusses verwendet FB-DRAM einen seriellen Bus (dasselbe galt für Rambus DRAM und SATA, einen Nachfolger von PATA, und PCI Express nach PCI/AGP). Der serielle Bus kann mit einer viel höheren Frequenz betrieben werden, wodurch die negativen Auswirkungen der Serialisierung überwunden und sogar der Durchsatz erhöht werden. Die wichtigsten Auswirkungen der Verwendung eines seriellen Busses:

  1. Sie können mehrere Module auf einem Kanal verwenden,
  2. Es können mehrere Kanäle auf einer Northbridge/einem Speichercontroller verwendet werden.
  3. Der serielle Bus ist Vollduplex (zwei Leitungen).

Das FB-DRAM-Modul hat nur 69 Pins, statt 240 bei DDR2. Die gemeinsame Verwendung mehrerer FB-DRAM-Module ist viel einfacher, da die elektrischen Effekte eines solchen Busses einfacher zu kontrollieren sind. Die FB-DRAM-Spezifikation erlaubt den Einsatz von bis zu 8 Modulen pro Kanal.

Angesichts der Verbindungsanforderungen einer Zweikanal-Northbridge ist es jetzt möglich, sechs FB-DRAM-Kanäle mit weniger Pins anzusteuern: 2x240 gegenüber 6x69. Auch der On-Board-Pfad zu jedem Kanal ist viel einfacher, was dazu beitragen kann, den Preis von Motherboards niedrig zu halten.

Vollduplex-Parallelbusse sind für herkömmliche DRAM-Module zu teuer – es ist sehr teuer, die Anzahl der Leitungen zu verdoppeln. Bei seriellen Leitungen (auch wenn diese differenziell sind, wie es für FB-DRAM erforderlich ist) ist dies nicht der Fall, sodass der serielle Bus vollständig duplex ausgeführt wird, was in manchen Situationen bedeutet, dass sich die Bandbreite allein dadurch verdoppelt. Dies ist jedoch nicht der einzige Fall, in dem Parallelität zur Erhöhung des Durchsatzes eingesetzt wird. Da der FB-DRAM-Controller bis zu sechs Kanäle gleichzeitig verarbeiten kann, kann der Durchsatz mit FB-DRAM auch bei Systemen mit wenig RAM erhöht werden. Während ein DDR2-System mit vier Modulen über zwei Kanäle verfügt, kann die gleiche Kapazität von einem herkömmlichen FB-DRAM-Controller über vier Kanäle bereitgestellt werden. Die tatsächliche Bandbreite des seriellen Busses hängt davon ab, welche DDR2- (oder DDR3-) Chips in den FB-DRAM-Modulen verwendet werden.

Wir können die Vorteile folgendermaßen zusammenfassen:

Bei der Verwendung mehrerer DIMMs auf demselben Kanal gibt es Nachteile von FB-DRAM. Das Signal wird verzögert, allerdings nur minimal für jedes DIMM in der Kette, was eine erhöhte Latenz bedeutet. Aber bei gleicher Speichermenge und gleicher Frequenz ist FB-DRAM immer schneller als DDR2 und DDR3, da nur ein DIMM pro Kanal benötigt wird. Für Systeme mit großen Speichermengen bietet DDR einfach keine Lösung für Massenkomponenten.

2.2.5 Schlussfolgerungen

Dieser Abschnitt sollte zeigen, dass der Zugriff auf DRAM kein beliebig schneller Prozess sein kann. Zumindest im Vergleich zur Prozessorgeschwindigkeit und der Prozessorzugriffsgeschwindigkeit auf Register und Cache. Es ist wichtig, die Unterschiede zwischen CPU- und Speicherfrequenzen zu berücksichtigen. CPU Intel Core Prozessor 2 wird mit 2,933 GHz getaktet, und der Front-Side-Bus mit 1,066 GHz hat ein Taktverhältnis von 11:1 (beachten Sie, dass der Bus mit der vierfachen Busgeschwindigkeit läuft). Eine Leerlaufzeit von einem Speicherzyklus bedeutet eine Leerlaufzeit von 11 Prozessorzyklen. Die meisten Maschinen verwenden tatsächlich langsameres DRAM, was die Latenz weiter erhöht. Behalten Sie diese Zahlen im Hinterkopf, wenn wir in späteren Kapiteln über Ausfallzeiten sprechen.

Die Lesebefehlsdiagramme zeigen, dass DRAM-Module in der Lage sind, Daten schnell und dauerhaft zu übertragen. Ganze DRAM-Zeilen können ohne eine einzige Verzögerung übertragen werden. Der Datenbus kann zu 100 % ausgelastet bleiben. Für DDR-Module bedeutet dies, dass pro Zyklus zwei 64-Bit-Wörter übertragen werden. Bei DDR2-800-Modulen auf zwei Kanälen beträgt diese 12,8 Gbit/s.

Der Zugriff auf DRAM erfolgt jedoch nicht immer sequentiell, es sei denn, er ist speziell auf diese Weise organisiert. Es werden weit entfernte Speicherorte genutzt, wodurch ein Vorladen und neue RAS-Signale unumgänglich sind. Dann wird es langsamer und die DRAM-Module brauchen Hilfe. Je früher die Vorladung erfolgt und das RAS-Signal gesendet wird, desto geringer sind die Kosten für die Nutzung einer neuen Leitung.

Um Ausfallzeiten zu reduzieren und mehr Zeitüberschneidungen zwischen ihren Aufrufern zu erzeugen, wird Hardware- und Software-Prefetching verwendet (siehe Abschnitt 6.3). Es hilft auch dabei, Speichervorgänge zeitlich zu verschieben, sodass später weniger Ressourcen benötigt werden, bevor die Daten benötigt werden. Ein häufig auftretendes Problem besteht darin, dass die in einer Runde erzeugten Daten gespeichert werden müssen, die in der nächsten Runde benötigten Daten jedoch gelesen werden müssen. Durch die zeitliche Verschiebung des Lesevorgangs stellen wir sicher, dass Lese- und Schreibvorgänge nicht gleichzeitig ausgeführt werden müssen.

- Schneller, noch schneller, bitte beschleunigen Sie, zumindest ein wenig, sonst werde ich ...

– Ich kann nicht, lieber Gamer, weil ich meine maximale Taktfrequenz erreicht habe.

Der Dialog eines Gamers, für den jeder Sekundenbruchteil zählt, könnte in etwa so aussehen.

Taktfrequenz Arbeitsspeicher(RAM, RAM) ist nach der Lautstärke der zweitwichtigste Parameter. Je höher er ist, desto schneller erfolgt der Datenaustausch zwischen Prozessor und RAM, desto schneller arbeitet der Computer. RAM mit niedrigen Taktraten kann bei ressourcenintensiven Spielen und Programmen zum Engpass werden. Und wenn Sie nicht möchten, dass das kapriziöse Stück Hardware jedes Mal ein wenig schneller wird, achten Sie beim Kauf immer auf diese Eigenschaft. Heute werden wir darüber sprechen, wie Sie die RAM-Frequenz anhand der Beschreibung in den Geschäftskatalogen sowie der auf Ihrem PC installierten Version ermitteln können.

Wie man versteht, was für ein „Biest“ ein Geschäft anbietet

In der Beschreibung von RAM-Modulen auf Online-Shop-Websites werden manchmal nicht alle angegeben, sondern nur bestimmte Geschwindigkeitsmerkmale. Zum Beispiel:
  • DDR3, 12800 Mbit/s.
  • DDR3, PC12800.
  • DDR3, 800 MHz (1600 MHz).
  • DDR3, 1600 MHz.

Manche denken vielleicht, dass es sich in diesem Beispiel um vier verschiedene Planken handelt. Tatsächlich kann damit dasselbe RAM-Modul mit einer effektiven Frequenz von 1600 MHz beschrieben werden! Und all diese Zahlen deuten indirekt oder direkt darauf hin.

Um weitere Verwirrung zu vermeiden, wollen wir herausfinden, was sie bedeuten:

  • 12800 Mbit/s ist die Speicherbandbreite, ein Indikator, der durch Multiplikation der effektiven Frequenz (1600 MHz) mit der Busbreite eines Kanals (64 Bit oder 8 Byte) erhalten wird. Die Bandbreite beschreibt die maximale Informationsmenge, die ein RAM-Modul in einem Taktzyklus übertragen kann. Ich denke, es ist klar, wie man daraus die effektive Frequenz ermittelt: Sie müssen 12800 durch 8 teilen.
  • PC12800 oder PC3-12800– eine andere Bezeichnung für den Durchsatz eines RAM-Moduls. Übrigens verfügt ein Satz aus zwei Streifen, die für die Verwendung im Zweikanalmodus vorgesehen sind, über eine doppelt so hohe Bandbreite, sodass auf der Beschriftung möglicherweise PC25600 oder PC3-25600 angegeben ist.
  • 800 MHz (1600 MHz)– zwei Werte, von denen der erste die Frequenz des Speicherbusses selbst angibt und der zweite – zweimal größer – seine effektive Frequenz. Wie unterscheiden sich die Indikatoren? Wie Sie wissen, verwenden Computer RAM vom Typ DDR – mit der doppelten Datenübertragungsrate, ohne die Anzahl der Buszyklen zu erhöhen, d. h. in einem Taktzyklus werden nicht eine, sondern zwei herkömmliche Informationen darüber übertragen. Daher gilt der Hauptindikator als wirksam Taktfrequenz(in diesem Beispiel – 1600 MHz).

Der folgende Screenshot zeigt eine Beschreibung der Geschwindigkeitseigenschaften des Arbeitsspeichers aus den Katalogen von drei Computergeschäften. Wie Sie sehen, bezeichnen alle Verkäufer sie unterschiedlich.

Verschiedene RAM-Module derselben Generation – DDR, DDR2, DDR3 oder DDR4 – haben unterschiedliche Frequenzeigenschaften. Somit ist der gängigste DDR3-RAM im Jahr 2017 mit Frequenzen von 800, 1066, 1333, 1600, 1866, 2133 und 2400 MHz erhältlich. Manchmal wird es auch so bezeichnet: DDR3-1333, DDR3-1866 usw. Und das ist praktisch.

Nicht nur der RAM hat seine eigene effektive Frequenz, sondern auch das Gerät, das ihn steuert – der Speichercontroller. Im modernen Computersysteme, beginnend mit der Generation Sandy Bridge, es ist Teil des Prozessors. Bei älteren - als Teil der Komponenten Nord brücke Hauptplatine.

Fast alle RAMs können mit niedrigeren Taktraten betrieben werden, als in den Spezifikationen angegeben. RAM-Module mit unterschiedlichen Frequenzen sind, sofern andere Parameter ähnlich sind, untereinander kompatibel, können jedoch nur im Single-Channel-Modus funktionieren.

Wenn der Computer über mehrere RAM-Sticks mit unterschiedlichen Frequenzeigenschaften verfügt, tauscht das Speichersubsystem Daten mit der Geschwindigkeit der langsamsten Verbindung aus (mit Ausnahme von Geräten). Wenn also die Frequenz des Controllers 1333 MHz beträgt, einer der Streifen 1066 MHz und der andere 1600 MHz beträgt, erfolgt die Übertragung mit einer Geschwindigkeit von 1066 MHz.

So ermitteln Sie die RAM-Frequenz eines Computers

Bevor wir lernen, die Frequenzindikatoren des RAM auf einem PC zu bestimmen, wollen wir herausfinden, wie der Computer sie selbst erkennt. Es liest die im SPD-Chip aufgezeichneten Informationen aus, mit dem jeder einzelne RAM-Stick ausgestattet ist. Wie diese Mikroschaltung aussieht, zeigt das Foto unten.

SPD-Daten können auch von Programmen gelesen werden, beispielsweise dem bekannten Dienstprogramm, dessen Abschnitt „ SPD" Im Screenshot unten sehen wir die bereits bekannten Eigenschaften der Geschwindigkeit des RAM-Streifens (Feld „ MaxBandbreite") - PC3-12800 (800 MHz). Um die effektive Frequenz herauszufinden, teilen Sie einfach 12800 durch 8 oder multiplizieren Sie 800 mit 2. In meinem Beispiel beträgt diese Zahl 1600 MHz.

Allerdings in CPU-Z Es gibt einen weiteren Abschnitt – „ Erinnerung", und darin - der Parameter " DRAMFrequenz", entspricht 665,1 MHz. Wie Sie wahrscheinlich vermutet haben, handelt es sich dabei um tatsächliche Daten, also um den Frequenzmodus, in dem der RAM tatsächlich arbeitet. Wenn wir 665,1 mit 2 multiplizieren, erhalten wir 1330,2 MHz – ein Wert nahe 1333 – der Frequenz, mit der der Speichercontroller dieses Laptops arbeitet.

Neben CPU-Z werden ähnliche Daten auch von anderen Anwendungen zur Erkennung und Überwachung von PC-Hardware angezeigt. Nachfolgend finden Sie Screenshots des kostenlosen Dienstprogramms:

Weitere Optionen mit identischem Zweck: Speicherfrequenz, DRAM-Takt, MEM-Takteinstellung, Speichertakt (MHz), neue MEM-Geschwindigkeit (DDR), Systemspeicherfrequenz.

Die Option „DRAM-Frequenz“ ist eine der am häufigsten verwendeten BIOS-Optionen im Zusammenhang mit der Konfiguration des Arbeitsspeichers des Computers. Damit kann der Benutzer einen der wichtigsten RAM-Parameter einstellen – die Betriebsfrequenz der Speicherchips.

RAM ist eine der wichtigsten Komponenten persönlicher Computer. Ihr Zweck ist die Speicherung der genutzten Daten Betriebssystem und Anwendungsprogramme während der aktuellen Arbeitssitzung. Auf der Hardwareebene wird RAM in Form spezieller Module hergestellt, auf denen sich Mikroschaltungen befinden, die die eigentlichen Informationsspeicherzellen enthalten. Diese Module werden in spezielle Erweiterungssteckplätze eingesteckt Hauptplatine.

Typischerweise fällt Computer-RAM in die Kategorie des dynamischen Speichers. Dynamischer Speicher () unterscheidet sich vom statischen Speicher durch eine geringere Leistung, aber auch mehr niedriger Preis. Ein weiteres Merkmal des dynamischen Speichers ist die Notwendigkeit einer dynamischen Aktualisierung der Daten in den darauf installierten Mikroschaltungen.

Derzeit werden für RAM Module verwendet, die mit der synchronen DDR-DRAM-Technologie (Double Data Rate) hergestellt werden. DDR-Module nutzen den synchronen, also taktbestimmten Betriebsmodus und verfügen über die doppelte Bandbreite im Vergleich zu herkömmlichen synchronen Speichermodulen (SDRAM).

Die Betriebsfrequenz des dynamischen RAM kann als einer der wichtigsten Parameter seines Betriebs angesehen werden, da sie maßgeblich seine Leistung bestimmt. Normalerweise bezieht sich die Speicherfrequenz auf die Frequenz des Speicherbusses auf dem Motherboard.

Es ist notwendig, die tatsächliche Frequenz des Speicherbusses, also die Anzahl der vom Taktgenerator erzeugten Impulse, von der effektiven zu unterscheiden. Die effektive Frequenz ist in der Tat die tatsächliche Geschwindigkeit der Operationen, die während des Speicherbetriebs ausgeführt werden, und z moderne Typen RAM-Module wie DDR2 und DDR3 können um ein Vielfaches höher sein als die echten.

DDR-RAM-Module arbeiten in der Regel mit Frequenzen von 200, 266, 333, 400 MHz. DDR2-Module haben im Vergleich zu DDR2 normalerweise die doppelte effektive Frequenzcharakteristik – 400, 533, 667, 800, 1066 MHz und daher die doppelte Leistung. DDR3-Speicher wiederum hat die doppelte effektive Frequenz im Vergleich zu DDR2 – 800, 1066, 1333, 1600, 1800, 2000, 2133, 2200, 2400 MHz.

Um die Betriebsfrequenz von RAM-Modulen einzustellen, verfügen viele BIOS über eine DRAM-Frequenzfunktion sowie ähnliche Optionen.

Diese Optionen sind normalerweise nur auf Motherboards zu finden, die über RAM-Controller verfügen, die den Betrieb im asynchronen Modus ermöglichen, d. h. mit Frequenzen, die von der Systembusfrequenz unabhängig sind. Da Speichercontroller in modernen Motherboards meist in den Chipsatz integriert sind, werden Chipsätze mit solchen Controllern als asynchron bezeichnet. Motherboards mit asynchronen Chipsätzen bieten dem Benutzer zahlreiche Möglichkeiten zum Übertakten des Arbeitsspeichers.

Die Option „DRAM-Frequenz“ kann vorhanden sein Verschiedene Optionen Werte. Der Wert „Auto“ bedeutet, dass die RAM-Geschwindigkeit automatisch vom BIOS bestimmt wird. Der Wert von SPD bedeutet, dass die Betriebsfrequenz durch spezielle Chips bestimmt wird, die in Speichermodulen eingebaut sind – SPD-Chips (Serial Presence Detect).

Außerdem können Sie mit dieser Option häufig genaue RAM-Frequenzwerte aus einem bestimmten Satz von Werten auswählen, die vom Motherboard unterstützt werden. Diese Werte werden immer in Megahertz angegeben.

In einigen BIOS finden Sie möglicherweise auch Optionen wie 1:1, Linked, Host Clk. Bei diesen Optionen wird die Betriebsfrequenz der Speichermodule auf die Betriebsfrequenz des Systembusses eingestellt.

Welche Option soll ich wählen?

Für die meisten Benutzer ist es am besten, die Einstellung auf „Auto“ zu setzen, damit das BIOS automatisch den optimalen Wert auswählen kann. Allerdings kann es manchmal vorkommen, dass das BIOS eine niedrigere Frequenz als die für den RAM vorgesehene Frequenz einstellen kann. Um dies zu beheben, können Sie die Option auf „durch SPD“ einstellen oder die gewünschte Frequenzwertoption manuell auswählen.

Auch manuelle Installation Beim Übertakten eines Computers werden häufig Speicherfrequenzen verwendet. Wie Sie wissen, verbessert die Erhöhung der RAM-Frequenz in den meisten Fällen die Computerleistung, allerdings nicht in einem so großen Ausmaß wie die Erhöhung der Prozessorgeschwindigkeit. Typischerweise kann der Leistungsgewinn beim Übertakten von RAM zwischen 4 und 12 % liegen. Neben der gezielten Übertaktung einer bestimmten PC-Komponente gibt es Optionen, die beispielsweise komplexe Übertaktungen bewältigen können.

Um den Speicher zu übertakten, kann der Benutzer in der Option den erforderlichen Frequenzwert angeben und anschließend dessen Funktion mithilfe spezieller Testprogramme testen. Wenn das RAM fehlerfrei arbeitet, kann der eingestellte Wert konstant belassen werden.

Doch nicht nur eine zu hohe Einstellung der RAM-Frequenz kann negative Folgen haben. In manchen Fällen können auch zu niedrige Einstellungswerte, die über die Spezifikationen der RAM-Module hinausgehen, zu Fehlern führen, unter anderem beim Booten des Rechners.

Funktionsprinzip

Funktionsweise des DRAM-Lesens für ein einfaches 4x4-Array

So funktioniert DRAM-Schreiben für ein einfaches 4x4-Array

Physikalisch gesehen ist ein DRAM-Speicher eine Ansammlung von Speicherzellen, die aus Kondensatoren und Transistoren bestehen, die sich in Halbleiterspeicherchips befinden.

Zunächst wurden Speicherchips in DIP-Gehäusen hergestellt (z. B. die K565RUxx-Serie), dann begann man mit der Produktion in technologisch fortschrittlicheren Gehäusen für den Einsatz in Modulen.

Viele SIMM-Module und die überwiegende Mehrheit der DIMMs hatten SPD (Serial Presence Detect) installiert – einen kleinen EEPROM-Speicherchip, der Modulparameter (Kapazität, Typ, Betriebsspannung, Anzahl der Bänke, Zugriffszeit usw.) speichert, die verfügbar waren Software als Hardware, in der das Modul installiert wurde (zur automatischen Konfiguration von Parametern verwendet), sowie an Benutzer und Hersteller.

SIPP-Module

Module vom Typ SIPP (Single In-line Pin Package) sind rechteckige Platinen mit Kontakten in Form einer Reihe kleiner Stifte. Diese Bauart wird praktisch nicht mehr verwendet, da sie später durch SIMM-Module ersetzt wurde.

SIMM-Module

SIMM-Module (Single In-line Memory Module) sind lange rechteckige Platinen mit mehreren Pads an einer ihrer Seiten. Die Befestigung der Module im Anschlussstecker (Buchse) erfolgt über Riegel, indem die Platine in einem bestimmten Winkel eingebaut und gedrückt wird, bis sie in eine vertikale Position gebracht wird. Es wurden Module mit 4, 8, 16, 32, 64, 128 MB hergestellt.

Am gebräuchlichsten sind 30- und 72-polige SIMMs.

DIMMs

Module vom Typ DIMM (Dual In-line Memory Module) sind lange rechteckige Platinen mit Reihen von Kontaktpads an beiden Seiten, die vertikal in den Anschlussstecker eingebaut und an beiden Enden mit Riegeln gesichert werden. Speicherchips können auf einer oder beiden Seiten der Platine platziert werden.

SDRAM-Speichermodule sind am häufigsten in Form von 168-Pin-DIMM-Modulen erhältlich, DDR-SDRAM-Speichermodule liegen in Form von 184-Pin-Modulen vor und DDR2-, DDR3- und FB-DIMM-SDRAM-Speichermodule sind 240-Pin-Module.

SO-DIMMs

Für tragbare und kompakte Geräte (Motherboards mit Mini-ITX-Formfaktor, Laptops, Notebooks, Tablets usw.) sowie Drucker, Netzwerk- und Telekommunikationsgeräte usw. sind strukturell reduzierte DRAM-Module (sowohl SDRAM als auch DDR SDRAM) - SO- DIMM (Small Outline DIMM) – Analoga von DIMM-Modulen in kompaktem Design, um Platz zu sparen.

SO-DIMMs sind in 72-, 100-, 144-, 200- und 204-Pin-Versionen erhältlich.

RIMM-Module

Weniger verbreitet sind Module vom Typ RIMM (Rambus In-line Memory Module), sie sind mit Speicher vom Typ RDRAM ausgestattet. Sie werden durch 168- und 184-polige Varianten repräsentiert, und auf dem Motherboard dürfen solche Module nur paarweise installiert werden, andernfalls werden spezielle Steckermodule in leere Anschlüsse eingebaut (dies liegt an den Konstruktionsmerkmalen solcher Module). Es gibt auch 242-Pin-PC1066-RDRAM-RIMM-4200-Module, die nicht mit 184-Pin-Anschlüssen kompatibel sind, und eine kleinere Version von RIMM – SO-RIMM, die in tragbaren Geräten verwendet werden.

Chiphersteller und Modulmonteure

Top fünf größten Produzenten Nach den Ergebnissen des ersten Quartals 2008 inklusive DRAM



Freunden erzählen