Erhöhung der Zuverlässigkeit eines Computernetzwerks. Entwurf und Berechnung der Zuverlässigkeit und Effizienz eines lokalen Computernetzwerks Die Zuverlässigkeit eines Computernetzwerks wird bestimmt durch

💖 Gefällt es dir? Teilen Sie den Link mit Ihren Freunden

1) Eigenschaften der im Netzwerk verwendeten Geräte;

2) das verwendete Netzwerkbetriebssystem;

3) die Methode zur physischen Verbindung von Netzwerkknoten mit Kommunikationskanälen;

4) die Methode zur Signalausbreitung über das Netzwerk.

60. Für Standard Es kommen Ethernet-Technologien zum Einsatz...

1) Koaxialkabel;

2) lineare Topologie;

3) Ringtopologie;

4) Carrier-Sensing-Zugriff;

5) Weiterleiten des Tokens

6) Glasfaserkabel;

61. Listen Sie Möglichkeiten auf, wie eine Workstation sein kann physisch mit dem Netzwerk verbunden?

1) verwenden Netzwerkadapter und Kabelausgang

2) Verwendung eines Hubs

3) über ein Modem und eine eigene Telefonleitung

4)Verwendung des Servers

62. Lokale Netzwerke sind nicht erlaubt physisch kombinieren mit...

1) Server

2) Gateways

3) Router

4) Konzentratoren

63. Was ist der Hauptnachteil der Ringtopologie?

1. hohe Netzwerkkosten;

2. geringe Netzwerkzuverlässigkeit;

3. hoher Kabelverbrauch;

4. Geringe Störfestigkeit des Netzwerks.

64. Für welche Topologie gilt die Aussage: „Der Ausfall eines Computers stört nicht den Betrieb des gesamten Netzwerks“?

1) grundlegende Sterntopologie

2) grundlegende „Bus“-Topologie

3) grundlegende „Ring“-Topologie

4) Die Aussage gilt für keine der Grundtopologien

65. Was ist der Hauptvorteil der Sterntopologie?

1. niedrige Netzwerkkosten;

2. hohe Zuverlässigkeit und Kontrollierbarkeit des Netzwerks;

3. geringer Kabelverbrauch;

4. Gute Störfestigkeit des Netzwerks.

66. Welche Topologie und Zugriffsmethode werden in Ethernet-Netzwerken verwendet?

1) Bus und CSMA/CD

2) Bus- und Markertransfer

3) Ring- und Markierungsübertragung

4) Bus und CSMA/CA

67. Welche Netzwerkeigenschaften werden durch die Wahl der Netzwerktopologie bestimmt?

1. Ausrüstungskosten

2. Netzwerkzuverlässigkeit

3. Unterordnung von Computern im Netzwerk

4. Netzwerkerweiterbarkeit

68. Was ist der Hauptvorteil der Token-Passing-Zugriffsmethode?

  1. keine Kollisionen
  2. Einfachheit der technischen Umsetzung
  3. niedrige Kosten für die Ausrüstung

Phasen des Datenaustauschs in vernetzten Computersystemen

1) Datentransformation beim Übergang von der obersten zur unteren Ebene1

2) Datentransformation als Ergebnis des Übergangs von der unteren zur oberen Ebene3

3) Transport zum Empfängercomputer2

70. Welches Protokoll ist das wichtigste für die Übertragung von Hypertext im Internet?

2) TCP/IP

3) NetBIOS

71. Wie heißt ein Gerät, das auf Anfrage basierend auf einer IP-Adresse einen Domänennamen bereitstellt und umgekehrt:

1) DFS-Server

2) Host – Computer

3) DNS-Server

4) DHCP-Server

72. Das DNS-Protokoll stellt die Korrespondenz her ...

1) IP-Adressen mit Switch-Port

2) IP-Adressen mit Domänenadresse

3) IP-Adressen mit MAC-Adresse

4) MAC-Adressen mit Domänenadresse

73. Welche IP-Adressen können Hosts im Internet nicht zugewiesen werden?

1) 172.16.0.2;

2) 213.180.204.11;

3) 192.168.10.255;

4) 169.254.141.25

Eine eindeutige 32-Bit-Folge binärer Ziffern, die einen Computer in einem Netzwerk eindeutig identifiziert, wird aufgerufen

1) MAC-Adresse

2) URL;

3) IP-Adresse;

4) Rahmen;

Welche (bzw. welche) Identifikatoren einer IP-Adresse über eine Subnetzmaske zugeordnet werden



1) Netzwerke

2) Netzwerk und Knoten

3) Knoten

4) Adapter

76. Für jeden mit dem Internet verbundenen Server werden folgende Adressen festgelegt:

1) nur digital;

2) nur Domäne;

3) digital und domänen;

4) Adressen werden automatisch ermittelt;

77. Auf Netzwerkebene OSI-Modellinteraktionen...

1) fehlerhafte Daten werden erneut übertragen;

2) der Nachrichtenübermittlungsweg wird bestimmt;

3) Programme, die die Interaktion durchführen, werden bestimmt;

78. Welches Protokoll wird verwendet, um die physische MAC-Adresse eines Computers entsprechend seiner IP-Adresse zu ermitteln?

OSI-Modell umfasst _____ Ebenen der Interaktion

1) sieben

2) fünf

3) vier

4) sechs

80. Welche Netzwerkklasse muss eine Organisation mit 300 Computern registrieren, um auf das Internet zugreifen zu können?

81. Was es anders macht TCP-Protokoll aus dem UDP-Protokoll?

1) verwendet beim Arbeiten Ports

2) baut vor der Datenübertragung eine Verbindung auf

3) garantiert die Bereitstellung von Informationen

82. Welche der folgenden Protokolle befinden sich auf der Netzwerkebene des TCP/IP-Stacks?

Zuverlässigkeit und Sicherheit

Eines der ursprünglichen Ziele bei der Schaffung verteilter Systeme, zu denen auch Computernetzwerke gehören, bestand darin, eine höhere Zuverlässigkeit im Vergleich zu einzelnen Computern zu erreichen.

Es ist wichtig, mehrere Aspekte der Zuverlässigkeit zu unterscheiden. Für technische Geräte Zuverlässigkeitsindikatoren wie die mittlere Zeit zwischen Ausfällen, die Ausfallwahrscheinlichkeit und die Ausfallrate werden verwendet. Diese Indikatoren eignen sich jedoch zur Beurteilung der Zuverlässigkeit einfacher Elemente und Geräte, die sich nur in zwei Zuständen befinden können – betriebsbereit oder außer Betrieb. Komplexe Systeme, die aus vielen Elementen bestehen, können neben Betriebs- und Inoperabilitätszuständen auch andere Zwischenzustände aufweisen, die diese Merkmale nicht berücksichtigen. Dabei wird ein unterschiedlicher Satz von Merkmalen zur Beurteilung der Zuverlässigkeit komplexer Systeme herangezogen.

Unter Verfügbarkeit oder Verfügbarkeit versteht man den Prozentsatz der Zeit, die ein System genutzt werden kann. Die Verfügbarkeit kann durch die Einführung von Redundanz in der Systemstruktur verbessert werden: Schlüsselelemente des Systems müssen in mehreren Kopien vorhanden sein, damit bei Ausfall eines von ihnen die anderen die Funktionsfähigkeit des Systems gewährleisten.

Damit ein System als äußerst zuverlässig gilt, muss es zumindest über eine hohe Verfügbarkeit verfügen, was jedoch nicht ausreicht. Es ist notwendig, die Sicherheit der Daten zu gewährleisten und sie vor Verfälschungen zu schützen. Darüber hinaus muss die Datenkonsistenz (Konsistenz) gewahrt bleiben. Werden beispielsweise zur Erhöhung der Zuverlässigkeit mehrere Kopien von Daten auf mehreren Dateiservern gespeichert, muss deren Identität stets sichergestellt sein.

Da das Netzwerk auf der Grundlage eines Mechanismus zur Übertragung von Paketen zwischen Endknoten arbeitet, ist eines der charakteristischen Merkmale der Zuverlässigkeit die Wahrscheinlichkeit, ein Paket ohne Verzerrung an den Zielknoten zu liefern. Neben diesem Merkmal können weitere Indikatoren verwendet werden: die Wahrscheinlichkeit eines Paketverlusts (aus irgendeinem Grund – aufgrund eines Router-Pufferüberlaufs, aufgrund einer Nichtübereinstimmung der Prüfsumme, aufgrund des Fehlens eines funktionierenden Pfads zum Zielknoten usw.) , Wahrscheinlichkeitsverzerrung eines einzelnen Bits übertragener Daten, das Verhältnis verlorener Pakete zu zugestellten Paketen.

Ein weiterer Aspekt der Gesamtzuverlässigkeit ist Sicherheit(Sicherheit), also die Fähigkeit des Systems, Daten vor unbefugtem Zugriff zu schützen. Dies ist in einem verteilten System viel schwieriger zu bewerkstelligen als in einem zentralisierten. In Netzwerken werden Nachrichten über Kommunikationsleitungen übertragen, die oft über öffentliche Räumlichkeiten verlaufen, in denen Abhörgeräte für die Leitungen installiert sein können. Eine weitere Sicherheitslücke können unbeaufsichtigte Personalcomputer sein. Darüber hinaus besteht immer die potenzielle Gefahr, dass der Schutz des Netzwerks vor unbefugten Benutzern gehackt wird, wenn das Netzwerk Zugriff auf globale öffentliche Netzwerke hat.

Ein weiteres Zuverlässigkeitsmerkmal ist die Fehlertoleranz. In Netzwerken bezeichnet Fehlertoleranz die Fähigkeit eines Systems, den Ausfall seiner einzelnen Elemente vor dem Benutzer zu verbergen. Wenn beispielsweise Kopien einer Datenbanktabelle gleichzeitig auf mehreren Dateiservern gespeichert sind, kann es sein, dass Benutzer den Ausfall eines davon einfach nicht bemerken. In einem fehlertoleranten System führt der Ausfall eines seiner Elemente zu einer leichten Verschlechterung der Betriebsqualität (Verschlechterung) und nicht zu einem vollständigen Stillstand. Wenn also im vorherigen Beispiel einer der Dateiserver ausfällt, erhöht sich nur die Datenbankzugriffszeit aufgrund einer Verringerung des Parallelisierungsgrads der Abfragen, aber im Allgemeinen führt das System seine Funktionen weiterhin aus.

„UDC 621.396.6 ZUVERLÄSSIGKEIT EINES LOKALEN COMPUTING-NETZWERKS ZUVERLÄSSIGKEIT EINES LOKALEN COMPUTING-NETZWERKS AUF DER BASIS EINES THIN CLIENTS UND WORKERS ...“

Zuverlässigkeit und Qualität komplexer Systeme. Nr. 4, 2013

UDC 621.396.6

ZUVERLÄSSIGKEIT DES LOKALEN COMPUTERNETZWERKS

S. N. Polessky, M. A. Karapuzov, V. V. Zhadnov

ZUVERLÄSSIGKEIT EINES LOKALEN COMPUTERNETZWERKS AUF BASIS VON THIN CLIENT UND WORKSTATIONS

BASIEREND AUF THIN CLIENT UND WORKSTATIONS

S. N. Polessky, M. A. Karapuzov, V. V. Zhadnov

Die Entwicklung lokaler Netzwerke (LANs) steht vor zwei Perspektiven: weiterhin LANs zu entwerfen, bei denen die Teilnehmer herkömmliche „Workstations“ (PCs) sind, oder anstelle von PCs sogenannte „Thin Clients“ (im Folgenden als „Thin Clients“ bezeichnet) zu verwenden Synonym für „Terminalterminals“). Station“).

Heutzutage wird zunehmend der Begriff „Thin Client“ verwendet, wenn dieser Begriff aus Sicht der Systemarchitektur eine recht breite Palette von Geräten und Programmen bezeichnet, die eine gemeinsame Eigenschaft vereint: die Fähigkeit, im Terminalmodus zu arbeiten.

Der Vorteil eines PCs gegenüber einem Thin Client ist seine Unabhängigkeit vom Vorhandensein eines funktionierenden Netzwerks – Informationen werden auch im Moment seines Ausfalls verarbeitet, da im Fall eines PCs die Informationen direkt von den Stationen selbst verarbeitet werden.

Wenn Sie einen Thin Client nutzen, benötigen Sie einen Terminalserver. Gleichzeitig verfügt der Thin Client jedoch über eine minimale Hardwarekonfiguration Festplatte Zum Laden eines lokalen spezialisierten Betriebssystems (OS) wird DOM verwendet (DiskOnModule – ein Modul mit einem IDE-Anschluss, Flash-Speicher und einem Chip, der die Logik einer normalen Festplatte implementiert, die im BIOS als normal definiert ist Festplatte, nur seine Größe ist normalerweise 2–3 mal kleiner).


In einigen Systemkonfigurationen lädt der Thin Client das Betriebssystem über das Netzwerk vom Server mithilfe der Protokolle PXE, BOOTP, DHCP, TFTP und Remote Installation Services (RIS). Die minimale Nutzung von Hardwareressourcen ist der Hauptvorteil eines Thin Clients gegenüber einem PC.

In diesem Zusammenhang stellt sich die Frage: Was ist unter Zuverlässigkeitsgesichtspunkten besser für die Gestaltung eines LAN geeignet – ein Thin Client oder herkömmliche PCs?

Um diese Frage zu beantworten, vergleichen wir die Zuverlässigkeitsindikatoren einer typischen LAN-Schaltung, die mit der „Stern“-Topologie aufgebaut ist, für zwei Optionen für ihre Implementierung. In der ersten Variante wird das LAN auf Basis von Thin Clients aufgebaut, in der zweiten auf Basis eines PCs. Um die Bewertung von LAN-Zuverlässigkeitsindikatoren zu vereinfachen, betrachten Sie ein kleines Unternehmensnetzwerk einer Abteilung (Unternehmen), das aus 20–25 typischen Geräten besteht.

Nehmen wir an, dass der untersuchte Fachbereich Designarbeiten unter Verwendung geeigneter Software durchführt. Ein typisches PC-basiertes LAN einer solchen Abteilung sollte Arbeitsstationen, einen Server und einen Drucker enthalten. Alle Geräte werden über einen Switch mit dem Netzwerk verbunden (siehe Abb. 1).

–  –  –

Ein typisches LAN, das auf einem Thin Client basiert, umfasst Terminalstationen, einen Server, einen Drucker und einen Terminalserver, der Benutzern über den Thin Client Zugriff auf die für die Arbeit erforderlichen Ressourcen ermöglicht. Alle Geräte werden über einen Switch mit dem Netzwerk verbunden (Abb. 2).

Reis. 2. Anschlussplan von Geräten in einem LAN basierend auf Terminalstationen

Lassen Sie uns die Fehlerkriterien formulieren. Dazu muss ermittelt werden, welche Elementausfälle für die Leistung bestimmter Netzwerkfunktionen kritisch sind. Angenommen, einer Abteilung (Unternehmen) sind 20 Arbeitsplätze zugewiesen, und die Arbeitsbelastung der Abteilung ermöglicht es Ihnen, zwei Arbeitsplätze in Reserve zu lassen.

Die restlichen 18 Arbeitsplätze werden den ganzen Arbeitstag (8 Stunden pro Tag) durchgehend genutzt.

Demnach führt der Ausfall von mehr als zwei PCs (Terminalstationen) zum Ausfall des gesamten LAN. Ein Serverausfall, ein Ausfall eines der Terminalserver (bei einem reinen Thin-Client-LAN) und ein Switch-Ausfall führen ebenfalls zu einem Ausfall des gesamten LAN. Der Ausfall eines Druckers ist nicht kritisch, da die Aufgaben der Abteilung nicht in direktem Zusammenhang mit der kontinuierlichen Nutzung stehen und daher bei der Beurteilung der Zuverlässigkeit nicht berücksichtigt werden. Auch der Ausfall des Schaltdrahtnetzes bleibt unberücksichtigt, da bei beiden LAN-Implementierungsvarianten der Satz an Verbindungen nahezu gleich ist und die Ausfallrate vernachlässigbar ist.

Ausfälle von PC-Elementen wie externem Speichergerät, Monitor, Tastatur, Maus, Grafikkarte usw. Hauptplatine, Prozessor, Kühlsystem, Stromversorgung, Arbeitsspeicher sind für den PC kritisch und führen zu dessen Ausfall.

Unter Berücksichtigung der Betriebsbedingungen des LAN und der Ausfallkriterien werden wir Zuverlässigkeitsblockdiagramme (RSDs) für verschiedene Disaggregationsstufen erstellen.

An höheres Niveau Es wird eine Reihe von Geräten betrachtet, deren SSN eine „serielle Verbindungs“-Gruppe aus drei Blöcken (Switch, Server, Switching-Netzwerk) und eine redundante Gruppe (Arbeitsgruppe von Terminals oder Workstations) ist.

Strukturdiagramme der Zuverlässigkeit sind in Abb. dargestellt. 3 (für PC-basiertes LAN) und in Abb. 4 (für LAN basierend auf einem Thin Client).

–  –  –

Auf der nächsten Disaggregationsebene wird eine Reihe von Werks-/Endstationen betrachtet, deren SSN eine Gruppe „gleitender Redundanz n von m“ aus zwanzig Blöcken ist (18 Hauptarbeits-/Endstationen werden durch jeweils zwei Stationen unterstützt). (davon kann jedes ausgefallene Hauptgerät ersetzt werden).

Auf der unteren Ebene wird eine Menge von Elementen betrachtet Arbeitsplatz, dessen SCH eine Gruppe von „seriellem Anschluss“ von zehn Blöcken (Monitor, Prozessor, Rom, Festplatte, Tastatur, Maus, Netzteil, Motherboard, Kühlsystem, Grafikkarte).

Die Berechnung der LAN-Zuverlässigkeit erfolgt in zwei Schritten:

– zunächst wird die Zuverlässigkeit der Elemente einzeln berechnet (bestimmt),

– Zweitens wird die Zuverlässigkeit des LAN als Ganzes berechnet.

Ein typisches Diagramm zur Berechnung der Zuverlässigkeit eines LAN, durchgeführt in IDEF0-Notationen, ist in Abb. dargestellt. 5.

–  –  –

In Abb. Abbildung 6 zeigt ein Histogramm, das gemäß den Daten in Tabelle erstellt wurde. 1 zeigt die Verteilung der durchschnittlichen Zeit zwischen Ausfällen der RS-Elemente und des Schalters.

MTBF, tausend Stunden

–  –  –

In Abb. Abbildung 7 zeigt ein Histogramm der Verteilung der durchschnittlichen Zeit zwischen Ausfällen der LAN-Komponenten.

MTBF, tausend Stunden Abb. 7. Histogramm der Verteilung der durchschnittlichen Zeit zwischen Ausfällen von LAN-Komponenten. Technologische Grundlage zur Steigerung der Zuverlässigkeit und Qualität von Produkten

–  –  –

Vom Tisch 3 zeigt, dass der Verfügbarkeitsfaktor für ein PC-basiertes LAN geringer ist als der eines ähnlichen Thin-Client-basierten LAN. Die durchschnittliche Zeit zwischen Ausfällen ist bei einem Thin-Client-basierten LAN länger als bei einem PC-basierten LAN und die durchschnittliche Zeit bis zur Wiederherstellung ist kürzer. Der obige Vergleich zeigt, dass sich die Umsetzung eines LAN auf Basis von 20 Endgeräten, davon zwei in Reserve, als zuverlässiger erweist als die Umsetzung auf Basis von Arbeitsplätzen.

Wenn man die Ergebnisse der Analyse zusammenfasst, kann man argumentieren, dass ein zuverlässigerer Typ ein LAN ist, das auf Terminalstationen basiert. Aus praktischer Sicht zeigt dies, dass der Übergang zum LAN-Aufbau auf Basis eines Thin Clients auch unter Zuverlässigkeitsaspekten sinnvoll ist.

Die Einführung von LANs bestehend aus Terminalstationen in Kombination mit Cloud-Software kann die Steigerung des Automatisierungsgrades, der Qualität und der Zuverlässigkeit des Unternehmensbetriebs erheblich beeinflussen.

Referenzliste

1. GOST 27.009-89. Zuverlässigkeit in der Technik. Grundlegendes Konzept. Begriffe und Definitionen. – M.: Verlag der Normen, 1990. – 37 S.

2. GOST R51901.14-2005 (IEC 61078:1991). Methode des Zuverlässigkeitsblockdiagramms. – M.: Standartinform, 2005. – 38 S.

3. OST 4G 0.012.242-84. Methodik zur Berechnung von Zuverlässigkeitsindikatoren. – M., 1985. – 49 S.

5. Prognose der Qualität der WWU während des Entwurfs: Lehrbuch. Zulage / V.V. Zhadnov, S.N. Polessky, S.E. Yakubov, E.M. Gamilova. – M.: SINC, 2009. – 191 S.

6. Zhadnov, V. V. Beurteilung der Qualität von Komponenten Computerausrüstung. / V. V. Zhadnov, S. N. Polessky, S. E. Yakubov // Zuverlässigkeit. – 2008. – Nr. 3. – S. 26–35.

Vorlesung 13. Anforderungen an Computernetzwerke

Die wichtigsten Indikatoren der Netzwerkleistung werden besprochen: Leistung, Zuverlässigkeit und Sicherheit, Erweiterbarkeit und Skalierbarkeit, Transparenz, Support verschiedene Typen Datenverkehr, Dienstqualitätsmerkmale, Verwaltbarkeit und Kompatibilität.

Stichworte: Leistung, Reaktionszeit, Durchschnitt, Momentan, Maximum, Gesamtdurchsatz, Übertragungsverzögerung, Übertragungsverzögerungsschwankung, Zuverlässigkeitsindikatoren, mittlere Zeit zwischen Ausfällen, Ausfallwahrscheinlichkeit, Ausfallrate, Verfügbarkeit, Verfügbarkeitsfaktor, Datenintegrität, Konsistenz, Datenkonsistenz, Wahrscheinlichkeit von Datenbereitstellung, Sicherheit, Fehlertoleranz, Erweiterbarkeit, Skalierbarkeit, Transparenz, Multimediaverkehr, Synchronizität, Zuverlässigkeit, Verzögerungen, Datenverlust, Computerverkehr, zentralisierte Steuerung, Überwachung, Analyse, Netzwerkplanung, Quality of Service (QoS), verzögert die Paketübertragung , Grad des Paketverlusts und der Paketverzerrung, „Best Effort“-Dienst, „Mit maximalem Aufwand“-Dienst, „wie möglich“.

Die Einhaltung von Standards ist nur eine von vielen Anforderungen an moderne Netzwerke. In diesem Abschnitt konzentrieren wir uns auf einige andere, nicht weniger wichtige.

Der allgemeinste Wunsch, der in Bezug auf den Betrieb eines Netzwerks geäußert werden kann, besteht darin, dass das Netzwerk die Reihe von Diensten erbringt, die es bereitstellen soll: beispielsweise Zugriff auf Dateiarchive oder Seiten öffentlicher Internet-Websites bereitstellen, E-Mails austauschen, E-Mail innerhalb eines Unternehmens oder auf globaler Ebene, interaktiver Austausch Sprachnachricht IP-Telefonie usw.

Alle weiteren Anforderungen – Leistung, Zuverlässigkeit, Kompatibilität, Verwaltbarkeit, Sicherheit, Erweiterbarkeit und Skalierbarkeit – hängen mit der Qualität dieser Hauptaufgabe zusammen. Und obwohl alle oben genannten Anforderungen sehr wichtig sind, wird häufig das Konzept der „Servicequalität“ verwendet. (Quality of Service, QoS) eines Computernetzwerks wird enger interpretiert: Es umfasst nur die beiden wichtigsten Eigenschaften des Netzwerks – Leistung und Zuverlässigkeit.

Leistung

Möglicherweise Hochleistung– Dies ist einer der Hauptvorteile verteilter Systeme, zu denen auch Computernetzwerke gehören. Diese Eigenschaft wird durch die grundsätzliche, aber leider nicht immer praktisch realisierbare Möglichkeit gewährleistet, die Arbeit auf mehrere Computer im Netzwerk zu verteilen.

Wichtige Netzwerkleistungsmerkmale:

    Reaktionszeit;

    Geschwindigkeit der Verkehrsübertragung;

    Durchsatz;

    Übertragungsverzögerung und Übertragungsverzögerungsvariation.

Die Netzwerkreaktionszeit ist aus Sicht des Benutzers ein wesentliches Merkmal der Netzwerkleistung. Genau diese Eigenschaft meint ein Nutzer, wenn er sagt: „Das Netzwerk ist heute langsam.“

Im Allgemeinen wird die Antwortzeit als die Zeitspanne zwischen dem Auftreten einer Benutzeranfrage für einen beliebigen Netzwerkdienst und dem Empfang einer Antwort darauf definiert.

Offensichtlich hängt der Wert dieses Indikators von der Art des Dienstes ab, auf den der Benutzer zugreift, welcher Benutzer auf welchen Server zugreift und auch von der Art des Dienstes, auf den der Benutzer zugreift aktuellen Zustand Netzwerkelemente – Belastung der Segmente, Switches und Router, über die die Anforderung geleitet wird, Serverlast usw.

Daher ist es sinnvoll, auch eine gewichtete durchschnittliche Schätzung der Netzwerkantwortzeit zu verwenden und diesen Indikator über Benutzer, Server und Tageszeit (von der die Netzwerklast weitgehend abhängt) zu mitteln.

Die Netzwerkantwortzeit besteht normalerweise aus mehreren Komponenten. Im Allgemeinen umfasst es:

    Vorbereitungszeit auf dem Client-Computer anfordern;

    der Zeitpunkt der Übertragung von Anfragen zwischen dem Client und dem Server über Netzwerksegmente und zwischengeschaltete Kommunikationsgeräte;

    Bearbeitungszeit der Serveranfrage;

    die Zeit für die Übermittlung von Antworten vom Server an den Client und die Verarbeitungszeit für vom Server empfangene Antworten auf dem Client-Computer.

Offensichtlich geht es dem Anwender nicht darum, die Reaktionszeit in ihre Bestandteile zu zerlegen – ihm ist das Endergebnis wichtig. Für einen Netzwerkspezialisten ist es jedoch sehr wichtig, aus der Gesamtreaktionszeit die Komponenten zu isolieren, die den Phasen der Netzwerkdatenverarbeitung selbst entsprechen – der Datenübertragung vom Client zum Server über Netzwerksegmente und Kommunikationsgeräte.

Wenn Sie die Netzwerkkomponenten der Reaktionszeit kennen, können Sie die Leistung einzelner Netzwerkelemente bewerten, Engpässe identifizieren und das Netzwerk bei Bedarf aktualisieren, um seine Gesamtleistung zu verbessern.

Die Netzwerkleistung kann auch durch die Übertragungsgeschwindigkeit des Datenverkehrs charakterisiert werden.

Die Verkehrsübertragungsgeschwindigkeit kann augenblicklich, maximal und durchschnittlich sein.

    die Durchschnittsgeschwindigkeit wird berechnet, indem die Gesamtmenge der übertragenen Daten durch den Zeitpunkt ihrer Übertragung dividiert wird und ein ausreichend langer Zeitraum gewählt wird – eine Stunde, ein Tag oder eine Woche;

    Die Momentangeschwindigkeit unterscheidet sich von der Durchschnittsgeschwindigkeit dadurch, dass für die Mittelung ein sehr kurzer Zeitraum gewählt wird – zum Beispiel 10 ms oder 1 s;

    Höchstgeschwindigkeit ist die höchste während des Beobachtungszeitraums gemessene Geschwindigkeit.

Am häufigsten werden beim Entwerfen, Konfigurieren und Optimieren eines Netzwerks Indikatoren wie die durchschnittliche und maximale Geschwindigkeit verwendet. Die durchschnittliche Geschwindigkeit, mit der der Verkehr von einem einzelnen Element oder dem Netzwerk als Ganzes verarbeitet wird, ermöglicht es, den Betrieb des Netzwerks über einen langen Zeitraum zu bewerten, in dem aufgrund des Gesetzes der großen Zahlen Spitzen und Täler auftreten Verkehrsintensität kompensieren sich gegenseitig. Mithilfe der maximalen Geschwindigkeit können Sie beurteilen, wie das Netzwerk mit Spitzenlasten zurechtkommt, die zu besonderen Betriebszeiten typisch sind, beispielsweise morgens, wenn sich Unternehmensmitarbeiter fast gleichzeitig am Netzwerk anmelden und auf freigegebene Dateien und Datenbanken zugreifen. Bei der Bestimmung der Geschwindigkeitseigenschaften eines bestimmten Segments oder Geräts wird in der Regel nicht der Datenverkehr eines bestimmten Benutzers, einer bestimmten Anwendung oder eines bestimmten Computers in den übertragenen Daten hervorgehoben, sondern die Gesamtmenge der übertragenen Informationen wird berechnet. Für eine genauere Beurteilung der Servicequalität sind solche Details jedoch wünschenswert und in In letzter Zeit Netzwerkmanagementsysteme ermöglichen dies zunehmend.

ReisepassFähigkeit– die maximal mögliche Geschwindigkeit der Verkehrsverarbeitung, bestimmt durch den Technologiestandard, auf dem das Netzwerk aufgebaut ist. Die Bandbreite spiegelt die maximal mögliche Datenmenge wider, die von einem Netzwerk oder einem Teil davon pro Zeiteinheit übertragen wird.

Die Bandbreite ist nicht mehr wie die Reaktionszeit oder die Geschwindigkeit des Datendurchgangs durch das Netzwerk ein Benutzermerkmal, da sie von der Geschwindigkeit interner Netzwerkoperationen spricht – der Übertragung von Datenpaketen zwischen Netzwerkknoten über verschiedene Kommunikationsgeräte. Aber es charakterisiert direkt die Qualität der Hauptfunktion des Netzwerks – den Nachrichtentransport – und wird daher bei der Analyse der Netzwerkleistung häufiger verwendet als Antwortzeit oder Geschwindigkeit.

Der Durchsatz wird entweder in Bits pro Sekunde oder Paketen pro Sekunde gemessen.

Der Netzwerkdurchsatz hängt sowohl von den Eigenschaften des physikalischen Übertragungsmediums (Kupferkabel, Glasfaser, Twisted Pair) als auch vom verwendeten Datenübertragungsverfahren (Ethernet, FastEthernet, ATM-Technologie) ab. Bandbreite wird oft nicht so sehr als Merkmal eines Netzwerks, sondern eher als Merkmal der eigentlichen Technologie verwendet, auf der das Netzwerk aufgebaut ist. Die Bedeutung dieses Merkmals für die Netzwerktechnik zeigt sich insbesondere daran, dass seine Bedeutung teilweise in den Namen einfließt, beispielsweise 10 Mbit/s Ethernet, 100 Mbit/s Ethernet.

Im Gegensatz zur Reaktionszeit oder der Übertragungsgeschwindigkeit des Datenverkehrs hängt der Durchsatz nicht von der Netzwerküberlastung ab und hat einen konstanten Wert, der durch die im Netzwerk verwendeten Technologien bestimmt wird.

In verschiedenen Teilen eines heterogenen Netzwerks, wo mehrere verschiedene Technologien, der Durchsatz kann variieren. Um ein Netzwerk zu analysieren und zu konfigurieren, ist es sehr nützlich, Daten über den Durchsatz seiner einzelnen Elemente zu kennen. Es ist wichtig zu beachten, dass aufgrund der sequentiellen Natur der Datenübertragung zwischen verschiedenen Netzwerkelementen der Gesamtdurchsatz jedes zusammengesetzten Pfads im Netzwerk gleich dem Minimum der Durchsätze der einzelnen Elemente der Route ist. Um den Durchsatz eines zusammengesetzten Pfads zu verbessern, müssen Sie sich zuerst auf die langsamsten Elemente konzentrieren. Manchmal ist es sinnvoll, mit der gesamten Netzwerkkapazität zu arbeiten, die als durchschnittliche Informationsmenge definiert ist, die pro Zeiteinheit zwischen allen Netzwerkknoten übertragen wird. Dieser Indikator charakterisiert die Qualität des Netzwerks als Ganzes, ohne es nach einzelnen Segmenten oder Geräten zu differenzieren.

Übertragungsverzögerung ist definiert als die Verzögerung zwischen dem Zeitpunkt, an dem Daten am Eingang eines Netzwerkgeräts oder Teils des Netzwerks ankommen, und dem Moment, an dem sie am Ausgang dieses Geräts erscheinen.

Dieser Leistungsparameter hat eine ähnliche Bedeutung wie die Netzwerkantwortzeit, unterscheidet sich jedoch dadurch, dass er immer nur die Netzwerkstufen der Datenverarbeitung charakterisiert, ohne Verzögerungen bei der Verarbeitung durch die Endknoten des Netzwerks.

Typischerweise wird die Netzwerkqualität durch die maximale Übertragungsverzögerung und Verzögerungsschwankung charakterisiert. Nicht alle Verkehrsarten reagieren empfindlich auf Übertragungsverzögerungen, zumindest auf die für Computernetzwerke typischen Verzögerungen – normalerweise überschreiten Verzögerungen nicht Hunderte von Millisekunden, seltener – mehrere Sekunden. Verzögerungen dieser Größenordnung für Pakete, die von einem Dateidienst, E-Mail-Dienst oder Druckdienst generiert werden, haben aus Sicht des Netzwerkbenutzers kaum Auswirkungen auf die Qualität dieser Dienste. Andererseits können die gleichen Verzögerungen bei Paketen, die Sprach- oder Videodaten übertragen, zu einer erheblichen Verschlechterung der Qualität der dem Benutzer bereitgestellten Informationen führen – das Auftreten eines „Echo“-Effekts, die Unfähigkeit, einige Wörter zu verstehen, Vibrationen des Bild usw.

Alle diese Netzwerkleistungsmerkmale sind völlig unabhängig voneinander. Während der Netzwerkdurchsatz eine Konstante ist, kann die Geschwindigkeit des Datenverkehrs je nach Netzwerklast variieren, ohne natürlich die durch den Durchsatz festgelegte Grenze zu überschreiten. In einem einsegmentigen 10-Mbit/s-Ethernet-Netzwerk können Computer also Daten mit Geschwindigkeiten von 2 Mbit/s und 4 Mbit/s austauschen, jedoch niemals mit 12 Mbit/s.

Bandbreite und Übertragungsverzögerungen sind ebenfalls unabhängige Parameter, sodass ein Netzwerk beispielsweise einen hohen Durchsatz haben kann, aber erhebliche Verzögerungen bei der Übertragung jedes Pakets mit sich bringt. Ein Beispiel für eine solche Situation ist ein Kommunikationskanal, der von einem geostationären Satelliten gebildet wird. Der Durchsatz dieses Kanals kann sehr hoch sein, beispielsweise 2 Mbit/s, während die Übertragungsverzögerung immer mindestens 0,24 s beträgt, was durch die Ausbreitungsgeschwindigkeit des elektrischen Signals (ca. 300.000 km/s) und die Länge bestimmt wird des Kanals (72.000 km).

Zuverlässigkeit und Sicherheit

Eines der ursprünglichen Ziele bei der Schaffung verteilter Systeme, zu denen auch Computernetzwerke gehören, bestand darin, eine höhere Zuverlässigkeit im Vergleich zu einzelnen Computern zu erreichen.

Es ist wichtig, mehrere Aspekte der Zuverlässigkeit zu unterscheiden.

Für relativ einfache technische Geräte werden folgende Zuverlässigkeitsindikatoren verwendet:

Mittlere Zeit zwischen Ausfällen;

Wahrscheinlichkeit des Scheiterns;

Fehlerrate.

Diese Indikatoren eignen sich jedoch zur Beurteilung der Zuverlässigkeit einfacher Elemente und Geräte, die sich nur in zwei Zuständen befinden können – betriebsbereit oder außer Betrieb. Komplexe Systeme, die aus vielen Elementen bestehen, können neben Betriebs- und Inoperabilitätszuständen auch andere Zwischenzustände aufweisen, die diese Merkmale nicht berücksichtigen.

Zur Beurteilung der Zuverlässigkeit komplexer Systeme wird ein weiterer Satz von Merkmalen herangezogen:

Verfügbarkeits- oder Bereitschaftsrate;

Datensicherheit;

Konsistenz (Konsistenz) von Daten;

Wahrscheinlichkeit der Datenlieferung;

Sicherheit;

Fehlertoleranz.

Unter Verfügbarkeit oder Verfügbarkeit versteht man den Zeitraum, in dem ein System genutzt werden kann. Die Verfügbarkeit kann durch die Einführung von Redundanz in die Systemstruktur erhöht werden: Schlüsselelemente des Systems müssen in mehreren Kopien vorhanden sein, damit bei Ausfall eines von ihnen die anderen die Funktionsfähigkeit des Systems gewährleisten.

Zu Computersystem als äußerst zuverlässig gelten könnte, sollte es zumindest eine hohe Verfügbarkeit aufweisen, aber das reicht nicht aus. Es ist notwendig, die Sicherheit der Daten zu gewährleisten und sie vor Verfälschungen zu schützen. Darüber hinaus muss die Datenkonsistenz gewahrt bleiben; wenn beispielsweise zur Erhöhung der Zuverlässigkeit mehrere Kopien von Daten auf mehreren Dateiservern gespeichert werden, muss deren Identität jederzeit sichergestellt sein.

Da das Netzwerk auf der Grundlage eines Mechanismus zur Übertragung von Paketen zwischen Endknoten arbeitet, ist eines der Zuverlässigkeitsmerkmale die Wahrscheinlichkeit, ein Paket ohne Verzerrung an den Zielknoten zuzustellen. Neben dieser Eigenschaft können weitere Indikatoren verwendet werden: die Wahrscheinlichkeit eines Paketverlusts (aus irgendeinem Grund – aufgrund eines Überlaufs des Router-Puffers, einer Nichtübereinstimmung der Prüfsumme, des Fehlens eines funktionsfähigen Pfads zum Zielknoten usw.), die Wahrscheinlichkeit einer Beschädigung eines einzelnen Bits übertragener Daten, Verhältnis der Anzahl verlorener und zugestellter Pakete.

Ein weiterer Aspekt der Gesamtzuverlässigkeit ist die Sicherheit, also die Fähigkeit des Systems, Daten vor unbefugtem Zugriff zu schützen. Dies ist in einem verteilten System viel schwieriger zu bewerkstelligen als in einem zentralisierten. In Netzwerken werden Nachrichten über Kommunikationsleitungen übertragen, die oft über öffentliche Räumlichkeiten verlaufen, in denen Abhörgeräte für die Leitungen installiert sein können. Eine weitere Schwachstelle können unbeaufsichtigte Personalcomputer sein. Darüber hinaus besteht immer die potenzielle Gefahr, dass unbefugte Benutzer die Netzwerksicherheit hacken, wenn das Netzwerk Zugriff auf globale öffentliche Netzwerke hat.

Ein weiteres Zuverlässigkeitsmerkmal ist die Fehlertoleranz. In Netzwerken bezeichnet Fehlertoleranz die Fähigkeit eines Systems, den Ausfall seiner einzelnen Elemente vor dem Benutzer zu verbergen. Wenn beispielsweise Kopien einer Datenbanktabelle gleichzeitig auf mehreren Dateiservern gespeichert sind, bemerken Benutzer möglicherweise einfach nicht, dass einer von ihnen ausfällt. In einem fehlertoleranten System führt der Ausfall eines seiner Elemente zu einer leichten Verschlechterung der Betriebsqualität (Verschlechterung) und nicht zu einem vollständigen Stillstand. Wenn also im vorherigen Beispiel einer der Dateiserver ausfällt, erhöht sich nur die Datenbankzugriffszeit aufgrund einer Verringerung des Parallelisierungsgrads der Abfragen, aber im Allgemeinen führt das System seine Funktionen weiterhin aus.

Erweiterbarkeit und Skalierbarkeit

Die Begriffe „Erweiterbarkeit“ und „;Skalierbarkeit“; manchmal als Synonyme verwendet, aber das ist falsch – jedes von ihnen hat eine klar definierte unabhängige Bedeutung.

Erweiterbarkeit(Erweiterbarkeit)

Skalierbarkeit(Skalierbarkeit)

Möglichkeit der relativ einfachen Ergänzung einzelner Netzwerkelemente

Möglichkeit zum Hinzufügen (nicht unbedingt einfacher) Netzwerkelemente

Eine einfache Systemerweiterung kann innerhalb bestimmter, sehr begrenzter Grenzen gewährleistet werden

Skalierbarkeit bedeutet, dass das Netzwerk in einem sehr weiten Bereich erweitert werden kann und gleichzeitig die Verbrauchereigenschaften des Netzwerks erhalten bleiben

Erweiterbarkeit(Erweiterbarkeit) bedeutet die Fähigkeit, einzelne Netzwerkelemente (Benutzer, Computer, Anwendungen, Dienste) relativ einfach hinzuzufügen, die Länge von Netzwerksegmenten zu erhöhen und vorhandene Geräte durch leistungsstärkere zu ersetzen. Grundsätzlich ist es wichtig, dass die einfache Erweiterbarkeit des Systems teilweise in sehr begrenzten Grenzen gewährleistet werden kann. Beispielsweise ist ein lokales Ethernet-Netzwerk, das auf der Basis eines Segments eines dicken Koaxialkabels aufgebaut ist, in dem Sinne gut erweiterbar, dass Sie problemlos neue Stationen anschließen können. Allerdings ist die Anzahl der Stationen in einem solchen Netzwerk begrenzt – sie sollte 30–40 nicht überschreiten. Obwohl das Netzwerk eine physische Verbindung zum Segment ermöglicht und mehr Stationen (bis zu 100), was jedoch häufig zu einem starken Rückgang der Netzwerkleistung führt. Das Vorhandensein einer solchen Einschränkung ist ein Zeichen für eine schlechte Skalierbarkeit des Systems bei guter Erweiterbarkeit.

Skalierbarkeit(Skalierbarkeit) bedeutet, dass das Netzwerk es Ihnen ermöglicht, die Anzahl der Knoten und die Länge der Verbindungen in einem sehr weiten Bereich zu erhöhen, ohne dass sich die Netzwerkleistung verschlechtert. Um die Skalierbarkeit des Netzwerks zu gewährleisten, ist der Einsatz zusätzlicher Kommunikationsgeräte und eine besondere Strukturierung des Netzwerks erforderlich. Beispielsweise weist ein aus Switches und Routern aufgebautes Netzwerk mit mehreren Segmenten und einer hierarchischen Verbindungsstruktur eine gute Skalierbarkeit auf. Ein solches Netzwerk kann mehrere tausend Computer umfassen und gleichzeitig jedem Netzwerkbenutzer die erforderliche Servicequalität bieten.

Transparenz

Netzwerktransparenz wird erreicht, wenn das Netzwerk für Benutzer nicht als viele einzelne Computer erscheint, die durch ein komplexes Kabelsystem miteinander verbunden sind, sondern als eine einzige herkömmliche Rechenmaschine mit einem Time-Sharing-System. Der berühmte Slogan von Sun Microsystems „Das Netzwerk ist der Computer“; – spricht genau von einem solchen transparenten Netzwerk.

Transparenz kann auf zwei verschiedenen Ebenen erreicht werden – auf Benutzerebene und auf Programmiererebene. Auf Benutzerebene bedeutet Transparenz, dass der Benutzer für die Arbeit mit Remote-Ressourcen dieselben Befehle und vertrauten Verfahren verwendet wie für die Arbeit mit lokalen Ressourcen. Auf Programmebene bedeutet Transparenz, dass eine Anwendung für den Zugriff auf Remote-Ressourcen dieselben Aufrufe benötigt wie für den Zugriff auf lokale Ressourcen. Transparenz auf Benutzerebene ist einfacher zu erreichen, da alle mit der verteilten Natur des Systems verbundenen Verfahrensdetails vom Programmierer, der die Anwendung erstellt, vor dem Benutzer verborgen bleiben. Transparenz auf Anwendungsebene erfordert das Verbergen aller Verteilungsdetails mithilfe des Netzwerkbetriebssystems.

Transparenz– die Fähigkeit eines Netzwerks, Details seiner internen Struktur vor dem Benutzer zu verbergen, was die Arbeit im Netzwerk vereinfacht.

Das Netzwerk muss alle Funktionen von Betriebssystemen und Unterschiede in den Computertypen verbergen. Ein Macintosh-Benutzer muss auf Ressourcen zugreifen können, die von einem UNIX-System unterstützt werden, und ein UNIX-Benutzer muss in der Lage sein, Informationen mit anderen zu teilen Windows-Benutzer 95. Die überwiegende Mehrheit der Benutzer möchte nichts über interne Dateiformate oder UNIX-Befehlssyntax wissen. Der IBM 3270-Terminalbenutzer muss in der Lage sein, Nachrichten mit Netzwerkbenutzern auszutauschen persönliche Computer ohne in die Geheimnisse schwer zu merkender Adressen eintauchen zu müssen.

Das Konzept der Transparenz gilt für verschiedene Aspekte des Netzwerks. Standorttransparenz bedeutet beispielsweise, dass der Benutzer den Standort von Software- und Hardwareressourcen wie Prozessoren, Druckern, Dateien und Datenbanken nicht kennen muss. Der Ressourcenname sollte keine Informationen über seinen Standort enthalten, daher sind Namen wie mashinel:prog.c oder \\ftp_serv\pub nicht transparent. Ebenso bedeutet Bewegungstransparenz, dass Ressourcen frei von einem Computer auf einen anderen übertragen werden können, ohne dass der Name geändert werden muss. Ein weiterer möglicher Aspekt der Transparenz ist die Transparenz der Parallelität, die darin besteht, dass der Prozess der Parallelisierung von Berechnungen automatisch und ohne Beteiligung eines Programmierers erfolgt, während das System selbst parallele Zweige der Anwendung auf Prozessoren und Netzwerkcomputer verteilt. Derzeit kann nicht gesagt werden, dass die Eigenschaft der Transparenz vielen Computernetzwerken vollständig innewohnt; sie ist vielmehr ein Ziel, das von Entwicklern moderner Netzwerke angestrebt wird.

Unterstützt verschiedene Arten von Datenverkehr

Computernetzwerke waren ursprünglich für den gemeinsamen Zugriff auf Computerressourcen gedacht: Dateien, Drucker usw. Der von diesen traditionellen Computernetzwerkdiensten erzeugte Verkehr weist seine eigenen Merkmale auf und unterscheidet sich erheblich vom Nachrichtenverkehr in Telefonnetzen oder beispielsweise in Netzwerken Kabelfernsehen. In den 90er Jahren drang jedoch der multimediale Datenverkehr, der Sprache und Videos in digitaler Form darstellte, in Computernetzwerke vor. Computernetzwerke wurden zunehmend für die Organisation von Videokonferenzen, Schulungen auf Videobasis usw. genutzt. Natürlich erfordert die dynamische Übertragung des Multimedia-Verkehrs andere Algorithmen und Protokolle und dementsprechend andere Geräte. Obwohl der Anteil des Multimedia-Verkehrs noch gering ist, hat er bereits begonnen, sowohl globale als auch lokale Netzwerke zu durchdringen, und dieser Prozess wird offensichtlich aktiv weitergehen.

Das Hauptmerkmal des bei der dynamischen Übertragung von Sprache oder Bildern erzeugten Datenverkehrs ist das Vorhandensein strenger Anforderungen an die Synchronisierung der übertragenen Nachrichten. Für eine qualitativ hochwertige Wiedergabe kontinuierlicher Vorgänge, wie zum Beispiel Schallschwingungen oder Änderungen der Lichtintensität in einem Videobild, ist es notwendig, gemessene und kodierte Signalamplituden mit der gleichen Frequenz zu erhalten, mit der sie auf der Sendeseite gemessen wurden. Wenn Nachrichten verzögert werden, kommt es zu Verzerrungen.

Gleichzeitig ist der Computerdatenverkehr durch eine äußerst ungleichmäßige Intensität der in das Netzwerk eingehenden Nachrichten gekennzeichnet, da keine strengen Anforderungen an die Synchronisierung der Zustellung dieser Nachrichten bestehen. Beispielsweise erzeugt der Zugriff eines Benutzers, der mit Text auf einer Remote-Festplatte arbeitet, einen zufälligen Nachrichtenfluss zwischen dem Remote- und dem lokalen Computer, abhängig von den Aktionen des Benutzers, und es kommt zu Lieferverzögerungen innerhalb bestimmter (aus Computersicht ziemlich weitreichender) Grenzen hat kaum Auswirkungen auf die Servicequalität für den Netzwerkbenutzer. Alle Computerkommunikationsalgorithmen, entsprechenden Protokolle und Kommunikationsgeräte wurden genau für dieses „pulsierende“ Signal entwickelt. Aufgrund der Art des Datenverkehrs erfordert die Notwendigkeit der Übertragung von Multimedia-Datenverkehr grundlegende Änderungen sowohl bei den Protokollen als auch bei der Ausrüstung. Heutzutage bieten fast alle neuen Protokolle in gewissem Maße Unterstützung für Multimedia-Verkehr.

Besonders schwierig ist die Kombination von traditionellem Computer- und Multimedia-Verkehr in einem Netzwerk. Die ausschließliche Übertragung von Multimedia-Verkehr über ein Computernetzwerk ist zwar mit gewissen Schwierigkeiten verbunden, aber weniger problematisch. Die Koexistenz zweier Verkehrsarten mit gegensätzlichen Anforderungen an die Servicequalität ist jedoch eine weitaus schwierigere Aufgabe. In der Regel klassifizieren Computernetzwerkprotokolle und -geräte den Multimedia-Verkehr als optional, sodass die Qualität seines Dienstes zu wünschen übrig lässt. Heutzutage werden große Anstrengungen unternommen, um Netzwerke zu schaffen, die die Interessen einer bestimmten Verkehrsart nicht beeinträchtigen. Am nächsten kommen diesem Ziel Netzwerke auf Basis der ATM-Technologie, deren Entwickler zunächst den Fall der Koexistenz berücksichtigten verschiedene Typen Datenverkehr im selben Netzwerk.

Kontrollierbarkeit

Im Idealfall handelt es sich bei Netzwerkverwaltungstools um ein System, das jedes Element des Netzwerks überwacht, steuert und verwaltet – von den einfachsten bis zu den komplexesten Geräten, und ein solches System betrachtet das Netzwerk als ein einziges Ganzes und nicht als eine disparate Ansammlung einzelner Geräte .

Kontrollierbarkeit Netzwerk impliziert die Fähigkeit, den Status der Hauptelemente des Netzwerks zentral zu überwachen, während des Netzwerkbetriebs auftretende Probleme zu identifizieren und zu lösen, Leistungsanalysen durchzuführen und die Netzwerkentwicklung zu planen.

Ein gutes Managementsystem überwacht das Netzwerk und leitet, wenn es ein Problem erkennt, Maßnahmen ein, korrigiert die Situation und benachrichtigt den Administrator darüber, was passiert ist und welche Schritte unternommen wurden. Gleichzeitig muss das Leitsystem Daten sammeln, auf deren Grundlage die Netzentwicklung geplant werden kann. Schließlich muss das Steuerungssystem herstellerunabhängig sein und über eine benutzerfreundliche Oberfläche verfügen, die es ermöglicht, alle Aktionen von einer Konsole aus durchzuführen.

Bei der Lösung taktischer Probleme stehen Administratoren und technisches Personal täglich vor der Herausforderung, die Netzwerkfunktionalität sicherzustellen. Diese Aufgaben erfordern schnelle Lösung Das Netzwerkwartungspersonal muss umgehend auf Fehlermeldungen von Benutzern oder automatischen Netzwerkverwaltungstools reagieren. Im Laufe der Zeit werden allgemeine Probleme in den Bereichen Leistung, Netzwerkkonfiguration, Fehlerbehandlung und Datensicherheit offensichtlich und erfordern einen strategischen Ansatz, d. h. eine Netzwerkplanung. Darüber hinaus umfasst die Planung die Prognose von Änderungen der Benutzeranforderungen an das Netzwerk, Probleme bei der Verwendung neuer Anwendungen und neue Netzwerktechnologien usw.

Der Bedarf an einem Managementsystem ist in großen Netzwerken besonders ausgeprägt: unternehmensweit oder global. Ohne ein Managementsystem erfordern solche Netzwerke die Präsenz qualifizierter Betriebsspezialisten in jedem Gebäude in jeder Stadt, in der Netzwerkgeräte installiert sind, was letztendlich dazu führt, dass ein riesiger Personalbestand an Wartungspersonal unterhalten werden muss.

Derzeit gibt es viele ungelöste Probleme im Bereich Netzwerkmanagementsysteme. Es gibt eindeutig nicht genügend wirklich praktische, kompakte und Multiprotokoll-Netzwerkmanagement-Tools. Die meisten vorhandenen Tools verwalten das Netzwerk überhaupt nicht, sondern überwachen lediglich seinen Betrieb. Sie überwachen das Netzwerk, ergreifen jedoch keine aktiven Maßnahmen, wenn dem Netzwerk etwas passiert ist oder passieren könnte. Es gibt nur wenige skalierbare Systeme, die sowohl Netzwerke auf Abteilungsebene als auch Netzwerke auf Unternehmensebene bedienen können – viele Systeme verwalten nur einzelne Netzwerkelemente und analysieren nicht die Fähigkeit des Netzwerks, eine qualitativ hochwertige Datenübertragung zwischen Endbenutzern durchzuführen.

Kompatibilität

Kompatibilität oder Integrierbarkeit bedeutet, dass das Netzwerk eine Vielzahl von Software und umfassen kann Hardware Das heißt, es können verschiedene Betriebssysteme koexistieren, die unterschiedliche Kommunikationsprotokoll-Stacks unterstützen, und Hardware und Anwendungen darauf ausführen verschiedene Hersteller. Ein Netzwerk, das aus Elementen unterschiedlicher Art besteht, wird als heterogen oder heterogen bezeichnet. Wenn ein heterogenes Netzwerk problemlos funktioniert, wird es integriert. Der Hauptweg zum Aufbau integrierter Netzwerke besteht in der Verwendung von Modulen, die nach offenen Standards und Spezifikationen erstellt wurden.

Servicequalität

Servicequalität Quality of Service (QoS) quantifiziert die Wahrscheinlichkeit, dass ein Netzwerk einen bestimmten Datenfluss zwischen zwei Knoten entsprechend den Anforderungen einer Anwendung oder eines Benutzers überträgt.

Wenn beispielsweise Sprachverkehr über ein Netzwerk übertragen wird, bedeutet die Dienstqualität meist, dass Sprachpakete vom Netzwerk mit einer Verzögerung von nicht mehr als N ms zugestellt werden, während die Verzögerungsschwankung M ms nicht überschreitet, und diese Eigenschaften wird vom Netzwerk mit einer Wahrscheinlichkeit von 0,95 in einem bestimmten Zeitintervall aufrechterhalten. Das heißt, für eine Anwendung, die Sprachverkehr überträgt, ist es wichtig, dass das Netzwerk die Einhaltung dieser speziellen, oben aufgeführten Dienstqualitätsmerkmale garantiert. Der Dateidienst benötigt Garantien für eine durchschnittliche Bandbreite und deren Erweiterung in kurzen Abständen auf ein maximales Niveau für eine schnelle Übertragung von Wellen. Idealerweise sollte das Netzwerk spezifische Dienstqualitätsparameter garantieren, die für jede einzelne Anwendung formuliert werden. Aus offensichtlichen Gründen beschränken sich die entwickelten und bereits vorhandenen QoS-Mechanismen jedoch auf die Lösung eines einfacheren Problems – die Gewährleistung bestimmter durchschnittlicher Anforderungen, die für die wichtigsten Anwendungstypen festgelegt sind.

Am häufigsten regulieren die Parameter, die in verschiedenen Definitionen der Dienstqualität erscheinen, die folgenden Netzwerkleistungsindikatoren:

Bandbreite;

Verzögerungen bei der Paketübertragung;

Grad des Paketverlusts und der Paketverzerrung.

Für einige Datenströme ist die Servicequalität garantiert. Denken Sie daran, dass ein Datenfluss eine Folge von Paketen ist, die einige gemeinsame Merkmale aufweisen, beispielsweise die Adresse des Quellknotens, Informationen zur Identifizierung des Anwendungstyps (TCP/UDP-Portnummer) usw. Konzepte wie Aggregation und Differenzierung gelten für fließt. Somit kann ein Datenstrom von einem Computer als eine Sammlung von Strömen aus verschiedenen Anwendungen dargestellt werden, und Ströme von Computern eines Unternehmens werden zu einem Datenstrom für einen Abonnenten eines Dienstanbieters zusammengefasst.

Servicequalitätsmechanismen allein schaffen keine Kapazität. Das Netzwerk kann nicht mehr geben, als es hat. Die tatsächliche Kapazität von Kommunikationskanälen und Transitkommunikationsgeräten sind also Netzwerkressourcen Startpunkt für den Betrieb von QoS-Mechanismen. QoS-Mechanismen verwalten lediglich die Verteilung der verfügbaren Bandbreite entsprechend den Anwendungsanforderungen und Netzwerkeinstellungen. Der offensichtlichste Weg, Netzwerkbandbreite neu zuzuweisen, ist die Verwaltung von Paketwarteschlangen.

Da zwischen zwei Endknoten ausgetauschte Daten eine Reihe zwischengeschalteter Netzwerkgeräte wie Hubs, Switches und Router durchlaufen, erfordert die QoS-Unterstützung die Interaktion aller Netzwerkelemente entlang des Verkehrspfads, also Ende-zu-Ende. („;end-to-end“;, „;e2e“;). Jede QoS-Garantie ist nur so wahr wie die schwächste. Element in der Kette zwischen Sender und Empfänger. Daher müssen Sie sich darüber im Klaren sein, dass die QoS-Unterstützung nur in einem Fall erfolgt Netzwerkgerät Selbst im Backbone kann die Servicequalität nur geringfügig verbessert werden oder die QoS-Parameter überhaupt nicht beeinflusst werden.

Die Implementierung von QoS-Unterstützungsmechanismen in Computernetzwerken ist ein relativ neuer Trend. Computernetzwerke existierten lange Zeit ohne solche Mechanismen, und das hat vor allem zwei Gründe. Erstens waren die meisten Anwendungen, die im Netzwerk ausgeführt wurden, „leicht anspruchsvoll“, was bedeutet, dass bei solchen Anwendungen Paketverzögerungen oder durchschnittliche Durchsatzschwankungen über einen ausreichend großen Bereich nicht zu einem signifikanten Funktionsverlust führten. Beispiele für „Low-Demand“-Anwendungen sind die häufigsten Anwendungen in Netzwerken der 1980er Jahre: E-Mail oder Remote-Dateikopieren.

Zweitens war die Bandbreite selbst von 10-Mbit-Ethernet-Netzwerken in vielen Fällen nicht knapp. So wird ein gemeinsam genutztes Ethernet-Segment, an das 10–20 Computer angeschlossen sind, gelegentlich klein kopiert Textdateien, dessen Volumen mehrere hundert Kilobyte nicht überschreitet, ermöglichte es dem Datenverkehr jedes Paares interagierender Computer, das Netzwerk so schnell zu durchqueren, wie es die Anwendungen erforderten, die diesen Datenverkehr erzeugten.

Infolgedessen arbeiteten die meisten Netzwerke mit der Qualität des Transportdienstes, der den Anforderungen der Anwendungen entsprach. Zwar boten diese Netzwerke innerhalb bestimmter Grenzen keine Garantien hinsichtlich der Kontrolle von Paketverzögerungen oder des Durchsatzes, mit dem Pakete zwischen Knoten übertragen werden. Darüber hinaus kam es bei vorübergehender Netzwerküberlastung, wenn ein erheblicher Teil der Computer gleichzeitig begann, Daten mit maximaler Geschwindigkeit zu übertragen, zu Verzögerungen und Durchsätzen, die zum Ausfall von Anwendungen führten – sie waren zu langsam, es kam zu Sitzungsunterbrechungen usw.

Es gibt zwei Hauptansätze zur Sicherstellung der Netzwerkqualität. Der erste besteht darin, dass das Netzwerk dem Benutzer die Einhaltung eines bestimmten numerischen Werts des Dienstqualitätsindikators garantiert. Beispielsweise können Frame-Relay- und ATM-Netzwerke dem Benutzer einen bestimmten Durchsatz garantieren. Beim zweiten Ansatz (Best Effort) versucht das Netzwerk, den Nutzer so effizient wie möglich zu bedienen, garantiert jedoch nichts.

Der von solchen Netzwerken erbrachte Transportdienst wurde „Best Effort“ genannt, also der Dienst „mit maximalem Aufwand“. (oder „;wie möglich“;). Das Netzwerk versucht, den eingehenden Datenverkehr so ​​schnell wie möglich zu verarbeiten, gibt jedoch keine Garantien für das Ergebnis. Beispiele hierfür sind die meisten in den 80er Jahren entwickelten Technologien: Ethernet, Token Ring, IP, X.25. Service „mit maximalem Aufwand“ basiert auf einem fairen Algorithmus zur Verarbeitung von Warteschlangen, die während einer Netzwerküberlastung entstehen, wenn die Rate der in das Netzwerk eingehenden Pakete für einige Zeit die Weiterleitungsrate dieser Pakete übersteigt. Im einfachsten Fall behandelt der WartesPakete aus allen Flüssen als gleich und sortiert sie in der Reihenfolge ihres Eintreffens weiter (First In – First Out, FIFO). Für den Fall, dass die Warteschlange zu groß wird (nicht in den Puffer passt), wird das Problem dadurch gelöst, dass neu eingehende Pakete einfach verworfen werden.

Es ist offensichtlich, dass der Service „mit besten Bemühungen“ bietet nur dann eine akzeptable Servicequalität, wenn die Netzwerkleistung den durchschnittlichen Bedarf weit übersteigt, d. h. es ist redundant. In einem solchen Netzwerk reicht der Durchsatz sogar aus, um den Datenverkehr in Spitzenzeiten zu unterstützen. Es liegt auch auf der Hand, dass eine solche Lösung nicht wirtschaftlich ist – zumindest im Verhältnis zum Durchsatz heutiger Technologien und Infrastrukturen, insbesondere für globale Netzwerke.

Der Aufbau von Netzwerken mit Überkapazitäten ist jedoch die größte Herausforderung auf einfache Weise In der Praxis kommt es manchmal darauf an, die erforderliche Servicequalität sicherzustellen. Beispielsweise bieten einige TCP/IP-Netzwerkdienstanbieter eine Garantie für einen qualitativ hochwertigen Service, indem sie ständig eine gewisse Überkapazität ihrer Backbones im Vergleich zu den Kundenanforderungen aufrechterhalten.

Unter Bedingungen, in denen viele Mechanismen zur Unterstützung der Dienstqualität gerade erst entwickelt werden, ist die Nutzung überschüssiger Bandbreite für diese Zwecke oft die einzig mögliche, wenn auch vorübergehende Lösung.

Variante 1

1. Welche Technik verkürzt die Netzwerkantwortzeit, wenn der Benutzer damit arbeitet?

Datenbankserver?

    Verschieben des Servers in das Netzwerksegment, in dem die meisten Clients arbeiten

    Ersetzen der Server-Hardwareplattform durch eine produktivere

    Verringerung der Intensität der Kundenanfragen

    Reduzierung der Größe der Datenbank

2. Welche der folgenden Aussagen sind falsch?

    Übertragungsverzögerung ist gleichbedeutend mit Netzwerkreaktionszeit

    Bandbreite ist gleichbedeutend mit der Übertragungsgeschwindigkeit des Datenverkehrs

    Übertragungsverzögerung – der Kehrwert des Durchsatzes

    Servicequalitätsmechanismen können nicht erhöht werden Durchsatz Netzwerke

3. Welche der folgenden Eigenschaften lassen sich auf Zuverlässigkeit zurückführen?

Computernetzwerk?

    Bereitschaft oder Bereitschaftsrate

    Reaktionszeit

    Datensicherheit

    Datenkonsistenz

    Übertragungsverzögerung

    Wahrscheinlichkeit der Datenlieferung

Option 2

1. Messungen der Datenübertragungsgeschwindigkeit im Netzwerk wurden von 3 bis 5 Uhr durchgeführt. Wurde festgelegt

Durchschnittsgeschwindigkeit. Mwurden in Abständen von 10 Sekunden durchgeführt. Abschließend wurde die Höchstgeschwindigkeit ermittelt. Welche der Aussagen sind wahr?

    Die Durchschnittsgeschwindigkeit liegt immer unter der Höchstgeschwindigkeit

    Die Durchschnittsgeschwindigkeit ist immer geringer als die Momentangeschwindigkeit

    Die momentane Geschwindigkeit ist immer kleiner als das Maximum

2. Welche der folgenden Übersetzungen der Namen von Netzwerkmerkmalen aus dem Englischen

Sind Sie mit Russisch einverstanden?

    Verfügbarkeit – Zuverlässigkeit

    Fehlertoleranz - Fehlertoleranz

    Zuverlässigkeit - Bereitschaft

    Sicherheit - Geheimhaltung

    Erweiterbarkeit - Erweiterbarkeit

    Skalierbarkeit - Skalierbarkeit

3. Welche der Aussagen sind wahr?

    Das Netzwerk verfügt möglicherweise über einen hohen Durchsatz, führt jedoch zu erheblichen Verzögerungen bei der Übertragung jedes Pakets

    „Best Effort“-Service Bietet nur dann eine akzeptable Servicequalität, wenn überschüssige Netzwerkkapazität vorhanden ist

Option 3

1. Welche der Aussagen sind wahr?

    Der Durchsatz ist für jede Technologie ein konstanter Wert

    Die Netzwerkbandbreite entspricht der maximal möglichen Datenübertragungsrate

    Der Durchsatz hängt vom Volumen des übertragenen Datenverkehrs ab

    Das Netzwerk kann haben unterschiedliche Bedeutungen Durchsatz in verschiedenen Bereichen

2. Welche Eigenschaft sollte ein Netzwerk zunächst haben, um klassifiziert zu werden?

berühmter FirmensloganSonneMikrosysteme: „Ein Netzwerk ist ein Computer“?

    Hochleistung

    hohe Zuverlässigkeit

    hohes Maß an Transparenz

    hervorragende Skalierbarkeit

3. Welche der Aussagen sind falsch?

    Erweiterbarkeit und Skalierbarkeit sind zwei Namen für dieselbe Systemeigenschaft

    Mithilfe von QoS können Sie den Netzwerkdurchsatz erhöhen

    Für den Computerverkehr ist die Einheitlichkeit der Datenübertragung wichtiger als eine hohe Netzwerkzuverlässigkeit

    Alle Aussagen sind wahr

Erforderliche Literatur

1. V.G. Olifer, NA. Olifer

Computernetzwerke. Prinzipien, Technologien, Protokolle

Lehrbuch für Studierende höherer Bildungseinrichtungen,

Studierende der Fachrichtung „Informatik und Informatik“

Technik";

weitere Literatur

1. V.G. Olifer, N.A. Olifer

Netzwerkbetriebssysteme

Peter, 2001

2. A.Z. Dodd

Welt der Telekommunikation. Technologie- und Branchenüberblick

Olympus Business, 2002

Über Projekt 2

Vorwort 3

Vorlesung 1. Die Entwicklung von Computernetzwerken. Teil 1. Von Charles Babages Maschine zu den ersten globalen Netzwerken 4

Zwei Wurzeln von Datennetzen 4

Die Entstehung der ersten Computer 5

Softwaremonitore – 6 erste Betriebssysteme

Multiprogrammierung 6

Multi-Terminal-Systeme – ein Prototyp des Netzwerks 8

Die ersten Netzwerke sind global 8

Erbe der Telefonnetze 9

Vorlesung 2. Die Entwicklung von Computernetzwerken. 12

Teil 2. Von den ersten lokalen Netzwerken bis zu modernen Netzwerktechnologien 12

Minicomputer – Vorboten lokaler Netzwerke 12

Entstehung standardmäßiger lokaler Netzwerktechnologien 13

Die Rolle von Personalcomputern bei der Entwicklung von Computernetzwerken 13

Neue Möglichkeiten für lokale Netzwerknutzer 14

Entwicklung von Netzwerkbetriebssystemen 14

Vorlesung 3. Grundaufgaben beim Aufbau von Netzwerken 18

Kommunikation zwischen einem Computer und Peripheriegeräten 18

Kommunikation zwischen zwei Computern 20

Client, Redirector und Server 21

Aufgabe physische Übertragung Daten über Kommunikationsleitungen 22

Vorlesung 4. Kommunikationsprobleme zwischen mehreren Computern 25

Topologie physikalischer Verbindungen 25

Adressierung von Netzwerkknoten 30

Vorlesung 5. Switching und Multiplexing 35

Generalisiertes Kommutierungsproblem 35

Definition von Informationsflüssen 36

Routen definieren 37

Benachrichtigung des Netzwerks über die ausgewählte Route 37

Förderung – Flusserkennung und -umschaltung an jedem Transitknoten 38

Multiplexen und Demultiplexen 39

Geteilte Medien 41

Vorlesung 6. Leitungsvermittlung und Paketvermittlung. Teil 1 44

Verschiedene Ansätze zur Durchführung des Schaltvorgangs 44

Kanalumschaltung 45

Paketvermittlung 47

Nachrichtenvermittlung 50

Vorlesung 7. Leitungsvermittlung und Paketvermittlung. Teil 2 52

Permanentes und dynamisches Schalten 52

Durchsatz paketvermittelter Netzwerke 53

Ethernet – Ein Beispiel für eine Standard-Paketvermittlungstechnologie 55

Datagrammübertragung 57

Virtuelle Kanäle in paketvermittelten Netzwerken 58

Vorlesung 8. Netzwerke strukturieren 62

Gründe für die Gestaltung der Verkehrsinfrastruktur von Netzen 62

Physische Strukturierung des Netzwerks 63

Logische Netzwerkstrukturierung 65

Vorlesung 9. Funktionale Rollen von Computern im Netzwerk 71

Mehrschichtiges Netzwerkmodell 71

Funktionale Rollen von Computern im Netzwerk 72

Peer-to-Peer-Netzwerke 73

Dedizierte Servernetzwerke 74

Netzwerkdienste und operationssystem 76

Vorlesung 10. Konvergenz von Computer- und Telekommunikationsnetzen 79

Allgemeiner Aufbau eines Telekommunikationsnetzes 80

Telekommunikationsbetreibernetze 82

Unternehmensnetzwerke 86

Abteilungsnetzwerke 88

Campusnetzwerke 89

Unternehmensnetzwerke 89

Vorlesung 11. OSI-Modell 93

Mehrebenenansatz 94

Zerlegung des Netzwerkkommunikationsproblems 94

Protokoll. Schnittstelle. Protokollstapel 95

Modell OSI 97

Allgemeine Merkmale des OSI 97-Modells

Physikalische Schicht 100

Linklevel 100

Netzwerkschicht 102

Transportschicht 103

Sitzungsebene 104

Repräsentative Ebene 104

Anwendungsschicht 105

Netzwerkabhängige und netzwerkunabhängige Ebenen 105

Vorlesung 12. Netzwerkstandardisierung 109

Konzept "; offenes System"; 109

Modularität und Standardisierung 110

Quellen der Standards 111

Internetstandards 112

Standard-Kommunikationsprotokollstapel 114

InformationRessourcen Mit Zweck
  • Darf ausschließlich für Bildungszwecke verwendet werden; die Vervielfältigung von Informationsressourcen ist verboten (2)

    Buch

    erlaubtverwendenausschließlich V lehrreichZwecke. VerbotenReproduzierenInformationRessourcen Mit Zweck Erlangung kommerzieller Vorteile sowie anderer...

  • Darf ausschließlich für Bildungszwecke verwendet werden; die Vervielfältigung von Informationsressourcen ist verboten (4)

    Lernprogramm

    In der Telekommunikationsbibliothek und in Form von Zitaten präsentiert, erlaubtverwendenausschließlich V lehrreichZwecke. VerbotenReproduzierenInformationRessourcen Mit Zweck Erlangung kommerzieller Vorteile sowie anderer...

  • Darf ausschließlich für Bildungszwecke verwendet werden; die Vervielfältigung von Informationsressourcen ist verboten (5)

    Liste der Lehrbücher

    In der Telekommunikationsbibliothek und in Form von Zitaten präsentiert, erlaubtverwendenausschließlich V lehrreichZwecke. VerbotenReproduzierenInformationRessourcen Mit Zweck Erlangung kommerzieller Vorteile sowie anderer...

  • Darf ausschließlich für Bildungszwecke verwendet werden; die Vervielfältigung von Informationsressourcen ist verboten (3)

    Lernprogramm

    In der Telekommunikationsbibliothek und in Form von Zitaten präsentiert, erlaubtverwendenausschließlich V lehrreichZwecke. VerbotenReproduzierenInformationRessourcen Mit Zweck Erlangung kommerzieller Vorteile sowie anderer...

  • Sie funktionieren, aber nicht ganz so gut, wie wir es gerne hätten. Es ist beispielsweise nicht ganz klar, wie der Zugriff eingeschränkt werden soll Netzlaufwerk, jeden Morgen funktioniert der Drucker des Buchhalters nicht mehr und es besteht der Verdacht, dass irgendwo ein Virus lauert, weil der Computer ungewöhnlich langsam geworden ist.

    Klingt bekannt? Sie sind nicht allein, dies sind klassische Anzeichen für Konfigurationsfehler bei Netzwerkdiensten. Das ist völlig reparabel; wir haben bereits hunderte Male bei der Lösung ähnlicher Probleme geholfen. Nennen wir es Modernisierung der IT-Infrastruktur oder Erhöhung der Zuverlässigkeit und Sicherheit eines Computernetzwerks.

    Erhöhung der Zuverlässigkeit eines Computernetzwerks – wer profitiert davon?

    Zuallererst braucht es eine Führungskraft, die sich um ihr Unternehmen kümmert. Das Ergebnis eines gut durchgeführten Projekts ist eine deutliche Verbesserung der Netzwerkleistung und eine nahezu vollständige Beseitigung von Ausfällen. Aus diesem Grund sollten die Ausgaben für die Modernisierung des Netzwerks im Hinblick auf die Verbesserung der IT-Infrastruktur und die Erhöhung des Sicherheitsniveaus nicht als Kosten betrachtet werden, sondern als eine Investition, die sich sicherlich auszahlen wird.

    Außerdem ist ein Netzwerkmodernisierungsprojekt erforderlich normale Benutzer, weil es ihnen ermöglicht, sich auf die unmittelbare Arbeit zu konzentrieren und nicht auf die Lösung von IT-Problemen.

    Wie wir ein Netzwerkmodernisierungsprojekt durchführen

    Wir sind bereit, Ihnen bei der Lösung des Problems zu helfen, es ist nicht schwierig. Rufen Sie uns zunächst an und fordern Sie ein IT-Audit an. Es zeigt Ihnen, was Ihre täglichen Probleme verursacht und wie Sie sie loswerden können. Wir erledigen das kostengünstig oder kostenlos für Sie.

    Im Wesentlichen ist die IT-Prüfung Teil eines Netzwerkmodernisierungsprojekts. Im Rahmen eines IT-Audits prüfen wir nicht nur die Server und Workstations, wir verstehen auch die Anschlusspläne Netzwerkausrüstung und Telefonie, aber wir entwickeln auch einen Projektplan für die Netzwerkmodernisierung und legen das Projektbudget sowohl im Hinblick auf unsere Arbeit als auch auf die erforderliche Ausrüstung oder Software fest.

    Der nächste Schritt ist die eigentliche Umsetzung des Netzmodernisierungsprojekts. Die Hauptarbeit wird auf dem Server verrichtet, da dieser die bestimmende Komponente der Infrastruktur darstellt. Unsere Aufgabe im Rahmen des Netzwerkmodernisierungsprojekts besteht darin, weniger die Erscheinungsformen als vielmehr die Wurzeln der Probleme zu beseitigen. Sie laufen in der Regel auf etwa die gleichen konzeptionellen Infrastrukturmängel hinaus:

    a) Server und Workstations arbeiten als Teil einer Arbeitsgruppe und nicht als Domäne, wie Microsoft für Netzwerke mit mehr als fünf Computern empfiehlt. Dies führt zu Problemen bei der Benutzerauthentifizierung, der Unfähigkeit, Passwörter effektiv einzugeben und Benutzerrechte einzuschränken, sowie der Unfähigkeit, Sicherheitsrichtlinien zu verwenden.

    b) Netzwerkdienste, insbesondere DNS, sind falsch konfiguriert und Computer sehen sich gegenseitig oder Netzwerkressourcen nicht mehr. Aus dem gleichen Grund wird das Netzwerk meistens ohne ersichtlichen Grund „langsamer“.

    c) Auf Computern ist eine Vielzahl von Antivirensoftware installiert, die den Schutz in ein Sieb verwandelt. Sie können jahrelang an einem langsamen Computer arbeiten, ohne zu bemerken, dass 80 % seiner Ressourcen für Angriffe auf andere Computer oder den Versand von Spam verwendet werden. Nun, vielleicht können sie auch Ihre Passwörter stehlen oder alles, was Sie schreiben, auf einen externen Server übertragen. Leider ist dies durchaus möglich; ein zuverlässiger Virenschutz ist ein wichtiger und notwendiger Bestandteil jedes Netzwerkmodernisierungsprojekts.

    Dies sind die drei häufigsten Ursachen für Infrastrukturprobleme, und jede davon bedeutet, dass sie dringend behoben werden müssen. Es ist nicht nur notwendig, das Problem zu beseitigen, sondern auch ein System kompetent aufzubauen, um die Möglichkeit seines Auftretens auszuschließen.

    Wir versuchen übrigens, den Ausdruck zu verwenden „Modernisierung des Informationssystems“ anstatt „Netzmodernisierung“, weil wir versuchen, breiter zu blicken Netzwerkprobleme. Gemäß unserer Meinung, Informationssystem sollte aus verschiedenen Blickwinkeln betrachtet werden, und ein Fachmann muss bei der Entwicklung eines Netzwerkmodernisierungsprojekts die folgenden Aspekte seines Betriebs berücksichtigen.

    Informationssicherheit Ihres Unternehmens

    Sprechen über Informationssicherheit Als Unternehmen legen wir großen Wert darauf, nicht so sehr den externen Schutz vor Eindringlingen über das Internet zu gewährleisten, sondern vielmehr die interne Arbeit der Mitarbeiter zu optimieren. Leider wird der größte Schaden für ein Unternehmen nicht durch unbekannte Hacker verursacht, sondern durch Personen, die Sie vom Sehen her kennen, die aber möglicherweise durch Ihre Entscheidungen beleidigt sind oder die Informationen als ihr Eigentum betrachten. Ein Manager, der einen Kundenstamm stiehlt, oder ein verärgerter Mitarbeiter, der „nur für den Fall“ Buchhaltungs- oder Managementinformationen kopiert, sind zwei der häufigsten Fälle von Verstößen gegen die Informationssicherheit.

    Datensicherheit

    Leider steht Datensicherheit nur sehr selten auf der Aufmerksamkeitsliste von Managern oder gar vielen IT-Spezialisten. Es wird angenommen, dass es fast unmöglich ist, einen Serverausfall zu verhindern, sobald Raumschiffe die Umlaufbahn verlassen. Und das abgeschlossene Netzmodernisierungsprojekt deckt diesen Teil der Infrastruktur oft nicht ab.

    Wir stimmen zum Teil darin überein, dass es nicht immer möglich ist, einen Unfall zu verhindern. Aber jeder IT-Spezialist mit Selbstachtung kann und sollte dafür sorgen, dass die Daten immer sicher und zuverlässig bleiben und die Arbeit des Unternehmens innerhalb von ein oder zwei Stunden nach dem Ausfall des Servers wiederhergestellt werden kann. Wir betrachten es als unsere Pflicht, im Rahmen des Netzwerkmodernisierungsprojekts sowohl Hardware-Backup-Systeme für Speichermedien als auch Datensicherungen mithilfe eines speziellen Schemas zu implementieren, das es Ihnen ermöglicht, Daten zum richtigen Zeitpunkt wiederherzustellen und ihre Sicherheit im Laufe der Zeit zu gewährleisten. Und wenn der Administrator die Bedeutung der oben genannten Worte nicht versteht, dann ist er, gelinde gesagt, als Fachmann nicht vertrauenswürdig.

    Haltbarkeit des Gerätebetriebs

    Die langfristige Leistung von Servern und Workstations hängt direkt davon ab, woraus sie bestehen und wie sie hergestellt werden. Und wir versuchen, Ihnen bei der Auswahl von Geräten zu helfen, die für einen längeren Zeitraum gekauft werden und viele Jahre lang keine Aufmerksamkeit erfordern. Und im Rahmen eines Netzwerkmodernisierungsprojekts ist es sehr oft notwendig, das Festplatten-Subsystem des Servers zu aktualisieren – leider wird dies oft vergessen. Dies liegt an der tatsächlichen Lebensdauer Festplatte 4 Jahre nicht überschreitet und nach Ablauf dieser Zeit auf den Servern ausgetauscht werden muss. Dies sollte im Rahmen der Server- und Computerwartung überwacht werden, da es für die Zuverlässigkeit der Datenspeicherung sehr wichtig ist.

    Wartung von Server- und Computersystemen

    Wir sollten nicht vergessen, dass auch eine sehr gut strukturierte und zuverlässige Infrastruktur einer kompetenten und aufmerksamen Wartung bedarf. Wir glauben, dass IT-Outsourcing im Hinblick auf die Wartung der Infrastruktur eine logische Fortsetzung der Designarbeit ist. Es gibt eine Reihe von Unternehmen, die zwar über eigene IT-Spezialisten verfügen, uns jedoch die Wartung der Serversysteme anvertrauen. Diese Praxis zeigt eine hohe Effizienz – das Unternehmen zahlt nur für den Serversupport und übernimmt Aufgaben auf niedriger Ebene. Wir sind dafür verantwortlich sicherzustellen, dass Sicherheitsrichtlinien und Exemplar reservieren Zur Durchführung routinemäßiger Wartungsarbeiten überwachen wir Serversysteme.

    Relevanz von IT-Lösungen

    Die Welt verändert sich ständig. Die IT-Welt verändert sich doppelt so schnell. Und Technologien werden schneller geboren und sterben schneller, als wir Geld für ihre Aktualisierung ausgeben möchten. Daher halten wir es bei der Durchführung eines Netzwerkmodernisierungsprojekts für notwendig, nicht nur die neuesten, sondern auch die zuverlässigsten und gerechtfertigtsten Lösungen einzuführen. Nicht immer ist das, worüber alle reden, ein Allheilmittel oder eine Lösung für Ihr Problem. Oftmals ist überhaupt nicht alles so, wie es beschrieben wird. Virtualisierung und Cloud Computing werden von Tausenden von Unternehmen genutzt, die Implementierung einiger Technologien ist jedoch nicht immer wirtschaftlich gerechtfertigt. Und umgekehrt – ein richtig ausgewähltes und kompetent durchgeführtes Netzwerkmodernisierungsprojekt und vernünftige Entscheidungen Software bietet neue Möglichkeiten bei der Arbeit, spart Zeit und Geld.

    Bezahltes Windows oder kostenloses Linux? MS SharePoint oder „Bitrix: Corporate Portal“? IP-Telefonie oder klassisch? Jedes Produkt hat seine eigenen Vorteile und seinen eigenen Anwendungsbereich.

    Was braucht Ihr Unternehmen? Wie kann ein Netzwerkmodernisierungsprojekt abgeschlossen oder ein neuer Dienst eingeführt werden, ohne den Betrieb des Unternehmens zu unterbrechen? So stellen Sie sicher, dass die Umsetzung erfolgreich ist und die Mitarbeiter erhalten beste Werkzeuge für die Arbeit? Rufen Sie uns an, wir finden es heraus.



    Freunden erzählen