Geschichte der Entwicklung der Computertechnologie. Technische Informatik

💖 Gefällt es dir? Teilen Sie den Link mit Ihren Freunden

Das erste Gerät, das das Zählen erleichtern sollte, war der Abakus. Mit Hilfe von Abakus-Dominosteinen war es möglich, Additions- und Subtraktionsoperationen sowie einfache Multiplikationen durchzuführen.

1642 – Der französische Mathematiker Blaise Pascal entwarf die erste mechanische Addiermaschine, die Pascalina, die mechanisch Zahlen addieren konnte.

1673 – Gottfried Wilhelm Leibniz entwarf eine Rechenmaschine, die die vier Rechenoperationen mechanisch ausführen konnte.

Erste Hälfte des 19. Jahrhunderts - Der englische Mathematiker Charles Babbage versuchte, ein universelles Rechengerät, also einen Computer, zu bauen. Babbage nannte es die Analytical Engine. Er stellte fest, dass ein Computer über Speicher verfügen und von einem Programm gesteuert werden muss. Laut Babbage ist ein Computer ein mechanisches Gerät, für das Programme mithilfe von Lochkarten eingestellt werden – Karten aus dickem Papier mit durch Löcher aufgedruckten Informationen (damals waren sie bereits in Webstühlen weit verbreitet).

1941 – Der deutsche Ingenieur Konrad Zuse baute einen kleinen Computer auf Basis mehrerer elektromechanischer Relais.

1943 – Howard Aiken entwickelte in einem der IBM-Unternehmen in den USA einen Computer namens „Mark-1“. Es ermöglichte die Durchführung von Berechnungen um ein Hundertfaches schneller als von Hand (mit einer Rechenmaschine) und wurde für militärische Berechnungen verwendet. Es nutzte eine Kombination aus elektrischen Signalen und mechanischen Antrieben. „Mark-1“ hatte Abmessungen: 15 * 2-5 m und enthielt 750.000 Teile. Die Maschine war in der Lage, zwei 32-Bit-Zahlen in 4 Sekunden zu multiplizieren.

1943 – In den USA begann eine Gruppe von Spezialisten unter der Leitung von John Mauchly und Prosper Eckert mit dem Bau des ENIAC-Computers auf Basis von Vakuumröhren.

1945 – Der Mathematiker John von Neumann wurde mit der Arbeit an ENIAC beauftragt und erstellte einen Bericht über diesen Computer. In seinem Bericht formulierte von Neumann die allgemeinen Funktionsprinzipien von Computern, also universellen Rechengeräten. Bis heute werden die allermeisten Computer nach den Prinzipien von John von Neumann hergestellt.

1947 – Eckert und Mauchly beginnen mit der Entwicklung der ersten elektronischen Serienmaschine UNIVAC (Universal Automatic Computer). Das erste Modell der Maschine (UNIVAC-1) wurde für das US Census Bureau gebaut und im Frühjahr 1951 in Betrieb genommen. Auf Basis der ENIAC- und EDVAC-Rechner entstand der synchrone, sequentielle Rechner UNIVAC-1. Sie arbeitete mit Taktfrequenz 2,25 MHz und enthielt etwa 5000 Vakuumröhren. Die interne Speicherkapazität von 1000 12-Bit-Dezimalzahlen wurde auf 100 Quecksilberverzögerungsleitungen implementiert.

1949 – Der englische Forscher Mornes Wilkes baute den ersten Computer, der von Neumanns Prinzipien verkörperte.

1951 – J. Forrester veröffentlichte einen Artikel über die Verwendung von Magnetkernen zum Speichern digitaler Informationen. Die Whirlwind-1-Maschine war die erste, die Magnetkernspeicher verwendete. Es bestand aus 2 Würfeln mit 32-32-17 Kernen, die die Speicherung von 2048 Wörtern für 16-Bit-Binärzahlen mit einem Paritätsbit ermöglichten.

1952 – IBM bringt seinen ersten industriellen elektronischen Computer auf den Markt, den IBM 701, einen synchronen Parallelcomputer mit 4.000 Vakuumröhren und 12.000 Dioden. Eine verbesserte Version des IBM 704 war anders hohe Geschwindigkeit Bei der Arbeit wurden Indexregister verwendet und Daten in Gleitkommaform dargestellt.

Nach dem Computer IBM 704 erschien der IBM 709, der architektonisch den Maschinen der zweiten und dritten Generation nahe kam. In dieser Maschine wurde erstmals die indirekte Adressierung verwendet und es traten erstmals Eingabe-Ausgabe-Kanäle auf.

1952 – Remington Rand bringt den Computer UNIVAC-t 103 auf den Markt, der als erster Software-Interrupts nutzte. Mitarbeiter von Remington Rand verwendeten eine algebraische Form des Schreibens von Algorithmen namens „Short Code“ (der erste Interpreter, der 1949 von John Mauchly entwickelt wurde).

1956 – IBM entwickelt schwebende Magnetköpfe auf einem Luftkissen. Ihre Erfindung ermöglichte die Schaffung eines neuen Speichertyps – Plattenspeicher (SD), dessen Bedeutung in den folgenden Jahrzehnten der Entwicklung der Computertechnologie voll erkannt wurde. Die ersten Plattenspeichergeräte erschienen in IBM 305- und RAMAC-Maschinen. Letzterer verfügte über ein Paket bestehend aus 50 Metallscheiben mit Magnetbeschichtung, die mit einer Geschwindigkeit von 12.000 U/min rotierten. /Mindest. Auf der Oberfläche der Diskette befanden sich 100 Spuren zur Aufzeichnung von Daten mit jeweils 10.000 Zeichen.

1956 – Ferranti bringt den Pegasus-Computer auf den Markt, in dem das Konzept der General Purpose Registers (GPR) erstmals implementiert wurde. Mit dem Aufkommen von RON wurde die Unterscheidung zwischen Indexregistern und Akkumulatoren aufgehoben, und dem Programmierer standen nicht mehr ein, sondern mehrere Akkumulatorenregister zur Verfügung.

1957 – eine Gruppe unter der Leitung von D. Backus schloss die Arbeit an der ersten höheren Programmiersprache namens FORTRAN ab. Die erstmals auf dem IBM 704-Computer implementierte Sprache trug zur Erweiterung des Computerumfangs bei.

1960er Jahre - 2. Generation von Computern, Computerlogikelemente werden auf Basis von Halbleitertransistorbauelementen implementiert, algorithmische Programmiersprachen wie Algol, Pascal und andere werden entwickelt.

1970er Jahre - Computer der 3. Generation, integrierte Schaltkreise, das Tausende von Transistoren auf einem Halbleiterwafer enthält. Es wurden Betriebssysteme und strukturierte Programmiersprachen erstellt.

1974 – Mehrere Unternehmen kündigten die Entwicklung eines Personalcomputers auf Basis des Intel-8008-Mikroprozessors an – ein Gerät, das die gleichen Funktionen wie ein großer Computer ausführt, aber für einen Benutzer konzipiert ist.

1975 – der erste kommerziell vertriebene Personalcomputer Altair-8800 auf Basis des Intel-8080-Mikroprozessors erschien. Dieser Computer verfügte nur über 256 Byte RAM und es gab weder Tastatur noch Bildschirm.

Ende 1975 – Paul Allen und Bill Gates (zukünftige Gründer von Microsoft) entwickelten einen Basic-Sprachinterpreter für den Altair-Computer, der es Benutzern ermöglichte, einfach mit dem Computer zu kommunizieren und problemlos Programme dafür zu schreiben.

August 1981 – IBM stellt den IBM PC Personal Computer vor. Der Hauptmikroprozessor des Computers war ein 16-Bit-Intel-8088-Mikroprozessor, der das Arbeiten mit 1 Megabyte Speicher ermöglichte.

1980er Jahre - 4. Generation von Computern, die auf großen integrierten Schaltkreisen basieren. Mikroprozessoren werden als Einzelchip in Massenproduktion implementiert persönliche Computer.

1990er Jahre — 5. Computergeneration, ultragroße integrierte Schaltkreise. Prozessoren enthalten Millionen von Transistoren. Die Entstehung des Globalen Computernetzwerke Massengebrauch.

2000er Jahre — 6. Computergeneration. Integration von Computern und Haushaltsgeräte, eingebettete Computer, Entwicklung von Netzwerk-Computing.

Richtung „Informatik und Informatik“– einer der stabilsten in Bezug auf die hohe Nachfrage weltweit. Der Bedarf an Fachkräften im Bereich Programmierung, Informatik und Computertechnik (Ingenieure und Techniker) begann bereits in den 90er Jahren zu wachsen und erreichte in den 2000er Jahren ein konstant hohes Niveau, das bis heute anhält. Und es ist offensichtlich, dass dieser Zustand noch viele Jahrzehnte anhalten wird.

„Informatik und Informatik“ ist eine Schlüsselgruppe von Fachgebieten in der Computerbranche. Software ist die Grundlage für den Betrieb sowohl traditioneller Personalcomputer als auch leistungsfähigerer Computer, die für wissenschaftliche Zwecke oder zur Unterstützung des Betriebs großer Unternehmen bestimmt sind. Hochschulabsolventen mit einem Abschluss in Informatik und Technischer Informatik arbeiten in Unternehmen wie Microsoft, Oracle, Symantec, Intel, IBM, HP, Apple. Aber wenn die oben aufgeführten Unternehmen zur sogenannten „alten Garde“ gehören, arbeiten gute Programmierer heute auch in Unternehmen wie Google, Facebook, Amazon, PayPal, eBay, Twitter usw.

Absolventinnen und Absolventen eines Bachelor- oder Masterstudiums der Informatik und Informatik können Positionen in folgenden Bereichen besetzen:

  • Softwareentwicklung: Dazu gehören Systemanalytiker, Programmierer und Entwickler. Bei der Ausbildung wird viel Wert auf das Erlernen von Programmiersprachen wie C++, Java usw. gelegt. Es ist wichtig zu verstehen, dass solche Fachkräfte auch nach ihrem Abschluss ständig Fortbildungskurse absolvieren müssen, um mit neuen Trends und Veränderungen in den Programmiersprachen Schritt zu halten;
  • Softwaretechnologie (bzw Software Computertechnik und automatisierte Systeme) - dazu gehört auch eine umfassendere Entwicklung von Softwareprodukten an der Schnittstelle Computertechnologie, Ingenieurwesen, Mathematik, Design und Teamarbeit;
  • Qualitätskontrolle und Prüfung;
  • Entwicklung technischer Dokumentation;
  • technische Unterstützung;
  • Verwaltung großer Datenbanken;
  • Webdesign;
  • Projektmanagement;
  • Marketing und Vertrieb.

In den letzten Jahrzehnten hat die Welt rasant neue Technologien erworben und es werden immer mehr Spezialisten auf dem Gebiet der Informatik und Computertechnologie benötigt. Absolventen haben Karriereaussichten als Softwareentwickler, Webdesigner, Videospielentwickler, Systemanalytiker, Datenbankmanager und Netzwerkadministratoren.

Ein weiterer Spezialgebiet ist die direkte Arbeit mit Computern, Komplexen, Systemen und Netzwerken. Es handelt sich um einen bedeutenden Teilsektor der Computerindustrie. Ingenieure und Techniker erlernen den Umgang mit Hardware, also bei der Herstellung von Geräten und Computern, sowie einer Vielzahl von Geräten wie Druckern, Scannern usw.
Computerentwicklung beginnt in den Forschungs- und Entwicklungsabteilungen großer Unternehmen. Teams von Ingenieuren (Mechanik, Elektronik, Elektrik, Fertigung, Programmierung) arbeiten zusammen, um Komponenten zu entwerfen, zu testen und zu produzieren. Ein separater Bereich ist die Marketing-Marktforschung und die Produktion des Endprodukts. In diesem Bereich besteht der größte Mangel an qualifizierten Fachkräften, die sich mit Programmierung, Robotik, Automatisierung usw. auskennen.

Wenn diese Fachrichtungen für diesen Bereich jedoch eher als traditionell einzustufen sind, erfreuen sich heute eine Reihe von Berufen zunehmender Beliebtheit, die es vor etwa 10 bis 15 Jahren einfach noch nicht gab.

  • Entwicklung von Benutzeroberflächen: Diese Spezialisten werden in Unternehmen wie Electronic Arts, Apple, Microsoft und anderen benötigt, die sich mit der Entwicklung von Videospielen befassen. mobile Anwendungen usw.
  • Cloud Data Science: Viele Unternehmen, insbesondere Google, Amazon, AT&T und Microsoft, benötigen Spezialisten wie einen Cloud-Softwareentwickler, einen Cloud-Netzwerkingenieur und einen Produktmanager im Bereich Cloud-Produkte.
  • Verarbeitung und Analyse großer Datenbanken: Spezialisten für die Verarbeitung großer Datenbanken ( Große Daten) kann in einer Vielzahl von Unternehmen arbeiten – im Wirtschafts- und Finanzsektor, im E-Commerce, Regierungseinrichtungen, medizinische Organisationen, Telekommunikation usw.
  • Robotik: Diese Fachkräfte sind in großen Industrieunternehmen gefragt, beispielsweise im Maschinenbau (insbesondere in der Automobil- und Flugzeugindustrie).

Zu den Universitäten, die eine Ausbildung im Bereich Informatik und Informatik anbieten, gehören: MSTU. N.E. Bauman, MEPhI, MIREA, MESI, MTUSI, HSE, MPEI, MAI, MAMI, MIET, MISIS, MADI, MATI, LETI, Polytech (St. Petersburg) und viele andere.

Kommunizieren Sie persönlich mit Hochschulvertretern

Wie Sie sehen, gibt es in diesem Fachgebiet sehr viele Universitäten und Studiengänge. Daher können Sie Ihre Wahl einfacher und schneller machen, indem Sie die kostenlose Ausstellung „Master und Weiterbildung“ in or besuchen.

Ein Mikroprozessor ist ein programmierbares elektrisches Gerät, das zur Verarbeitung von Informationen in digitaler Form entwickelt wurde und in einem LSI implementiert ist.

Ein Mikroprozessorsystem ist ein spezialisiertes elektrisches Gerät, das auf der Grundlage eines oder mehrerer Mikroprozessoren hergestellt wird. Das Mikroprozessorgerät umfasst: - Speicher; - Eingabe-/Ausgabeelement; - Gerät, das den Betrieb des Prozessors gewährleistet.

Je nach Zweck kann M.P. sind unterteilt in: - Information und Informatik; - Steuerungs- und Steuergeräte.

Informations- und Computergeräte – Mikrocomputer, Personalcomputer.

Steuergeräte – Mikrocontroller, programmierbare Steuerung.

Mikroprozessormittel sind Mikroprozessoren und andere LSIs, die zu funktionalen Zwecken kombiniert werden und zum Aufbau von Mikroprozessorsystemen bestimmt sind. Systemgeneratoren. Systemcontroller. System-Timer. I/O-Controller. Interrupt-Controller. Controller für direkten Speicherzugriff.

Eine Mikroprozessorsteuerung ist ein Computer, einschließlich eines Speichermittels zur Kommunikation mit Peripheriegeräten, integriert in eine tragende Struktur.

Kann implementiert werden auf 1) einem Einzelchip-Mikroprozessor, 2) einem Sektions-(Mehrchip-)Mikroprozessor, 3) einem Einzelchip-Mikroprozessor und 4) komplexen, programmierbaren Matrix-Logikschaltungen

Frage 4 Informationsbegriff. Methoden zur Übermittlung von Informationen

Analog Digital

Relaisimpuls

Informationen sind Informationen über die Welt um uns herum.

Ein Signal ist ein materialphysikalisches Phänomen, das Informationen übermittelt

Nachricht – eine Reihe übertragener Signale

Signale: 1) kontinuierlich 2) diskret

Kontinuierliches (analoges) Signal, dessen Definitionsbereich ein kontinuierlicher Raum ist. Die Informationen werden in einer für die Speicherung, Verarbeitung und Übertragung geeigneten Form dargestellt, die als Daten bezeichnet wird.

Informationen, die in Form von Zahlen dargestellt werden, können gespeichert und übertragen werden. Die Speicherung erfolgt im digitalen Speicher. Die Übertragung erfolgt über eine Kommunikationsleitung, die Verarbeitung über ein Pumpsystem. Die Mindestmaßeinheit für Informationen beträgt 1 Bit (0 1). Der Prozess der Umwandlung von Informationen von einem Typ in einen anderen wird als Codierung bezeichnet.

Informieren-Text-Nummern-Video-Audio

Frage 5.6 In der Computertechnik verwendete Zahlensysteme

Arithmetische Grundlagen der MP-Technologie – Binäre Arithmetik.

Das binäre Zahlensystem ist positionell und wird zur Anzeige der Zahlen „0“ und „1“ verwendet.

Ein Zahlensystem ist eine Reihe von Zeichen und Regeln zu deren Aufzeichnung zum Zwecke der Verarbeitung von Informationsnummern.

Positionszahlensystem - Anzahl der Ziffern = Basis des Systems.

Das Gewicht einer Ziffer in einer Zahl ist gleich ihrem Wert, d. h. die Ziffern multipliziert mit der Basis hoch 1 kleiner als die Position der Ziffer in der Zahl.

Der Wert der führenden Ziffer ist um 1 kleiner als der Wert der Basis.

Alle 10. Zahlen können in 2. umgewandelt werden:

In der Informatik werden oktale und hexadezimale Zahlensysteme verwendet. Sie dienen dazu, das Schreiben von Binärzahlen zu vereinfachen.

8-äres System:0 1 2 3 4 5 6 7,16-äres System: 0-9, A,B,C,D,E,F.1110 1110 1101 =EDD16(H)111 011 101 101 = 73558(Q)

567=101 110 111 ; 1FA= 1 1111 1010Übersetzung von 10-stellig auf 8-16-stellig: Von 8 auf 16-stellig:

AB816=101 010 111 000=52708 Arithmetische Operationen in binäres System Maße: +,-,*,/.0+0=0; 0+1=1; 1+0=1; 1+1=10.

+ 1101110

Multiplikation:

Multiplikationsregeln:1*0=00*0=01*1=1Die Multiplikationsoperation kann durch eine Additionsoperation und eine Schiebeoperation ersetzt werden

DivisionsoperationDie Divisionsoperation kann durch eine Subtraktionsoperation und eine Schiebeoperation ersetzt werden

8-stelliges und hexadezimales System

1F(16) = 111112, nicht 00011111(2)

F1(16) = 111100012 = 011 110 0012 = 361(8)

In unserem sich schnell verändernden modernen Zeitalter sind Informatik und Informatik nicht nur zur Norm des Lebens geworden, sondern zu unserem Leben. Die Qualität der menschlichen Existenz beginnt davon abzuhängen, wie erfolgreich die Menschen sie verstehen. Wenn eine Person weiß, wie man damit umgeht Computerausrüstung auf „du“, dann lebt er im Rhythmus der Zeit und der Erfolg erwartet ihn immer.

Das Wort „Informatik“ selbst bezeichnet in fast allen Sprachen der Welt eine Wissenschaft, die mit Computertechnologie oder Computern zusammenhängt. Genauer gesagt hat dieser Begriff die folgende Definition: Dies ist der Name der Wissenschaft, deren Hauptaufgabe das Studium verschiedener Methoden zur Gewinnung, Speicherung, Akkumulation, Übermittlung, Umwandlung und Nutzung von Informationen ist.

Angewandte Informatik umfasst ihren Einsatz in der Gesellschaft, Software, den Kampf dagegen Computer Virus Und Informationsgesellschaft. Informatik und Informatik werden eingesetzt modernes Leben in mehreren Hauptrichtungen:

Entwicklung von Computersystemen und notwendiger Software;

Informationstheorie, die alle damit verbundenen Prozesse untersucht;

Methoden der künstlichen Intelligenz;

Systemanalyse;

Methoden der maschinellen Animation und Grafik;

Telekommunikation, einschließlich globaler;

Eine Vielzahl von Anwendungen, die nahezu alle Aspekte menschlicher Aktivitäten abdecken.

Es besteht kein Zweifel, dass die Entwicklung des technischen Fortschritts einen großen Einfluss auf unser Leben hat und der Menschheit ständig neue Möglichkeiten zur Beschaffung, Sammlung und Speicherung von Informationen bietet.

Sobald jemand das Konzept der „Menge“ entdeckte, begann er sofort mit der Auswahl von Werkzeugen, die das Zählen optimieren und erleichtern würden. Heutzutage verarbeiten, speichern und übertragen superstarke Computer, die auf den Prinzipien mathematischer Berechnungen basieren, Informationen – die wichtigste Ressource und Motor des menschlichen Fortschritts. Es ist nicht schwer, sich ein Bild davon zu machen, wie die Entwicklung der Computertechnologie ablief, wenn man kurz die Hauptphasen dieses Prozesses betrachtet.

Die Hauptstadien der Entwicklung der Computertechnologie

Am meisten populäre Klassifizierung schlägt vor, die Hauptstadien der Entwicklung der Computertechnologie chronologisch hervorzuheben:

  • Manuelle Bühne. Es begann zu Beginn der Menschheitsära und dauerte bis zur Mitte des 17. Jahrhunderts. In dieser Zeit entstanden die Grundlagen des Zählens. Später, mit der Entstehung von Positionszahlensystemen, erschienen Geräte (Abakus, Abakus und später ein Rechenschieber), die Berechnungen nach Ziffern ermöglichten.
  • Mechanische Bühne. Sie begann Mitte des 17. Jahrhunderts und dauerte fast bis zum Ende des 19. Jahrhunderts. Der Entwicklungsstand der Wissenschaft in dieser Zeit ermöglichte die Entwicklung mechanischer Geräte, die grundlegende Rechenoperationen ausführen und sich automatisch die höchsten Ziffern merken.
  • Die elektromechanische Bühne ist die kürzeste von allen, die die Entwicklungsgeschichte der Computertechnologie vereint. Es dauerte nur etwa 60 Jahre. Dies ist der Zeitraum zwischen der Erfindung des ersten Tabulators im Jahr 1887 und dem Erscheinen des allerersten Computers (ENIAC) im Jahr 1946. Neue Maschinen, deren Betrieb auf einem elektrischen Antrieb basierte und elektrisches Relais, ermöglichte es, Berechnungen viel schneller und genauer durchzuführen, der Zählvorgang musste jedoch immer noch von einer Person kontrolliert werden.
  • Die elektronische Bühne begann in der zweiten Hälfte des letzten Jahrhunderts und dauert bis heute an. Dies ist die Geschichte von sechs Generationen elektronischer Computer – von den allerersten Rieseneinheiten, die auf Vakuumröhren basierten, bis hin zu den ultraleistungsstarken modernen Supercomputern mit einer großen Anzahl parallel arbeitender Prozessoren, die viele Befehle gleichzeitig ausführen konnten.

Die Entwicklungsstufen der Computertechnik werden nach einem chronologischen Prinzip eher willkürlich eingeteilt. Zu einer Zeit, als einige Computertypen im Einsatz waren, wurden aktiv die Voraussetzungen für die Entstehung der folgenden geschaffen.

Die allerersten Zählgeräte

Das früheste bekannte Zählwerkzeug in der Geschichte der Entwicklung der Computertechnologie sind die zehn Finger einer menschlichen Hand. Die Zählergebnisse wurden zunächst mit Fingern, Kerben in Holz und Stein, speziellen Stöcken und Knoten erfasst.

Mit dem Aufkommen des Schreibens verschiedene Wege Durch die Aufzeichnung von Zahlen wurden Positionszahlensysteme erfunden (dezimal – in Indien, sexagesimal – in Babylon).

Etwa im 4. Jahrhundert v. Chr. begannen die alten Griechen mit dem Abakus zu zählen. Ursprünglich handelte es sich um eine flache Tontafel, auf die mit einem scharfen Gegenstand Streifen aufgetragen wurden. Die Zählung erfolgte, indem kleine Steine ​​oder andere kleine Gegenstände in einer bestimmten Reihenfolge auf diese Streifen gelegt wurden.

In China erschien im 4. Jahrhundert n. Chr. ein siebenzackiger Abakus – Suanpan (Suanpan). Drähte oder Seile – neun oder mehr – wurden auf einen rechteckigen Holzrahmen gespannt. Ein weiterer Draht (Seil), der senkrecht zu den anderen gespannt war, teilte den Suanpan in zwei ungleiche Teile. Im größeren Fach, „Erde“ genannt, befanden sich fünf an Drähten aufgereihte Knochen, im kleineren Fach, „Himmel“ genannt, waren es zwei davon. Jeder der Drähte entsprach einer Dezimalstelle.

Der traditionelle Soroban-Abakus erfreut sich in Japan seit dem 16. Jahrhundert großer Beliebtheit, nachdem er aus China dorthin gelangte. Zur gleichen Zeit erschien in Russland der Abakus.

Im 17. Jahrhundert erfand der Engländer Edmond Gunter auf der Grundlage der vom schottischen Mathematiker John Napier entdeckten Logarithmen den Rechenschieber. Dieses Gerät wurde ständig verbessert und hat bis heute überlebt. Es ermöglicht Ihnen, Zahlen zu multiplizieren und zu dividieren, zu potenzieren, Logarithmen und trigonometrische Funktionen zu bestimmen.

Der Rechenschieber wurde zu einem Gerät, das die Entwicklung der Computertechnologie auf der manuellen (vormechanischen) Stufe abschloss.

Die ersten mechanischen Rechengeräte

Im Jahr 1623 entwickelte der deutsche Wissenschaftler Wilhelm Schickard den ersten mechanischen „Rechner“, den er Zähluhr nannte. Der Mechanismus dieses Geräts ähnelte einer gewöhnlichen Uhr und bestand aus Zahnrädern und Kettenrädern. Diese Erfindung wurde jedoch erst Mitte des letzten Jahrhunderts bekannt.

Ein Quantensprung auf dem Gebiet der Computertechnologie war die Erfindung der Pascalina-Addiermaschine im Jahr 1642. Sein Schöpfer, der französische Mathematiker Blaise Pascal, begann mit der Arbeit an diesem Gerät, als er noch nicht einmal 20 Jahre alt war. „Pascalina“ war ein mechanisches Gerät in Form eines Kastens mit einer großen Anzahl miteinander verbundener Zahnräder. Die zu addierenden Zahlen wurden durch Drehen spezieller Räder in die Maschine eingegeben.

Im Jahr 1673 erfand der sächsische Mathematiker und Philosoph Gottfried von Leibniz eine Maschine, die die vier grundlegenden mathematischen Operationen ausführte und die Quadratwurzel ziehen konnte. Das Funktionsprinzip basierte auf dem vom Wissenschaftler speziell erfundenen binären Zahlensystem.

Im Jahr 1818 erfand der Franzose Charles (Karl) Xavier Thomas de Colmar auf der Grundlage der Ideen von Leibniz eine Additionsmaschine, die multiplizieren und dividieren konnte. Und zwei Jahre später begann der Engländer Charles Babbage mit der Konstruktion einer Maschine, die Berechnungen mit einer Genauigkeit von 20 Dezimalstellen durchführen konnte. Dieses Projekt blieb unvollendet, aber 1830 entwickelte sein Autor ein anderes – eine Analysemaschine zur Durchführung genauer wissenschaftlicher und technischer Berechnungen. Die Maschine sollte per Software gesteuert werden und perforierte Karten mit unterschiedlichen Lochpositionen sollten zur Ein- und Ausgabe von Informationen verwendet werden. Babbages Projekt sah die Entwicklung elektronischer Computertechnologie und die Probleme vor, die mit ihrer Hilfe gelöst werden könnten.

Es ist bemerkenswert, dass der Ruhm des ersten Programmierers der Welt einer Frau zusteht – Lady Ada Lovelace (geb. Byron). Sie war es, die die ersten Programme für Babbages Computer erstellte. Eine der Computersprachen wurde später nach ihr benannt.

Entwicklung der ersten Computeranaloga

Im Jahr 1887 trat die Geschichte der Entwicklung der Computertechnologie in eine neue Phase ein. Dem amerikanischen Ingenieur Herman Hollerith (Hollerith) gelang es, den ersten elektromechanischen Computer zu entwerfen – den Tabulator. Sein Mechanismus verfügte über ein Relais sowie Zähler und eine spezielle Sortierbox. Das Gerät las und sortierte statistische Aufzeichnungen auf Lochkarten. Anschließend wurde das von Hollerith gegründete Unternehmen zum Rückgrat des weltberühmten Computergiganten IBM.

1930 entwickelte der Amerikaner Vannovar Bush einen Differentialanalysator. Es wurde mit Strom betrieben und zur Datenspeicherung wurden Vakuumröhren verwendet. Diese Maschine war in der Lage, schnell Lösungen für komplexe mathematische Probleme zu finden.

Sechs Jahre später entwickelte der englische Wissenschaftler Alan Turing das Konzept einer Maschine, das zur theoretischen Grundlage für moderne Computer wurde. Es verfügte über alle wesentlichen Eigenschaften moderner Computertechnologie: Es konnte Schritt für Schritt Vorgänge ausführen, die im internen Speicher programmiert waren.

Ein Jahr später erfand George Stibitz, ein Wissenschaftler aus den Vereinigten Staaten, das erste elektromechanische Gerät des Landes, das eine binäre Addition durchführen konnte. Seine Operationen basierten auf der Booleschen Algebra – der mathematischen Logik, die Mitte des 19. Jahrhunderts von George Boole entwickelt wurde: der Verwendung der logischen Operatoren AND, OR und NOT. Später wird der Binäraddierer fester Bestandteil des Digitalrechners.

1938 skizzierte Claude Shannon, ein Mitarbeiter der University of Massachusetts, die Prinzipien logisches Gerät Computer, der verwendet Stromkreise zur Lösung von Problemen der Booleschen Algebra.

Der Beginn des Computerzeitalters

Die Regierungen der am Zweiten Weltkrieg beteiligten Länder waren sich der strategischen Rolle der Informatik bei der Durchführung militärischer Operationen bewusst. Dies war der Anstoß für die Entwicklung und parallele Entstehung der ersten Computergeneration in diesen Ländern.

Ein Pionier auf dem Gebiet der Computertechnik war Konrad Zuse, ein deutscher Ingenieur. 1941 entwickelte er den ersten programmgesteuerten Computer. Die Z3 genannte Maschine war auf Telefonrelais aufgebaut und die Programme dafür waren auf perforiertem Band kodiert. Dieses Gerät konnte sowohl im Binärsystem als auch mit Gleitkommazahlen arbeiten.

Das nächste Modell von Zuses Maschine, der Z4, gilt offiziell als erster wirklich funktionierender programmierbarer Computer. In die Geschichte ging er auch als Schöpfer der ersten höheren Programmiersprache namens Plankalküll ein.

Im Jahr 1942 entwickelten die amerikanischen Forscher John Atanasoff (Atanasoff) und Clifford Berry ein Computergerät, das mit Vakuumröhren betrieben wurde. Die Maschine wurde auch verwendet Binärcode, könnte eine Reihe logischer Operationen ausführen.

1943 wurde in einem Labor der englischen Regierung unter Geheimhaltung der erste Computer namens „Colossus“ gebaut. Anstelle von elektromechanischen Relais wurden zweitausend elektronische Röhren zur Speicherung und Verarbeitung von Informationen verwendet. Ziel war es, den Code geheimer Nachrichten zu knacken und zu entschlüsseln, die von der deutschen Verschlüsselungsmaschine Enigma, die in der Wehrmacht weit verbreitet war, übermittelt wurden. Die Existenz dieses Geräts wurde lange Zeit streng vertraulich behandelt. Nach Kriegsende wurde der Befehl zu seiner Zerstörung von Winston Churchill persönlich unterzeichnet.

Architekturentwicklung

1945 schuf der amerikanische Mathematiker ungarisch-deutscher Herkunft John (Janos Lajos) von Neumann den Prototyp der Architektur moderne Computer. Er schlug vor, ein Programm in Form eines Codes direkt in den Speicher der Maschine zu schreiben, was eine gemeinsame Speicherung von Programmen und Daten im Speicher des Computers implizierte.

Von Neumanns Architektur bildete die Grundlage des ersten Universals elektronischer Computer- ENIAC. Dieser Riese wog etwa 30 Tonnen und befand sich auf einer Fläche von 170 Quadratmetern. Für den Betrieb der Maschine wurden 18.000 Lampen verwendet. Dieser Computer könnte in einer Sekunde 300 Multiplikationsoperationen oder 5.000 Additionen durchführen.

Europas erster universell programmierbarer Computer wurde 1950 in der Sowjetunion (Ukraine) entwickelt. Eine Gruppe Kiewer Wissenschaftler unter der Leitung von Sergei Alekseevich Lebedev entwarf eine kleine elektronische Rechenmaschine (MESM). Seine Geschwindigkeit betrug 50 Operationen pro Sekunde, es enthielt etwa 6.000 Vakuumröhren.

Im Jahr 1952 wurde die heimische Computertechnologie durch BESM ergänzt, eine große elektronische Rechenmaschine, die ebenfalls unter der Leitung von Lebedew entwickelt wurde. Dieser Computer, der bis zu 10.000 Operationen pro Sekunde ausführte, war damals der schnellste in Europa. Die Informationen wurden mittels Lochstreifen in den Speicher des Geräts eingegeben und die Daten per Fotodruck ausgegeben.

Im gleichen Zeitraum wurde in der UdSSR eine Reihe großer Computer unter dem allgemeinen Namen „Strela“ hergestellt (der Autor der Entwicklung war Yuri Yakovlevich Bazilevsky). Seit 1954 begann in Pensa unter der Leitung von Bashir Rameev die Serienproduktion des Universalcomputers „Ural“. Die neuesten Modelle waren hardware- und softwarekompatibel miteinander, es gab eine große Auswahl an Peripheriegeräten, sodass Sie Maschinen unterschiedlicher Konfiguration zusammenstellen konnten.

Transistoren. Veröffentlichung der ersten seriellen Computer

Allerdings fielen die Lampen sehr schnell aus, was das Arbeiten mit der Maschine sehr erschwerte. Der 1947 erfundene Transistor konnte dieses Problem lösen. Sie nutzte die elektrischen Eigenschaften von Halbleitern und erfüllte die gleichen Aufgaben wie Vakuumröhren, nahm jedoch viel weniger Platz ein und verbrauchte nicht so viel Energie. Zusammen mit dem Aufkommen von Ferritkernen zur Organisation des Computerspeichers ermöglichte der Einsatz von Transistoren eine deutliche Reduzierung der Maschinengröße und machte sie noch zuverlässiger und schneller.

1954 begann das amerikanische Unternehmen Texas Instruments mit der Massenproduktion von Transistoren, und zwei Jahre später erschien in Massachusetts der erste auf Transistoren basierende Computer der zweiten Generation, der TX-O.

Mitte des letzten Jahrhunderts nutzte ein erheblicher Teil staatlicher Organisationen und großer Unternehmen Computer für wissenschaftliche, finanzielle, technische Berechnungen, mit großen Datenmengen arbeiten. Nach und nach erwarben Computer Funktionen, die wir heute kennen. In dieser Zeit erschienen Plotter, Drucker und Speichermedien auf Magnetplatten und Bändern.

Der aktive Einsatz der Computertechnologie hat zu einer Erweiterung ihrer Anwendungsgebiete geführt und die Schaffung neuer Softwaretechnologien erforderlich gemacht. Es sind höhere Programmiersprachen erschienen, die es ermöglichen, Programme von einer Maschine auf eine andere zu übertragen und das Schreiben von Code zu vereinfachen (Fortran, Cobol und andere). Es sind spezielle Übersetzerprogramme erschienen, die Code aus diesen Sprachen in Befehle umwandeln, die von der Maschine direkt wahrgenommen werden können.

Die Entstehung integrierter Schaltkreise

In den Jahren 1958-1960 erfuhr die Welt dank der Ingenieure aus den USA Robert Noyce und Jack Kilby von der Existenz integrierter Schaltkreise. Miniaturtransistoren und andere Komponenten, manchmal bis zu Hunderten oder Tausenden, wurden auf einer Silizium- oder Germanium-Kristallbasis montiert. Die knapp über einen Zentimeter großen Chips waren viel schneller als Transistoren und verbrauchten deutlich weniger Strom. Die Entwicklungsgeschichte der Computertechnologie verbindet ihr Erscheinen mit der Entstehung der dritten Computergeneration.

1964 brachte IBM den ersten Computer der SYSTEM 360-Familie auf den Markt, der auf integrierten Schaltkreisen basierte. Von diesem Zeitpunkt an kann mit der Massenproduktion von Computern gerechnet werden. Insgesamt wurden mehr als 20.000 Exemplare dieses Computers hergestellt.

1972 entwickelte die UdSSR den ES-Computer (Unified Series). Dabei handelte es sich um standardisierte Komplexe für den Betrieb von Rechenzentren, die über gemeinsames System Befehle Als Basis diente das amerikanische System IBM 360.

Im folgenden Jahr veröffentlichte DEC den Minicomputer PDP-8, das erste kommerzielle Projekt in diesem Bereich. Die relativ geringen Kosten von Minicomputern haben es auch kleinen Organisationen ermöglicht, sie zu nutzen.

Im gleichen Zeitraum wurde die Software ständig verbessert. Es wurden Betriebssysteme entwickelt, die darauf abzielten, die größtmögliche Anzahl externer Geräte zu unterstützen, und es erschienen neue Programme. 1964 entwickelten sie BASIC, eine Sprache, die speziell für die Ausbildung von Programmieranfängern entwickelt wurde. Fünf Jahre später erschien Pascal, das sich zur Lösung vieler angewandter Probleme als sehr praktisch erwies.

Persönliche Computer

Nach 1970 begann die Produktion der vierten Computergeneration. Die Entwicklung der Computertechnologie ist zu dieser Zeit durch die Einführung großer integrierter Schaltkreise in die Computerproduktion gekennzeichnet. Solche Maschinen könnten nun Tausende Millionen Rechenoperationen in einer Sekunde ausführen, und ihre RAM-Kapazität stieg auf 500 Millionen Bits. Eine deutliche Reduzierung der Kosten für Mikrocomputer hat dazu geführt, dass die Möglichkeit, sie zu kaufen, nach und nach für den Durchschnittsbürger zugänglich wurde.

Apple war einer der ersten Hersteller von Personalcomputern. Seine Schöpfer Steve Jobs und Steve Wozniak entwarfen 1976 das erste PC-Modell und gaben ihm den Namen Apple I. Es kostete nur 500 US-Dollar. Ein Jahr später wurde das nächste Modell dieses Unternehmens vorgestellt – Apple II.

Der Computer dieser Zeit ähnelte erstmals einem Haushaltsgerät: Neben seiner kompakten Größe verfügte er über ein elegantes Design und eine benutzerfreundliche Oberfläche. Die Verbreitung von Personalcomputern Ende der 1970er Jahre führte dazu, dass die Nachfrage nach Großrechnern deutlich zurückging. Diese Tatsache beunruhigte ihren Hersteller IBM ernsthaft und brachte 1979 seinen ersten PC auf den Markt.

Zwei Jahre später erschien der erste Mikrocomputer des Unternehmens mit offener Architektur, basierend auf dem 16-Bit-8088-Mikroprozessor von Intel. Der Computer war mit einem monochromen Display, zwei Laufwerken für 5-Zoll-Disketten, RAM Volumen 64 Kilobyte. Im Auftrag des Herstellerunternehmens hat Microsoft speziell für diese Maschine ein Betriebssystem entwickelt. Auf dem Markt erschienen zahlreiche IBM-PC-Klone, die das Wachstum der industriellen Produktion von Personalcomputern ankurbelten.

Im Jahr 1984 entwickelte und veröffentlichte Apple Neuer Computer- Macintosh. Sein operationssystem war äußerst benutzerfreundlich: Es stellte Befehle im Formular dar grafische Bilder und ermöglichte die Eingabe mit einem Manipulator – einer Maus. Dadurch wurde der Computer noch zugänglicher, da vom Benutzer keine besonderen Fähigkeiten mehr erforderlich waren.

Einige Quellen datieren Computer der fünften Generation der Computertechnologie auf die Jahre 1992–2013. Kurz gesagt, ihr Hauptkonzept lautet wie folgt: Hierbei handelt es sich um Computer, die auf der Grundlage hochkomplexer Mikroprozessoren mit einer Parallelvektorstruktur erstellt wurden, die es ermöglicht, Dutzende von in das Programm eingebetteten sequentiellen Befehlen gleichzeitig auszuführen. Maschinen mit mehreren hundert parallel arbeitenden Prozessoren ermöglichen eine noch genauere und schnellere Verarbeitung von Daten sowie den Aufbau effizienter Netzwerke.

Die Entwicklung moderner Computertechnologie lässt uns bereits von Computern der sechsten Generation sprechen. Hierbei handelt es sich um elektronische und optoelektronische Computer, die auf Zehntausenden von Mikroprozessoren laufen, sich durch massive Parallelität auszeichnen und die Architektur neuronaler biologischer Systeme modellieren, wodurch sie komplexe Bilder erfolgreich erkennen können.

Nachdem alle Phasen der Entwicklung der Computertechnologie konsequent untersucht wurden, sollte darauf hingewiesen werden interessante Tatsache: Erfindungen, die sich in jedem von ihnen bestens bewährt haben, haben bis heute überlebt und werden weiterhin erfolgreich eingesetzt.

Informatikkurse

Existieren Verschiedene Optionen Computerklassifikationen.

Entsprechend ihrem Verwendungszweck werden Computer unterteilt in:

  • zu universellen – solchen, die in der Lage sind, eine Vielzahl mathematischer, wirtschaftlicher, technischer, technischer, wissenschaftlicher und anderer Probleme zu lösen;
  • problemorientiert - Lösung von Problemen einer engeren Richtung, die in der Regel mit der Verwaltung bestimmter Prozesse verbunden sind (Datenerfassung, Akkumulation und Verarbeitung kleiner Informationsmengen, Durchführung von Berechnungen nach einfachen Algorithmen). Sie verfügen über begrenztere Software- und Hardwareressourcen als die erste Gruppe von Computern;
  • Spezialrechner lösen in der Regel streng definierte Aufgaben. Sie verfügen über einen hochspezialisierten Aufbau und sind bei relativ geringer Geräte- und Steuerungskomplexität recht zuverlässig und produktiv auf ihrem Gebiet. Dabei handelt es sich beispielsweise um Controller oder Adapter, die mehrere Geräte steuern, aber auch um programmierbare Mikroprozessoren.

Basierend auf Größe und Produktionskapazität werden moderne elektronische Computergeräte unterteilt in:

  • zu ultragroßen (Supercomputern);
  • große Computer;
  • kleine Computer;
  • ultraklein (Mikrocomputer).

So sahen wir, dass Geräte, die zunächst vom Menschen erfunden wurden, um Ressourcen und Werte zu berücksichtigen und dann komplexe Berechnungen und Rechenoperationen schnell und genau durchzuführen, sich ständig weiterentwickelten und verbesserten.



Freunden erzählen