Informationen und Informationsprozesse. Informationen sind Daten in verschiedenen Formen. Es gibt Informationen, die

💖 Gefällt es dir? Teilen Sie den Link mit Ihren Freunden

Information ist eine allgemeine Bezeichnung für Informationen, Daten, Nachrichten, wie auch immer Sie sie nennen. Derzeit gibt es in der Wissenschaft keine einheitliche Definition des Begriffs „Information“. Die Leute verstehen jedoch bereits, was es ist. In jedem wissenschaftlichen System werden Informationen etwas anders dargestellt, aber das Wesentliche ist dasselbe: Daten in jeglicher Form, eine Beschreibung des Objekts, Informationen über das System und so weiter. Informationen können klassifiziert und in verschiedene Kategorien eingeteilt werden (z. B. nach der Art der Wahrnehmung oder nach der Form der Darstellung, nach Zweck oder nach Bedeutung). Informationen existieren in jedem materiellen Objekt in Form verschiedener seiner Zustände und werden im Prozess ihrer Interaktion von Objekt zu Objekt übertragen. Informationen durchdringen unsere Welt, umhüllen sie und existieren überall. Auch das Fehlen jeglicher Daten ist bereits eine Information.

Die Menschheit hat wiederholt Daten über ihre Zivilisation ins All geschickt. Es lohnt sich, sich zumindest an die berühmte vergoldete Scheibe zu erinnern, die am Körper der Voyager angebracht ist und eine Reihe von Audio- und Videobotschaften oder Aufzeichnungen der Raumsonde Pioneer enthält. Und sehr bald wird ein weiteres ähnliches Projekt gestartet: eine Gruppe von Forschern der AMF-Stiftung zusammen mit Unternehmen

Englisch: Wikipedia macht die Seite sicherer. Sie verwenden einen alten Webbrowser, der in Zukunft keine Verbindung zu Wikipedia herstellen kann. Bitte aktualisieren Sie Ihr Gerät oder wenden Sie sich an Ihren IT-Administrator.

中文: Die 以下提供更长,更具技术性的更新 (仅英语)).

Spanisch: Wikipedia ist der Standort am sichersten. Ich verwende derzeit einen Web-Navigator, der in Zukunft keine Verbindung zu Wikipedia herstellen kann. Bitte kontaktieren Sie Ihren Administrator oder wenden Sie sich an Ihren Administrator. Es gab noch mehr Aktualisierungen und mehr Technik auf Englisch.

ﺎﻠﻋﺮﺒﻳﺓ: ويكيبيديا تسعى لتأمين الموقع أكثر من ذي قبل. أنت تستخدم متصفح وب قديم لن يتمكن من الاتصال بموقع ويكيبيديا في المستقبل. يرجى تحديث جهازك أو الاتصال بغداري تقنية المعلومات الخاص بك. يوجد تحديث فني أطول ومغرق في التقنية باللغة الإنجليزية تاليا.

Französisch: Wikipédia erweitert die Sicherheit seiner Website. Sie nutzen derzeit einen alten Web-Navigator, der sich nicht mehr mit Wikipedia verbinden muss, bevor er fertig ist. Vielen Dank für Ihren Besuch oder wenden Sie sich an Ihren Informatikadministrator. Zusätzliche Informationen sowie Techniken und Englisch sind hier verfügbar.

日本語: ???

Deutsch: Wikipedia erhöht die Sicherheit der Webseite. Du benutzt einen alten Webbrowser, der in Zukunft nicht mehr auf Wikipedia zugreifen kann. Bitte aktualisieren Sie Ihr Gerät oder sprechen Sie mit Ihrem IT-Administrator. Ausführlichere (und technisch detaillierte) Hinweise finden Sie unten in englischer Sprache.

Italienisch: Wikipedia stellt die sicherere Website wieder her. Bleiben Sie in einem Webbrowser, der Sie in Zukunft nicht mehr mit Wikipedia verbinden wird. Bitte kontaktieren Sie Ihren Informatiker oder kontaktieren Sie ihn. Für mehr Bass ist eine Erweiterung mit mehr Details und Technik in Englisch verfügbar.

Magyar: Biztonságosabb auf Wikipédia gelesen. Ein toller, mit Használsz, nem lesz képes kapcsolódni a jövőben. Die meisten modernen Geräte haben ein Problem mit der Reparatur verursacht. Alább olvashatod a részletesebb magyarázatot (angolul).

Schweden: Wikipedia wird nicht mehr gefunden. Sie nutzen ein älteres Webbrowser, der Ihnen die Möglichkeit gibt, Wikipedia aus der Community zu lesen. Aktualisieren Sie Ihr Gerät oder wenden Sie sich an Ihren IT-Administrator. Es ist eine lange Zeit und es gibt noch mehr technische Erläuterungen auf Englisch.

हिन्दी: विकिपीडिया साइट को और अधिक सुरक्षित बना रहा है। आप एक पुराने वेब ब्राउज़र का उपयोग कर रहे हैं जो भविष्य में विकिपीडिया से कनेक्ट नहीं हो पाएगा। कृपया अपना डिवाइस अपडेट करें या अपने आईटी व्यवस्थापक से संपर्क करें। नीचे अंग्रेजी में एक लंबा और अधिक तकनीकी अद्यतन है।

Wir entfernen die Unterstützung für unsichere TLS-Protokollversionen, insbesondere TLSv1.0 und TLSv1.1, auf die Ihre Browsersoftware für die Verbindung zu unseren Websites angewiesen ist. Die Ursache dafür sind meist veraltete Browser oder ältere Android-Smartphones. Oder es könnte sich um einen Eingriff durch Unternehmens- oder Privatsoftware „Web Security“ handeln, die die Verbindungssicherheit tatsächlich herabsetzt.

Sie müssen Ihren Webbrowser aktualisieren oder dieses Problem auf andere Weise beheben, um auf unsere Websites zugreifen zu können. Diese Meldung bleibt bis zum 1. Januar 2020 bestehen. Nach diesem Datum kann Ihr Browser keine Verbindung mehr zu unseren Servern herstellen.

Informationen sind Informationen über etwas

Konzept und Arten von Informationen, Übertragung und Verarbeitung, Suche und Speicherung von Informationen

Information ist Definition

Informationen sind beliebig Intelligenz, empfangen und übertragen, gespeichert von verschiedenen Quellen. - Dies ist die gesamte Sammlung von Informationen über die Welt um uns herum, über alle Arten von darin ablaufenden Prozessen, die von lebenden Organismen, elektronischen Maschinen und anderen Informationssystemen wahrgenommen werden können.

- Das bedeutsame Informationen über etwas, wenn die Form ihrer Darstellung auch Information ist, das heißt, sie hat entsprechend ihrer eigenen Natur eine Formatierungsfunktion.

Informationen sind alles, was mit unserem Wissen und unseren Annahmen ergänzt werden kann.

Informationen sind Informationen über etwas, unabhängig von der Form der Darstellung.

Informationen sind mental eines psychophysischen Organismus, der von ihm erzeugt wird, wenn er ein Mittel verwendet, das als Informationsmedium bezeichnet wird.

Informationen sind Informationen, die von Menschen und (oder) Spezialisten wahrgenommen werden. Geräte als Widerspiegelung der Tatsachen der materiellen oder geistigen Welt in Verfahren Kommunikation.

Informationen sind Daten sind so organisiert, dass sie für die Person, die sie verarbeitet, sinnvoll sind.

Informationen sind die Bedeutung, die eine Person Daten auf der Grundlage der bekannten Konventionen zu ihrer Darstellung beimisst.

Informationen sind Information, Erklärung, Präsentation.

Informationen sind alle Daten oder Informationen, die irgendjemanden interessieren.

Informationen sind Informationen über Objekte und Phänomene der Umwelt, deren Parameter, Eigenschaften und Zustand, die von Informationssystemen (lebende Organismen, Kontrollmaschinen usw.) wahrgenommen werden Verfahren Leben und Werk.

Die gleiche Informationsbotschaft (Zeitungsartikel, Anzeige, Brief, Telegramm, Urkunde, Geschichte, Zeichnung, Radiosendung etc.) kann für verschiedene Personen unterschiedlich viele Informationen enthalten – je nach Vorwissen, je nach Verständnisstand dieser Botschaft und Interesse daran.

In Fällen, in denen von Automatisierung gesprochen wird arbeiten mit Informationen über alle technische Geräte Dabei geht es ihnen nicht um den Inhalt der Nachricht, sondern darum, wie viele Zeichen diese Nachricht enthält.

Informationen sind

Angewendet Computerverarbeitung Daten, Informationen werden als eine bestimmte Abfolge symbolischer Bezeichnungen (Buchstaben, Zahlen, kodierte grafische Bilder und Töne usw.) verstanden, die eine semantische Last tragen und in einer für einen Computer verständlichen Form dargestellt werden. Jedes neue Zeichen in einer solchen Zeichenfolge erhöht den Informationsumfang der Nachricht.

Derzeit gibt es keine einheitliche Definition von Information als wissenschaftlichem Begriff. Aus der Sicht verschiedener Wissensgebiete dieses Konzept durch seine spezifischen Merkmale beschrieben. Beispielsweise ist der Begriff „Information“ grundlegend in einem Informatikstudium und es ist unmöglich, ihn durch andere, „einfachere“ Begriffe zu definieren (so wie es beispielsweise in der Geometrie unmöglich ist, den Inhalt der Information auszudrücken). Grundbegriffe „Punkt“, „Linie“, „Ebene“ durch einfachere Begriffe).

Der Inhalt grundlegender, grundlegender Konzepte in jeder Wissenschaft sollte anhand von Beispielen erläutert oder durch Vergleich mit dem Inhalt anderer Konzepte identifiziert werden. Beim Begriff „Information“ ist das Problem seiner Definition noch komplexer, da es sich um einen allgemeinen wissenschaftlichen Begriff handelt. Dieses Konzept wird in verschiedenen Wissenschaften verwendet (Informatik, Kybernetik, Biologie, Physik usw.), und in jeder Wissenschaft ist der Begriff „Information“ mit unterschiedlichen Begriffssystemen verbunden.

Informationskonzept

In der modernen Wissenschaft werden zwei Arten von Informationen berücksichtigt:

Objektive (primäre) Informationen sind die Eigenschaft materieller Objekte und Phänomene (Prozesse), vielfältige Zustände zu erzeugen, die durch Wechselwirkungen (grundlegende Wechselwirkungen) auf andere Objekte übertragen und in deren Struktur eingeprägt werden.

Subjektive (semantische, semantische, sekundäre) Informationen sind der semantische Inhalt objektiver Informationen über Objekte und Prozesse der materiellen Welt, die vom menschlichen Bewusstsein mit Hilfe semantischer Bilder (Wörter, Bilder und Empfindungen) gebildet und auf einem materiellen Medium aufgezeichnet werden.

Im alltäglichen Sinne sind Informationen Informationen über die umgebende Welt und die darin ablaufenden Prozesse, die von einer Person oder einem speziellen Gerät wahrgenommen werden.

Derzeit gibt es keine einheitliche Definition von Information als wissenschaftlichem Begriff. Aus Sicht verschiedener Wissensgebiete wird dieses Konzept durch seine spezifischen Merkmale beschrieben. Nach dem Konzept von K. Shannon ist Information die Beseitigung von Unsicherheit, d.h. Informationen, die bis zu einem gewissen Grad die beim Erwerber bestehende Unsicherheit vor Erhalt beseitigen und sein Verständnis des Objekts um nützliche Informationen erweitern sollen.

Aus der Sicht von Gregory Beton ist die elementare Informationseinheit ein „nicht-indifferenter Unterschied“ oder ein effektiver Unterschied für ein größeres Wahrnehmungssystem. Er nennt diejenigen Unterschiede, die nicht wahrgenommen werden, „Potenzial“, und diejenigen, die als „effektiv“ wahrgenommen werden. „Informationen bestehen aus Unterschieden, die nicht gleichgültig sind“ (c) „Jede Wahrnehmung von Informationen ist notwendigerweise der Erhalt von Informationen über den Unterschied.“ Aus Sicht der Informatik haben Informationen eine Reihe grundlegender Eigenschaften: Neuheit, Relevanz, Zuverlässigkeit, Objektivität, Vollständigkeit, Wert usw. Die Wissenschaft der Logik befasst sich hauptsächlich mit der Analyse von Informationen. Das Wort „Information“ kommt vom lateinischen Wort informatio, was Information, Erklärung, Einleitung bedeutet. Das Konzept der Information wurde von antiken Philosophen berücksichtigt.

Informationen sind

Vor Beginn der industriellen Revolution blieb die Bestimmung des Wesens von Informationen hauptsächlich den Philosophen vorbehalten. Als nächstes begann die neue Wissenschaft der Kybernetik, Fragen der Informationstheorie zu berücksichtigen.

Um das Wesen eines Konzepts zu verstehen, ist es manchmal nützlich, die Bedeutung des Wortes zu analysieren, mit dem dieses Konzept bezeichnet wird. Die Klärung der inneren Form eines Wortes und das Studium der Geschichte seines Gebrauchs können unerwartetes Licht auf seine Bedeutung werfen, die durch die übliche „technologische“ Verwendung des Wortes und moderne Konnotationen verdeckt wird.

Das Wort Information gelangte in der Petruszeit in die russische Sprache. Es wurde erstmals in den „Geistlichen Vorschriften“ von 1721 in der Bedeutung „Idee, Konzept von etwas“ erwähnt. (In europäischen Sprachen wurde es früher etabliert – etwa im 14. Jahrhundert.)

Informationen sind

Basierend auf dieser Etymologie kann unter Information jede signifikante Formänderung verstanden werden, oder mit anderen Worten jede materiell aufgezeichnete Spur, die durch die Interaktion von Objekten oder Kräften entsteht und verständlich ist. Information ist also eine umgewandelte Form von Energie. Der Informationsträger ist ein Zeichen, und die Methode seiner Existenz ist die Interpretation: die Identifizierung der Bedeutung eines Zeichens oder einer Zeichenfolge.

Bei der Bedeutung kann es sich um ein aus einem Zeichen rekonstruiertes Ereignis (bei „natürlichen“ und unfreiwilligen Zeichen wie Spuren, Beweisen etc.) oder um eine Botschaft (bei konventionellen, der Sphäre innewohnenden Zeichen) handeln der Sprache). Es ist die zweite Art von Zeichen, die den Körper der menschlichen Kultur ausmacht, die einer Definition zufolge „eine Reihe nicht erblich weitergegebener Informationen“ ist.

Informationen sind

Nachrichten können Informationen über Sachverhalte oder die Interpretation von Sachverhalten (von lateinisch interpretatio, Interpretation, Übersetzung) enthalten.

Ein Lebewesen erhält Informationen durch die Sinne, aber auch durch Reflexion oder Intuition. Der Informationsaustausch zwischen Subjekten ist Kommunikation oder Kommunikation (von lateinisch communicatio, Nachricht, Übertragung, wiederum abgeleitet von lateinisch communico, gemeinsam machen, kommunizieren, reden, verbinden).

Aus praktischer Sicht werden Informationen immer in Form einer Nachricht präsentiert. Die Informationsnachricht ist mit der Quelle der Nachricht, dem Empfänger der Nachricht und dem Kommunikationskanal verknüpft.

Kehren wir zur lateinischen Etymologie des Wortes Information zurück und versuchen wir, die Frage zu beantworten, was genau hier in Form gegeben ist.

Es liegt auf der Hand, dass es sich erstens um eine bestimmte Bedeutung handelt, die, da sie zunächst formlos und unausgesprochen ist, nur potentiell existiert und „gebaut“ werden muss, um wahrgenommen und übermittelt zu werden.

Zweitens an den menschlichen Geist, der darauf trainiert ist, strukturiert und klar zu denken. Drittens, zu einer Gesellschaft, die gerade dadurch, dass ihre Mitglieder diese Bedeutungen teilen und sie gemeinsam nutzen, an Einheit und Funktionalität gewinnt.

Informationen sind

Informationen als ausgedrückte intelligente Bedeutung sind Wissen, das gespeichert und übertragen werden kann und die Grundlage für die Generierung anderen Wissens bilden kann. Die Formen der Wissenserhaltung (historisches Gedächtnis) sind vielfältig: von Mythen, Chroniken und Pyramiden bis hin zu Bibliotheken, Museen und Computerdatenbanken.

Informationen – Informationen über die Welt um uns herum, über die darin ablaufenden Prozesse, die lebende Organismen wahrnehmen, Manager Maschinen und andere Informationssysteme.

Das Wort „Information“ ist lateinisch. Im Laufe seines langen Lebens hat sich seine Bedeutung weiterentwickelt und seine Grenzen entweder erweitert oder extrem verengt. Das Wort „Information“ bedeutete zunächst: „Darstellung“, „Konzept“, dann „Information“, „Übermittlung von Nachrichten“.

In den letzten Jahren sind Wissenschaftler zu dem Schluss gekommen, dass die übliche (allgemein akzeptierte) Bedeutung des Wortes „Information“ zu dehnbar und vage ist, und haben ihm die folgende Bedeutung gegeben: „ein Maß für die Gewissheit einer Nachricht“.

Informationen sind

Die Informationstheorie wurde durch die Bedürfnisse der Praxis zum Leben erweckt. Sein Auftreten ist verbunden mit arbeiten Claude Shannons „Mathematische Theorie der Kommunikation“, veröffentlicht 1946. Die Grundlagen der Informationstheorie basieren auf Ergebnissen vieler Wissenschaftler. In der zweiten Hälfte des 20. Jahrhunderts herrschte auf der ganzen Welt eine Flut von Informationen, die über Telefon- und Telegrafenkabel sowie Funkkanäle übertragen wurden. Später erschienen elektronische Computer – Informationsprozessoren. Und für diese Zeit bestand die Hauptaufgabe der Informationstheorie zunächst darin, die Effizienz von Kommunikationssystemen zu steigern. Die Schwierigkeit beim Entwurf und Betrieb von Mitteln, Systemen und Kommunikationskanälen besteht darin, dass es für den Designer und Ingenieur nicht ausreicht, das Problem aus physikalischer und energetischer Sicht zu lösen. Unter diesen Gesichtspunkten kann das System das fortschrittlichste und wirtschaftlichste sein. Bei der Erstellung von Übertragungssystemen ist es jedoch wichtig, darauf zu achten, wie viele Informationen durch dieses Übertragungssystem gelangen. Schließlich können Informationen quantitativ gemessen und gezählt werden. Und bei solchen Berechnungen verhalten sie sich auf die üblichste Weise: Sie abstrahieren von der Bedeutung der Nachricht, genauso wie sie die Konkretheit in arithmetischen Operationen aufgeben, die uns allen bekannt sind (wenn sie von der Addition von zwei Äpfeln und drei Äpfeln zur Addition von Zahlen übergehen). allgemein: 2 + 3).

Die Wissenschaftler sagten, sie hätten „die menschliche Auswertung von Informationen völlig ignoriert“. Sie weisen beispielsweise einer aufeinanderfolgenden Folge von 100 Buchstaben eine bestimmte Bedeutung einer Information zu, ohne darauf zu achten, ob diese Information sinnvoll ist und ob sie wiederum in der praktischen Anwendung sinnvoll ist. Der quantitative Ansatz ist der am weitesten entwickelte Zweig der Informationstheorie. Nach dieser Definition enthält eine Sammlung von 100 Buchstaben – ein Satz mit 100 Buchstaben aus einer Zeitung, einem Shakespeare-Stück oder Einsteins Theorem – genau die gleiche Menge an Informationen.

Diese Definition der Informationsmenge ist äußerst nützlich und praktisch. Es entspricht genau der Aufgabe des Nachrichtentechnikers, der alle im übermittelten Telegramm enthaltenen Informationen übermitteln muss, unabhängig vom Wert dieser Informationen für den Adressaten. Der Kommunikationskanal ist seelenlos. Für das Übertragungssystem ist eines wichtig: die erforderliche Menge an Informationen in einer bestimmten Zeit zu übertragen. Wie berechnet man die Informationsmenge in einer bestimmten Nachricht?

Informationen sind

Die Schätzung der Informationsmenge basiert auf den Gesetzen der Wahrscheinlichkeitstheorie, genauer gesagt, sie wird bestimmt durch Wahrscheinlichkeiten Veranstaltungen. Das ist verständlich. Eine Nachricht hat nur dann einen Wert und trägt Informationen, wenn wir daraus etwas über den Ausgang eines Ereignisses erfahren, das zufälliger Natur ist, wenn es in gewissem Maße unerwartet ist. Schließlich enthält die Nachricht über das bereits Bekannte keine Informationen. Diese. Wenn Sie beispielsweise jemand am Telefon anruft und sagt: „Tagsüber ist es hell und nachts dunkel“, dann wird Sie eine solche Nachricht nur mit der Absurdität überraschen, etwas Offensichtliches und jedem Bekanntes zu sagen, und nicht mit die darin enthaltenen Nachrichten. Eine andere Sache ist zum Beispiel das Ergebnis eines Rennens. Wer kommt zuerst? Das Ergebnis ist hier schwer vorherzusagen. Je mehr zufällige Ergebnisse ein für uns interessantes Ereignis hat, desto wertvoller ist die Nachricht über sein Ergebnis und desto mehr Informationen. Eine Nachricht über ein Ereignis, das nur zwei gleich mögliche Ergebnisse hat, enthält eine einzige Informationseinheit, die als Bit bezeichnet wird. Die Wahl der Informationseinheit ist kein Zufall. Es ist mit der gebräuchlichsten binären Art der Kodierung während der Übertragung und Verarbeitung verbunden. Versuchen wir, uns zumindest in der einfachsten Form das allgemeine Prinzip der quantitativen Bewertung von Informationen vorzustellen, das den Grundstein jeder Informationstheorie bildet.

Wir wissen bereits, dass die Menge an Informationen davon abhängt Wahrscheinlichkeiten bestimmte Ergebnisse der Veranstaltung. Wenn ein Ereignis, wie Wissenschaftler sagen, zwei gleich wahrscheinliche Ausgänge hat, bedeutet dies, dass jeder Ausgang gleich 1/2 ist. Dies ist die Wahrscheinlichkeit, beim Werfen einer Münze Kopf oder Zahl zu bekommen. Wenn ein Ereignis drei gleich wahrscheinliche Ausgänge hat, beträgt die Wahrscheinlichkeit jedes einzelnen 1/3. Beachten Sie, dass die Summe der Wahrscheinlichkeiten aller Ergebnisse immer gleich eins ist: Schließlich wird eines aller möglichen Ergebnisse definitiv eintreten. Wie Sie selbst verstehen, kann ein Ereignis ungleich wahrscheinliche Ergebnisse haben. Bei einem Fußballspiel zwischen einer starken und einer schwachen Mannschaft ist die Wahrscheinlichkeit, dass die starke Mannschaft gewinnt, hoch – zum Beispiel 4/5. Es gibt viel weniger Ziehungen, zum Beispiel 3/20. Die Wahrscheinlichkeit einer Niederlage ist sehr gering.

Es stellt sich heraus, dass die Informationsmenge ein Maß für die Verringerung der Unsicherheit einer bestimmten Situation ist. Über Kommunikationskanäle werden unterschiedliche Informationsmengen übertragen, und die über den Kanal übertragene Informationsmenge kann nicht größer sein Bandbreite. Und es wird dadurch bestimmt, wie viele Informationen hier pro Zeiteinheit passieren. Über einen der Helden aus Jules Vernes Roman „Die geheimnisvolle Insel“ berichtete der Journalist Gideon Spillett Telefonapparat Kapitel aus der Bibel, damit seine Konkurrenten keinen Vorteil daraus ziehen konnten Telefonkommunikation. In diesem Fall war der Kanal vollständig ausgelastet und die Informationsmenge war gleich Null, da ihm bekannte Informationen an den Teilnehmer übermittelt wurden. Das bedeutet, dass der Kanal im Leerlauf lief und eine genau definierte Anzahl von Impulsen weiterleitete, ohne sie mit irgendetwas zu belasten. Je mehr Informationen jeder einer bestimmten Anzahl von Impulsen trägt, desto besser wird die Kanalkapazität genutzt. Daher müssen Sie Informationen mit Bedacht verschlüsseln und eine kostengünstige, freie Sprache für die Übermittlung von Nachrichten finden.

Informationen werden auf die gründlichste Art und Weise „gesiebt“. Im Telegraphen werden häufig vorkommende Buchstaben, Buchstabenkombinationen und sogar ganze Phrasen durch eine kürzere Reihe von Nullen und Einsen dargestellt, seltener vorkommende durch eine längere Reihe. Wenn die Länge des Codeworts bei häufig vorkommenden Symbolen verringert und bei selten vorkommenden Symbolen erhöht wird, spricht man von einer effektiven Informationskodierung. In der Praxis kommt es jedoch häufig vor, dass der Code, der durch sorgfältigstes „Sieben“ entstanden ist, praktisch und wirtschaftlich ist, die Nachricht aufgrund von Störungen verzerren kann, was bei Kommunikationskanälen leider immer der Fall ist: Ton Verzerrungen beim Telefon, atmosphärische Störungen bei, Verzerrung oder Verdunkelung des Bildes beim Fernsehen, Fehler bei der Übertragung Telegraph. Diese Interferenz, oder wie Experten es nennen, Rauschen, greift die Informationen an. Und das führt zu den unglaublichsten und natürlich auch unangenehmsten Überraschungen.

Um die Zuverlässigkeit bei der Übertragung und Verarbeitung von Informationen zu erhöhen, ist es daher notwendig, zusätzliche Zeichen einzuführen – eine Art Schutz vor Verzerrungen. Sie – diese zusätzlichen Symbole – tragen nicht den eigentlichen Inhalt der Nachricht, sie sind redundant. Aus informationstheoretischer Sicht ist alles, was eine Sprache bunt, flexibel, schattierungsreich, facettenreich, mehrwertig macht, Redundanz. Wie überflüssig ist aus dieser Sicht Tatjanas Brief an Onegin! Wie viel Informationsüberschuss steckt darin für eine kurze und verständliche Botschaft „Ich liebe dich“! Und wie informativ die handgezeichneten Schilder sind, ist für jeden verständlich, der heute die U-Bahn betritt, wo statt Worten und Phrasen von Ansagen lakonische Symbolschilder mit den Hinweisen „Eingang“, „Ausgang“ stehen.

In diesem Zusammenhang ist es nützlich, sich an die Anekdote zu erinnern, die der berühmte amerikanische Wissenschaftler Benjamin Franklin einst über einen Hutmacher erzählte, der seine Freunde einlud, ein Schilderprojekt zu besprechen. Es sollte einen Hut auf das Schild zeichnen und schreiben: „John Thompson , ein Hutmacher, stellt Hüte her und verkauft sie gegen Bargeld.“ Einem meiner Freunde ist aufgefallen, dass die Worte „gegen Bargeld“ Geld„ sind unnötig – eine solche Erinnerung wäre beleidigend Käufer. Auch ein anderer fand das Wort „verkauft“ überflüssig, da es selbstverständlich sei, dass der Hutmacher Hüte verkauft und diese nicht kostenlos abgibt. Der dritte war der Meinung, dass die Wörter „Hutmacher“ und „macht Hüte“ eine unnötige Tautologie seien, und verwarf die letzteren Wörter. Der vierte schlug vor, auch das Wort „Hutmacher“ zu streichen – der bemalte Hut sagt deutlich, wer John Thompson ist. Schließlich versicherte der Fünfte, dass für Käufer Es machte überhaupt keinen Unterschied, ob der Hutmacher John Thompson hieß oder anders, und schlug vor, auf diese Angabe zu verzichten. So blieb am Ende nichts außer dem Hut auf dem Schild übrig. Wenn Menschen nur diese Art von Codes ohne Redundanz in Nachrichten verwenden würden, wären natürlich alle „Informationsformen“ – Bücher, Berichte, Artikel – äußerst kurz. Aber sie würden an Klarheit und Schönheit verlieren.

Informationen können nach verschiedenen Kriterien in Typen eingeteilt werden: in Wahrheit: richtig und falsch;

durch Wahrnehmung:

Visuell – wahrgenommen durch die Sehorgane;

Auditiv – wahrgenommen durch die Hörorgane;

Taktil – wahrgenommen durch taktile Rezeptoren;

Olfaktorisch – wahrgenommen durch Geruchsrezeptoren;

Geschmacklich – von den Geschmacksknospen wahrgenommen.

je nach Präsentationsform:

Text – in Form von Symbolen übermittelt, die Lexeme der Sprache bezeichnen sollen;

Numerisch – in Form von Zahlen und Zeichen, die mathematische Operationen angeben;

Grafik – in Form von Bildern, Objekten, Grafiken;

Ton – mündliche oder aufgezeichnete Übertragung von Sprachlexemen durch akustische Mittel.

nach Verwendungszweck:

Masse – enthält triviale Informationen und arbeitet mit einer Reihe von Konzepten, die für den Großteil der Gesellschaft verständlich sind;

Speziell – enthält eine Reihe spezifischer Konzepte; bei der Verwendung werden Informationen übermittelt, die für die Masse der Gesellschaft möglicherweise nicht verständlich, aber in einem engen Rahmen notwendig und verständlich sind Soziale Gruppe wo verwendet diese Information;

Geheimnis – an einen engen Personenkreis und über geschlossene (geschützte) Kanäle übermittelt;

Persönlich (privat) – eine Reihe von Informationen über eine Person, die den sozialen Status und die Typen definieren soziale Interaktionen innerhalb einer Population.

nach Wert:

Aktuell – wertvolle Informationen dieser Moment Zeit;

Zuverlässig – Informationen ohne Verzerrung erhalten;

Verständlich – Informationen, die in einer Sprache ausgedrückt werden, die für diejenigen verständlich ist, für die sie bestimmt sind;

Vollständig – für die Annahme ausreichende Informationen die richtige Entscheidung oder Verständnis;

Nützlich – der Nutzen einer Information wird von der Person bestimmt, die die Information erhalten hat, abhängig vom Umfang der Möglichkeiten ihrer Nutzung.

Der Wert von Informationen in verschiedenen Wissensbereichen

In der Informationstheorie werden heutzutage viele Systeme, Methoden, Ansätze und Ideen entwickelt. Wissenschaftler glauben jedoch, dass zu den modernen Richtungen neue Richtungen in der Informationstheorie hinzukommen und neue Ideen auftauchen werden. Als Beweis für die Richtigkeit ihrer Annahmen führen sie die „lebendige“, sich entwickelnde Natur der Wissenschaft an und weisen darauf hin, dass die Informationstheorie überraschend schnell und fest in den unterschiedlichsten Bereichen des menschlichen Wissens Einzug hält. Die Informationstheorie ist in die Physik, Chemie, Biologie, Medizin, Philosophie, Linguistik, Pädagogik, Ökonomie, Logik, technischen Wissenschaften und Ästhetik eingedrungen. Nach Ansicht der Experten selbst hat die Informationslehre, die aus den Bedürfnissen der Kommunikationstheorie und Kybernetik entstand, ihre Grenzen überschritten. Und jetzt haben wir vielleicht das Recht, über Information als ein wissenschaftliches Konzept zu sprechen, das Forschern eine theoretische und informative Methode in die Hand gibt, mit der man in viele Wissenschaften über die lebende und unbelebte Natur, über die Gesellschaft, eindringen kann, was nicht nur der Fall sein wird ermöglichen es einem, alle Probleme aus einer neuen Perspektive zu betrachten, aber auch das zu sehen, was noch nicht gesehen wurde. Aus diesem Grund ist der Begriff „Information“ in unserer Zeit weit verbreitet und Teil von Konzepten wie Informationssystem, Informationskultur und sogar Informationsethik.

Viele wissenschaftliche Disziplinen nutzen die Informationstheorie, um neue Richtungen in alten Wissenschaften aufzuzeigen. So entstanden beispielsweise Informationsgeographie, Informationsökonomie und Informationsrecht. Doch der Begriff „Information“ hat im Zusammenhang mit der Entwicklung modernster Computertechnik, der Automatisierung geistiger Arbeit, der Entwicklung neuer Kommunikations- und Informationsverarbeitungsmittel und insbesondere mit dem Aufkommen der Informatik eine außerordentlich große Bedeutung erlangt. Eine der wichtigsten Aufgaben der Informationstheorie ist das Studium der Natur und Eigenschaften von Informationen, die Schaffung von Methoden zu ihrer Verarbeitung, insbesondere die Transformation verschiedener moderne Informationen in Computerprogramme, mit deren Hilfe eine Automatisierung der geistigen Arbeit erfolgt – eine Art Stärkung der Intelligenz und damit der Entwicklung der intellektuellen Ressourcen der Gesellschaft.

Das Wort „Information“ kommt vom lateinischen Wort informatio, was Information, Erklärung, Einleitung bedeutet. Der Begriff „Information“ ist in einem Informatikstudium grundlegend, aber es ist unmöglich, ihn durch andere, „einfachere“ Begriffe zu definieren. Der Begriff „Information“ wird in verschiedenen Wissenschaften verwendet, und in jeder Wissenschaft wird der Begriff „ „Information“ ist mit unterschiedlichen Begriffssystemen verbunden. Information in der Biologie: Die Biologie untersucht die belebte Natur und das Konzept der „Information“ wird mit dem angemessenen Verhalten lebender Organismen in Verbindung gebracht. In lebenden Organismen werden Informationen mithilfe von Objekten unterschiedlicher physikalischer Natur (DNA-Zustand) übertragen und gespeichert, die als Zeichen biologischer Alphabete gelten. Genetische Informationen werden in allen Zellen lebender Organismen vererbt und gespeichert. Philosophischer Ansatz: Information ist Interaktion, Reflexion, Erkenntnis. Kybernetischer Ansatz: Informationen sind Merkmale Manager Signal, das über eine Kommunikationsleitung übertragen wird.

Die Rolle der Information in der Philosophie

In den frühen Definitionen von Information als Kategorie, Konzept, Eigenschaft der materiellen Welt dominierte stets der Traditionalismus des Subjektiven. Informationen existieren außerhalb unseres Bewusstseins und können sich nur durch Interaktion in unserer Wahrnehmung widerspiegeln: Reflexion, Lesen, Empfangen in Form eines Signals, Reizes. Informationen sind nicht materiell, wie alle Eigenschaften der Materie. Informationen stehen in der folgenden Reihenfolge: Materie, Raum, Zeit, Systematik, Funktion usw., die die Grundkonzepte einer formalisierten Reflexion der objektiven Realität in ihrer Verteilung und Variabilität, Vielfalt und Erscheinungsform sind. Informationen sind eine Eigenschaft der Materie und spiegeln deren Eigenschaften (Zustand oder Interaktionsfähigkeit) und Menge (Maß) durch Interaktion wider.

Aus materieller Sicht ist Information die Ordnung von Objekten in der materiellen Welt. Beispielsweise handelt es sich bei der Reihenfolge von Buchstaben auf einem Blatt Papier nach bestimmten Regeln um schriftliche Informationen. Die Reihenfolge, in der mehrfarbige Punkte nach bestimmten Regeln auf einem Blatt Papier erscheinen, ist grafische Informationen. Die Reihenfolge der Noten ist eine musikalische Information. Die Reihenfolge der Gene in der DNA ist eine Erbinformation. Die Reihenfolge der Bits in einem Computer ist Computerinformation usw. usw. Für den Informationsaustausch ist das Vorliegen notwendiger und ausreichender Bedingungen erforderlich.

Informationen sind

Die notwendigen Voraussetzungen:

Das Vorhandensein von mindestens zwei verschiedenen Objekten der materiellen oder immateriellen Welt;

Das Vorhandensein einer gemeinsamen Eigenschaft zwischen Objekten, die es ermöglicht, sie als Informationsträger zu identifizieren;

Das Vorhandensein einer bestimmten Eigenschaft in Objekten, die es ihnen ermöglicht, Objekte voneinander zu unterscheiden;

Das Vorhandensein einer Raumeigenschaft, mit der Sie die Reihenfolge von Objekten bestimmen können. Beispielsweise ist die Anordnung schriftlicher Informationen auf Papier eine spezifische Eigenschaft von Papier, die es ermöglicht, Buchstaben von links nach rechts und von oben nach unten anzuordnen.

Es gibt nur eine ausreichende Bedingung: die Anwesenheit eines Subjekts, das Informationen erkennen kann. Dies ist der Mensch und die menschliche Gesellschaft, Gesellschaften von Tieren, Robotern usw. Eine Informationsnachricht wird erstellt, indem Kopien von Objekten aus einer Basis ausgewählt und diese Objekte in einer bestimmten Reihenfolge im Raum angeordnet werden. Die Länge der Informationsnachricht ist definiert als die Anzahl der Kopien der Basisobjekte und wird immer als ganze Zahl ausgedrückt. Es ist zu unterscheiden zwischen der Länge einer Informationsnachricht, die immer in einer Ganzzahl gemessen wird, und der in einer Informationsnachricht enthaltenen Wissensmenge, die in einer unbekannten Maßeinheit gemessen wird. Aus mathematischer Sicht sind Informationen eine Folge von ganzen Zahlen, die in einen Vektor geschrieben werden. Nummern sind die Objektnummer in der Informationsbasis. Der Vektor wird als Informationsinvariante bezeichnet, da er nicht von der physikalischen Natur der Basisobjekte abhängt. Dieselbe Informationsbotschaft kann in Buchstaben, Wörtern, Sätzen, Dateien, Bildern, Notizen, Liedern, Videoclips oder einer beliebigen Kombination aus all dem ausgedrückt werden.

Informationen sind

Die Rolle der Information in der Physik

Informationen sind Informationen über die umgebende Welt (Objekt, Prozess, Phänomen, Ereignis), die Gegenstand einer Transformation (einschließlich Speicherung, Übertragung usw.) sind und zur Verhaltensentwicklung, zur Entscheidungsfindung, zum Management oder zum Lernen verwendet werden.

Die charakteristischen Merkmale der Informationen sind wie folgt:

Dies ist die wichtigste Ressource der modernen Produktion: Sie reduziert den Bedarf an Land, Arbeit, Kapital und reduziert den Verbrauch von Rohstoffen und Energie. Wenn Sie beispielsweise die Möglichkeit haben, Ihre Dateien zu archivieren (d. h. über solche Informationen verfügen), müssen Sie kein Geld für den Kauf neuer Disketten ausgeben;

Informationen erwecken neue Produktionen zum Leben. Beispielsweise war die Erfindung des Laserstrahls der Grund für die Entstehung und Entwicklung der Produktion von (optischen) Laserscheiben;

Informationen sind eine Ware und Informationen gehen nach dem Verkauf nicht verloren. Wenn also ein Student seinem Freund während des Semesters Informationen über den Stundenplan mitteilt, verliert er diese Daten nicht für sich selbst;

Informationen steigern den Wert anderer Ressourcen, insbesondere der Arbeitskraft. Tatsächlich wird ein Arbeitnehmer mit höherer Bildung mehr geschätzt als jemand mit einer weiterführenden Ausbildung.

Wie aus der Definition hervorgeht, sind mit Information immer drei Konzepte verbunden:

Die Informationsquelle ist das Element der umgebenden Welt (Objekt, Phänomen, Ereignis), dessen Informationen Gegenstand der Transformation sind. Somit ist die Informationsquelle, die der Leser dieses gegenwärtigen Augenblicks erhält Lehrhilfe, ist Informatik als Bereich menschlicher Tätigkeit;

Der Informationserwerber ist das Element der umgebenden Welt, das Informationen nutzt (um Verhalten zu entwickeln, Entscheidungen zu treffen, zu verwalten oder zu lernen). Käufer dieser Informationen ist der Leser selbst;

Ein Signal ist ein materielles Medium, das Informationen aufzeichnet, um sie von der Quelle an den Empfänger zu übertragen. In diesem Fall ist das Signal elektronischer Natur. Wenn ein Student dieses Handbuch aus der Bibliothek mitnimmt, stehen die gleichen Informationen auf Papier zur Verfügung. Nachdem die Informationen vom Schüler gelesen und gespeichert wurden, erhalten sie einen anderen Träger – biologisch, wenn sie im Gedächtnis des Schülers „aufgezeichnet“ werden.

Das Signal ist das wichtigste Element in dieser Schaltung. Auf die für den Informationserwerber wichtigen Formen seiner Darstellung sowie die quantitativen und qualitativen Eigenschaften der darin enthaltenen Informationen wird in diesem Abschnitt des Lehrbuchs weiter eingegangen. Die Hauptmerkmale eines Computers als Hauptwerkzeug, das die Informationsquelle in ein Signal umwandelt (Link 1 in der Abbildung) und das Signal zum Informationsempfänger „bringt“ (Link 2 in der Abbildung), sind im Abschnitt Computer aufgeführt . Die Struktur der Prozeduren, die die Verbindungen 1 und 2 umsetzen und den Informationsprozess ausmachen, ist Gegenstand der Betrachtung im Teil Informationsprozess.

Objekte der materiellen Welt befinden sich in einem Zustand kontinuierlicher Veränderung, der durch den Energieaustausch zwischen dem Objekt und der Umgebung gekennzeichnet ist. Eine Zustandsänderung eines Objekts führt immer zu einer Zustandsänderung eines anderen Umgebungsobjekts. Dieses Phänomen kann, unabhängig davon, wie, welche Zustände und welche Objekte sich verändert haben, als Übertragung eines Signals von einem Objekt zu einem anderen betrachtet werden. Das Ändern des Zustands eines Objekts, wenn ein Signal an es gesendet wird, wird als Signalregistrierung bezeichnet.

Ein Signal oder eine Folge von Signalen bildet eine Nachricht, die in der einen oder anderen Form sowie in der einen oder anderen Lautstärke vom Empfänger wahrgenommen werden kann. Information ist in der Physik ein Begriff, der die Konzepte „Signal“ und „Nachricht“ qualitativ verallgemeinert. Wenn Signale und Nachrichten quantifiziert werden können, dann können wir sagen, dass Signale und Nachrichten Maßeinheiten für die Informationsmenge sind. Die Nachricht (das Signal) wird von verschiedenen Systemen unterschiedlich interpretiert. Zum Beispiel nacheinander lang und zwei kurz Tonsignale In der Morsecode-Terminologie ist es der Buchstabe de (oder D), in der BIOS-Terminologie der Award-Firma handelt es sich um eine Fehlfunktion der Grafikkarte.

Informationen sind

Die Rolle der Information in der Mathematik

In der Mathematik ist die Informationstheorie (mathematische Kommunikationstheorie) ein Teilgebiet der angewandten Mathematik, das den Begriff der Information, ihre Eigenschaften definiert und Grenzbeziehungen für Datenübertragungssysteme aufstellt. Die Hauptzweige der Informationstheorie sind die Quellcodierung (Komprimierungscodierung) und die Kanalcodierung (rauschresistent). Mathematik ist mehr als eine wissenschaftliche Disziplin. Es schafft eine einheitliche Sprache für die gesamte Wissenschaft.

Gegenstand der Mathematikforschung sind abstrakte Objekte: Zahl, Funktion, Vektor, Menge und andere. Darüber hinaus werden die meisten von ihnen axiomatisch (Axiom) eingeführt, d.h. ohne Verbindung mit anderen Konzepten und ohne Definition.

Informationen sind

Informationen sind nicht im Umfang der Mathematikforschung enthalten. Allerdings wird das Wort „Information“ in mathematischen Begriffen verwendet – Selbstinformation und gegenseitige Information, bezogen auf den abstrakten (mathematischen) Teil der Informationstheorie. In der mathematischen Theorie wird der Begriff „Information“ jedoch ausschließlich mit abstrakten Objekten – Zufallsvariablen – in Verbindung gebracht, während dieser Begriff in der modernen Informationstheorie viel weiter gefasst wird – als Eigenschaft materieller Objekte. Der Zusammenhang zwischen diesen beiden identischen Begriffen ist unbestreitbar. Es war der mathematische Apparat der Zufallszahlen, den der Autor der Informationstheorie, Claude Shannon, verwendete. Er selbst meint mit dem Begriff „Information“ etwas Grundlegendes (Irreduzibles). Shannons Theorie geht intuitiv davon aus, dass Informationen einen Inhalt haben. Informationen reduzieren die allgemeine Unsicherheit und Informationsentropie. Die Informationsmenge ist messbar. Allerdings warnt er Forscher davor, Konzepte aus seiner Theorie mechanisch auf andere Wissenschaftsbereiche zu übertragen.

„Die Suche nach Möglichkeiten, die Informationstheorie in anderen Wissenschaftsbereichen anzuwenden, läuft nicht auf eine triviale Übertragung von Begriffen von einem Wissenschaftsbereich auf einen anderen hinaus. Diese Suche erfolgt in einem langen Prozess der Aufstellung neuer Hypothesen und ihrer experimentellen Überprüfung.“ .“ K. Shannon.

Informationen sind

Die Rolle der Information in der Kybernetik

Der Begründer der Kybernetik, Norbert Wiener, sprach über Informationen wie diese:

„Information ist nicht Materie oder Energie, Information ist Information.“ Aber die grundlegende Definition von Information, die er in mehreren seiner Bücher gab, ist die folgende: Information ist eine Bezeichnung von Inhalten, die wir von der Außenwelt im Prozess empfangen uns und unsere Gefühle anpassen.

Information ist der Grundbegriff der Kybernetik, ebenso wie Wirtschaftsinformation der Grundbegriff der Wirtschaftskybernetik ist.

Es gibt viele Definitionen dieses Begriffs, sie sind komplex und widersprüchlich. Der Grund liegt offensichtlich darin, dass die Kybernetik als Phänomen von verschiedenen Wissenschaften untersucht wird und die Kybernetik nur die jüngste von ihnen ist. Informationen sind Gegenstand des Studiums von Wissenschaften wie Managementwissenschaften, Mathematik, Genetik und der Theorie der Massenmedien (Druck, Radio, Fernsehen), Informatik, Umgang mit Problemen der wissenschaftlichen und technischen Information usw. Schließlich In letzter Zeit Philosophen zeigen großes Interesse an den Problemen der Energie: Sie neigen dazu, Energie als eine der wichtigsten universellen Eigenschaften der Materie zu betrachten, verbunden mit dem Konzept der Reflexion. Bei allen Interpretationen des Informationsbegriffs wird die Existenz zweier Objekte vorausgesetzt: der Informationsquelle und des Informationserwerbers (Empfängers). Die Übertragung von Informationen von einem zum anderen erfolgt mit Hilfe von Signalen, die im Allgemeinen darf keinen physischen Zusammenhang mit seiner Bedeutung haben: Diese Kommunikation wird durch Vereinbarung bestimmt. Zum Beispiel bedeutete das Läuten der Veche-Glocke, dass man sich zum Platz versammeln musste, aber denen, die diesen Befehl nicht kannten, teilte er keine Informationen mit.

In einer Situation mit einer Veche-Glocke weiß die Person, die an der Vereinbarung über die Bedeutung des Signals beteiligt ist, dass es im Moment zwei Alternativen geben kann: Das Veche-Treffen findet statt oder nicht. Oder, in der Sprache der Informationstheorie: Ein ungewisses Ereignis (veche) hat zwei Ausgänge. Das empfangene Signal führt zu einer Verringerung der Unsicherheit: Die Person weiß nun, dass das Ereignis (Abend) nur ein Ergebnis hat – es wird stattfinden. Wenn jedoch im Voraus bekannt war, dass das Treffen zu dieser oder jener Stunde stattfinden würde, verkündete die Glocke nichts Neues. Daraus folgt: Je weniger wahrscheinlich (d. h. unerwarteter) die Nachricht ist, desto mehr Informationen enthält sie, und umgekehrt: Je größer die Wahrscheinlichkeit des Ergebnisses vor dem Eintreten des Ereignisses, desto weniger Informationen enthält sie. Ungefähr die gleiche Argumentation wurde in den 40er Jahren vorgebracht. 20. Jahrhundert zur Entstehung einer statistischen oder „klassischen“ Informationstheorie, die den Begriff der Information durch das Maß definiert, die Unsicherheit des Wissens über das Auftreten eines Ereignisses zu verringern (dieses Maß wurde Entropie genannt). Die Ursprünge dieser Wissenschaft waren N. Wiener, K. Shannon und die sowjetischen Wissenschaftler A. N. Kolmogorov, V. A. Kotelnikov und andere. Sie waren in der Lage, mathematische Gesetze zur Messung der Informationsmenge und daraus Konzepte wie Kanalkapazität und ... Speicherkapazität abzuleiten von I. Geräten usw., die als starker Anreiz für die Entwicklung der Kybernetik als Wissenschaft und Elektronik dienten Computertechnologie Wie praktische Anwendung Errungenschaften der Kybernetik.

Was die Bestimmung des Werts und Nutzens von Informationen für den Empfänger angeht, ist noch vieles ungeklärt und unklar. Wenn wir von den Bedürfnissen des Wirtschaftsmanagements und damit der Wirtschaftskybernetik ausgehen, dann können Informationen als alle Informationen, Kenntnisse und Botschaften definiert werden, die zur Lösung eines bestimmten Managementproblems beitragen (d. h. die Unsicherheit seiner Ergebnisse verringern). Dann eröffnen sich einige Möglichkeiten zur Bewertung von Informationen: Sie sind nützlicher, wertvoller, je früher oder mit weniger Kosten führt zu einer Lösung des Problems. Der Informationsbegriff steht dem Datenbegriff nahe. Allerdings gibt es einen Unterschied zwischen ihnen: Daten sind Signale, aus denen noch Informationen extrahiert werden müssen. Bei der Datenverarbeitung handelt es sich um den Prozess, sie in eine dafür geeignete Form zu bringen.

Der Prozess ihrer Übertragung von der Quelle zum Empfänger und ihrer Wahrnehmung als Information kann als Durchgang durch drei Filter betrachtet werden:

Physisch oder statistisch (rein quantitative Begrenzung der Kanalkapazität, unabhängig vom Dateninhalt, d. h. aus syntaktischer Sicht);

Semantik (Auswahl derjenigen Daten, die für den Empfänger verständlich sind, also dem Thesaurus seines Wissens entsprechen);

Pragmatisch (Auswahl der verstandenen Informationen derjenigen, die zur Lösung eines bestimmten Problems nützlich sind).

Dies geht deutlich aus dem Diagramm hervor, das E. G. Yasins Buch über Wirtschaftsinformationen entnommen ist. Dementsprechend werden drei Aspekte der Untersuchung sprachlicher Probleme unterschieden: syntaktische, semantische und pragmatische.

Je nach Inhalt werden Informationen in gesellschaftspolitische, sozioökonomische (einschließlich Wirtschaftsinformationen), wissenschaftliche und technische Informationen usw. unterteilt. Generell gibt es viele Klassifizierungen von Informationen, die auf unterschiedlichen Grundlagen basieren. Aufgrund der Nähe der Konzepte werden Datenklassifikationen in der Regel auf die gleiche Weise aufgebaut. Informationen werden beispielsweise in statische (konstant) und dynamische (variable) unterteilt, und Daten werden in konstant und variabel unterteilt. Eine weitere Unterteilung sind primäre, abgeleitete und ausgegebene Informationen (Daten werden ebenfalls auf die gleiche Weise klassifiziert). Die dritte Abteilung ist I. Kontrollieren und Informieren. Viertens – überflüssig, nützlich und falsch. Fünftens – vollständig (kontinuierlich) und selektiv. Diese Idee von Wiener gibt einen direkten Hinweis auf die Objektivität der Informationen, d.h. seine Existenz in der Natur ist unabhängig vom menschlichen Bewusstsein (Wahrnehmung).

Informationen sind

Die moderne Kybernetik definiert objektive Information als die objektive Eigenschaft materieller Objekte und Phänomene, eine Vielzahl von Zuständen zu erzeugen, die durch die grundlegenden Wechselwirkungen der Materie von einem Objekt (Prozess) auf ein anderes übertragen und in dessen Struktur eingeprägt werden. Ein materielles System wird in der Kybernetik als eine Menge von Objekten betrachtet, die sich selbst in unterschiedlichen Zuständen befinden können, deren Zustand jedoch durch die Zustände anderer Objekte des Systems bestimmt wird.

Informationen sind

In der Natur stellen viele Zustände eines Systems Informationen dar; die Zustände selbst stellen den Primärcode oder Quellcode dar. Somit ist jedes materielle System eine Informationsquelle. Die Kybernetik definiert subjektive (semantische) Informationen als die Bedeutung oder den Inhalt einer Nachricht.

Die Rolle der Information in der Informatik

Gegenstand der Wissenschaft sind Daten: Methoden ihrer Entstehung, Speicherung, Verarbeitung und Übertragung. Inhalt (auch: „Inhalt“ (im Kontext), „Seiteninhalt“) ist ein Begriff, der alle Arten von Informationen (sowohl Text als auch Multimedia – Bilder, Audio, Video) bezeichnet, die den Inhalt (für den Besucher visualisierter Inhalt) ausmachen ) der Website. Es wird verwendet, um das Konzept der Informationen, die die interne Struktur einer Seite/Site bilden (Code), von dem zu trennen, was letztendlich auf dem Bildschirm angezeigt wird.

Das Wort „Information“ kommt vom lateinischen Wort informatio, was Information, Erklärung, Einleitung bedeutet. Der Begriff „Information“ ist in einem Informatikstudium grundlegend, kann aber nicht durch andere, „einfachere“ Begriffe definiert werden.

Folgende Ansätze zur Informationsermittlung lassen sich unterscheiden:

Traditionell (gewöhnlich) – in der Informatik verwendet: Informationen sind Informationen, Wissen, Botschaften über den Sachverhalt, die eine Person von der Außenwelt mit den Sinnen (Sehen, Hören, Schmecken, Riechen, Tasten) wahrnimmt.

Probabilistisch – wird in der Informationstheorie verwendet: Informationen sind Informationen über Objekte und Phänomene der Umwelt, ihre Parameter, Eigenschaften und ihren Zustand, die den Grad der Unsicherheit und Unvollständigkeit des Wissens über sie verringern.

Informationen werden in symbolischer (Zeichen-)Form gespeichert, übermittelt und verarbeitet. Dieselben Informationen können in verschiedenen Formen dargestellt werden:

Zeichenschrift, bestehend aus verschiedenen Zeichen, unter denen symbolische in Form von Text, Zahlen, Sonderzeichen unterschieden werden. Figuren; Grafik; tabellarisch usw.;

In Form von Gesten oder Signalen;

Mündliche verbale Form (Konversation).

Informationen werden mithilfe von Sprachen als Zeichensystemen präsentiert, die auf der Grundlage eines bestimmten Alphabets aufgebaut sind und über Regeln für die Durchführung von Operationen an Zeichen verfügen. Sprache ist ein spezifisches Zeichensystem zur Darstellung von Informationen. Existieren:

Natürliche Sprachen sind gesprochene Sprachen in gesprochener und geschriebener Form. In manchen Fällen kann die gesprochene Sprache durch die Sprache der Mimik und Gestik, die Sprache besonderer Zeichen (z. B. Verkehrszeichen) ersetzt werden;

Formale Sprachen sind Spezialsprachen für verschiedene Bereiche menschlichen Handelns, die sich durch ein streng festgelegtes Alphabet und strengere Regeln der Grammatik und Syntax auszeichnen. Dies ist die Sprache der Musik (Noten), die Sprache der Mathematik (Zahlen, mathematische Symbole), Zahlensysteme, Programmiersprachen usw. Die Grundlage jeder Sprache ist das Alphabet – eine Reihe von Symbolen/Zeichen. Die Gesamtzahl der Symbole des Alphabets wird üblicherweise als Potenz des Alphabets bezeichnet.

Informationsmedien sind ein Medium oder ein physischer Körper zur Übertragung, Speicherung und Wiedergabe von Informationen. (Dies sind elektrische, Licht-, Wärme-, Schall-, Radio Signale, magnetische und Laserscheiben, gedruckte Veröffentlichungen, Fotos usw.)

Informationsprozesse sind Prozesse, die mit dem Empfangen, Speichern, Verarbeiten und Übertragen von Informationen verbunden sind (d. h. mit Informationen durchgeführte Aktionen). Diese. Hierbei handelt es sich um Prozesse, bei denen sich der Inhalt einer Information oder die Form ihrer Darstellung ändert.

Um den Informationsprozess sicherzustellen, sind eine Informationsquelle, ein Kommunikationskanal und ein Informationskäufer erforderlich. Die Quelle übermittelt (sendet) Informationen und der Empfänger empfängt (nimmt sie wahr). Die übertragenen Informationen gelangen über ein Signal (Code) von der Quelle zum Empfänger. Durch Ändern des Signals können Sie Informationen erhalten.

Als Gegenstand der Transformation und Nutzung zeichnen sich Informationen durch folgende Eigenschaften aus:

Syntax ist eine Eigenschaft, die die Art und Weise bestimmt, wie Informationen auf einem Medium (in einem Signal) dargestellt werden. Daher werden diese Informationen auf elektronischen Medien in einer bestimmten Schriftart dargestellt. Hier können Sie auch Parameter der Informationsdarstellung wie Schriftart und -farbe, Größe usw. berücksichtigen. Zeilenabstand usw. Auswahl erforderliche Parameter als syntaktische Eigenschaften wird offensichtlich durch die beabsichtigte Transformationsmethode bestimmt. Für eine Person mit Sehbehinderung ist beispielsweise die Größe und Farbe der Schriftart wichtig. Wenn Sie planen, diesen Text über einen Scanner in einen Computer einzugeben, ist das Papierformat wichtig;

Semantik ist eine Eigenschaft, die die Bedeutung von Informationen als Übereinstimmung des Signals mit der realen Welt bestimmt. Somit liegt die Semantik des Signals „Informatik“ in der zuvor gegebenen Definition. Semantik kann als eine dem Informationserwerber bekannte Vereinbarung darüber betrachtet werden, was jedes Signal bedeutet (die sogenannte Interpretationsregel). Es ist zum Beispiel die Semantik von Signalen, die ein unerfahrener Autofahrer studiert, indem er die Verkehrsregeln studiert und Verkehrszeichen lernt (in diesem Fall sind die Zeichen selbst die Signale). Die Semantik von Wörtern (Signalen) wird von jedem Schüler erlernt Fremdsprache. Wir können sagen, dass der Sinn des Informatikunterrichts darin besteht, die Semantik verschiedener Signale zu studieren – die Essenz der Schlüsselkonzepte dieser Disziplin;

Pragmatik ist eine Eigenschaft, die den Einfluss von Informationen auf das Verhalten des Erwerbers bestimmt. Somit ist die Pragmatik der Informationen, die der Leser dieses Lehrbuchs erhält, zumindest das erfolgreiche Bestehen der Informatikprüfung. Ich möchte davon ausgehen, dass sich die Pragmatik dieser Arbeit nicht darauf beschränkt und der Weiterbildung und beruflichen Tätigkeit des Lesers dient.

Informationen sind

Es ist zu beachten, dass Signale mit unterschiedlicher Syntax die gleiche Semantik haben können. Beispielsweise bedeuten die Signale „Computer“ und „Computer“. elektronisches Gerät Informationen umzuwandeln. In diesem Fall sprechen wir normalerweise von Signalsynonymie. Andererseits kann ein Signal (d. h. Informationen mit einer syntaktischen Eigenschaft) unterschiedliche Pragmatiken für Verbraucher und unterschiedliche Semantiken haben. Also, Verkehrszeichen, als „Ziegelstein“ bekannt und mit einer ganz bestimmten Bedeutung („Einfahrt verboten“), bedeutet ein Einfahrtsverbot für einen Autofahrer, hat aber keine Auswirkungen auf einen Fußgänger. Gleichzeitig kann das Signal „Schlüssel“ unterschiedliche Semantiken haben: einen Violinschlüssel, einen Federschlüssel, einen Schlüssel zum Öffnen eines Schlosses, einen Schlüssel, der in der Informatik zum Verschlüsseln eines Signals verwendet wird, um es vor unbefugtem Zugriff zu schützen (in in diesem Fall spricht man von Signalhomonymie). Es gibt Signale – Antonyme mit entgegengesetzter Semantik. Zum Beispiel „kalt“ und „heiß“, „schnell“ und „langsam“ usw.

Gegenstand des Studiums der Informatik sind Daten: Methoden ihrer Erstellung, Speicherung, Verarbeitung und Übertragung. Und die in den Daten festgehaltenen Informationen selbst, ihre sinnvolle Bedeutung, sind für Nutzer von Informationssystemen interessant, die Spezialisten in verschiedenen Wissenschaften und Tätigkeitsfeldern sind: Ein Arzt interessiert sich für medizinische Informationen, ein Geologe interessiert sich für geologische Informationen, ein Geschäftsmann interessiert sich für kommerzielle Informationen usw. (Insbesondere ein Informatiker ist an Informationen zum Arbeiten mit Daten interessiert).

Semiotik – Wissenschaft der Information

Informationen sind ohne deren Empfang, Verarbeitung, Übermittlung etc., also außerhalb des Rahmens des Informationsaustauschs, nicht vorstellbar. Alle Informationsaustauschvorgänge erfolgen über Symbole oder Zeichen, mit deren Hilfe ein System ein anderes beeinflusst. Daher ist die Hauptwissenschaft, die Informationen untersucht, die Semiotik – die Wissenschaft von Zeichen und Zeichensystemen in Natur und Gesellschaft (Zeichentheorie). In jedem Akt des Informationsaustauschs kann man drei „Teilnehmer“ finden, drei Elemente: ein Zeichen, ein Objekt, das es bezeichnet, und einen Empfänger (Benutzer) des Zeichens.

Abhängig von den Beziehungen zwischen den betrachteten Elementen wird die Semiotik in drei Abschnitte unterteilt: Syntaktik, Semantik und Pragmatik. Die Syntaktik untersucht Zeichen und die Beziehungen zwischen ihnen. Gleichzeitig abstrahiert es vom Inhalt des Zeichens und seiner praktischen Bedeutung für den Empfänger. Die Semantik untersucht die Beziehung zwischen Zeichen und den von ihnen bezeichneten Objekten und abstrahiert dabei vom Empfänger der Zeichen und deren Wert: für ihn. Es ist klar, dass das Studium der Muster der semantischen Darstellung von Objekten in Zeichen unmöglich ist, ohne die allgemeinen Konstruktionsmuster aller von der Syntaktik untersuchten Zeichensysteme zu berücksichtigen und zu verwenden. Die Pragmatik untersucht die Beziehung zwischen Zeichen und ihren Benutzern. Im Rahmen der Pragmatik werden alle Faktoren untersucht, die einen Akt des Informationsaustauschs von einem anderen unterscheiden, alle Fragen nach den praktischen Ergebnissen der Informationsnutzung und ihrem Wert für den Empfänger.

Dabei sind zwangsläufig viele Aspekte der Beziehungen der Zeichen untereinander und zu den von ihnen bezeichneten Objekten betroffen. Somit entsprechen die drei Abschnitte der Semiotik drei Ebenen der Abstraktion (Ablenkung) von den Merkmalen spezifischer Akte des Informationsaustauschs. Das Studium der Informationen in ihrer ganzen Vielfalt entspricht der pragmatischen Ebene. Indem wir den Informationsempfänger ablenken, ihn von der Betrachtung ausschließen, gehen wir dazu über, sie auf der semantischen Ebene zu untersuchen. Mit der Abstraktion vom Zeicheninhalt wird die Informationsanalyse auf die Ebene der Syntaktik übertragen. Diese mit unterschiedlichen Abstraktionsebenen verbundene Durchdringung der Hauptabschnitte der Semiotik lässt sich anhand des Diagramms „Drei Abschnitte der Semiotik und ihre Wechselbeziehung“ darstellen. Die Messung von Informationen erfolgt dementsprechend in drei Aspekten: syntaktisch, semantisch und pragmatisch. Der Bedarf an so unterschiedlichen Informationsdimensionen wird, wie weiter unten gezeigt wird, durch die Designpraxis und vorgegeben Firmen Betrieb von Informationssystemen. Betrachten wir eine typische Produktionssituation.

Am Ende der Schicht erstellt der Standortplaner die Produktionsplandaten. Diese Daten gelangen in das Informations- und Rechenzentrum (ICC) des Unternehmens, werden dort verarbeitet und in Form von Berichten über den aktuellen Produktionsstand an die Führungskräfte ausgegeben. Basierend auf den erhaltenen Daten entscheidet der Werkstattleiter, den Produktionsplan auf den nächsten geplanten zu ändern oder andere organisatorische Maßnahmen zu ergreifen. Offensichtlich hängt die Menge der in der Zusammenfassung enthaltenen Informationen für den Filialleiter von der Größe der wirtschaftlichen Auswirkungen ab, die sich aus ihrer Verwendung bei der Entscheidungsfindung ergeben, und davon, wie nützlich die erhaltenen Informationen waren. Für den Standortplaner wird die Menge der in derselben Nachricht enthaltenen Informationen durch die Genauigkeit ihrer Übereinstimmung mit dem tatsächlichen Stand der Dinge auf der Website und den Grad der Überraschung der gemeldeten Fakten bestimmt. Je unerwarteter sie auftreten, desto früher müssen Sie sie dem Management melden, desto mehr Informationen enthält diese Nachricht. Für ICC-Mitarbeiter sind die Anzahl der Zeichen, die Länge der Nachricht, Informationen transportieren, da es die Ladezeit von Computergeräten und Kommunikationskanälen bestimmt. Gleichzeitig interessieren sie sich praktisch weder für den Nutzen von Informationen noch für das quantitative Maß des semantischen Wertes von Informationen.

Natürlich verwenden wir bei der Organisation eines Produktionsmanagementsystems und der Erstellung von Entscheidungsauswahlmodellen die Nützlichkeit von Informationen als Maß für die Aussagekraft von Nachrichten. Beim Aufbau eines Systems Buchhaltung und Berichterstattung, die Hinweise auf den Fortschritt des Produktionsprozesses gibt, sollte das Maß für die Informationsmenge als die Neuheit der erhaltenen Informationen angesehen werden. Unternehmen Die gleichen Verfahren zur mechanischen Verarbeitung von Informationen erfordern die Messung des Nachrichtenvolumens in Form der Anzahl der verarbeiteten Zeichen. Diese drei grundlegend unterschiedlichen Ansätze zur Messung von Informationen sind weder widersprüchlich noch schließen sie sich gegenseitig aus. Im Gegenteil, durch die Messung von Informationen auf verschiedenen Skalen ermöglichen sie eine vollständigere und umfassendere Bewertung des Informationsgehalts jeder Nachricht und organisieren ein Produktionsmanagementsystem effektiver. Nach dem treffenden Ausdruck von Prof. NICHT. Kobrinsky, wenn es um ein rationales Unternehmen des Informationsflusses geht, sind Quantität, Neuheit und Nützlichkeit von Informationen ebenso miteinander verbunden wie Quantität, Qualität und Kosten der Produkte in der Produktion.

Informationen in der materiellen Welt

Information ist eines der allgemeinen Konzepte, die mit Materie verbunden sind. Informationen existieren in jedem materiellen Objekt in Form verschiedener seiner Zustände und werden im Prozess ihrer Interaktion von Objekt zu Objekt übertragen. Die Existenz von Information als objektive Eigenschaft der Materie folgt logisch aus den bekannten Grundeigenschaften der Materie – Struktur, kontinuierliche Veränderung (Bewegung) und Interaktion materieller Objekte.

Die Struktur der Materie manifestiert sich als innere Zerstückelung der Integrität, als natürliche Ordnung der Verbindung der Elemente innerhalb des Ganzen. Mit anderen Worten, jedes materielle Objekt, vom subatomaren Teilchen des Meta-Universums (Urknall) als Ganzes, ist ein System miteinander verbundener Subsysteme. Durch kontinuierliche Bewegung, im weitesten Sinne als Bewegung im Raum und Entwicklung in der Zeit verstanden, verändern materielle Objekte ihren Zustand. Der Zustand von Objekten ändert sich auch bei Interaktionen mit anderen Objekten. Die Zustandsmenge eines materiellen Systems und aller seiner Subsysteme stellt Informationen über das System dar.

Streng genommen ist die Menge an objektiver Information in jedem materiellen Objekt aufgrund der Unsicherheit, der Unendlichkeit und der Struktureigenschaften unendlich. Diese Informationen werden als vollständig bezeichnet. Es ist jedoch möglich, Strukturebenen mit endlichen Zustandsmengen zu unterscheiden. Informationen, die auf einer strukturellen Ebene mit einer endlichen Anzahl von Zuständen vorliegen, werden als privat bezeichnet. Für private Informationen ist der Begriff der Informationsmenge sinnvoll.

Aus der obigen Darstellung ist es logisch und einfach, eine Maßeinheit für die Informationsmenge auszuwählen. Stellen wir uns ein System vor, das sich nur in zwei gleichwahrscheinlichen Zuständen befinden kann. Weisen wir einem von ihnen den Code „1“ und dem anderen „0“ zu. Dies ist die Mindestmenge an Informationen, die das System enthalten kann. Es ist eine Maßeinheit für Informationen und wird Bit genannt. Es gibt andere, schwieriger zu definierende Methoden und Einheiten zur Messung der Informationsmenge.

Abhängig von der materiellen Form des Mediums gibt es zwei Haupttypen von Informationen – analog und diskret. Analoge Informationen ändern sich im Laufe der Zeit kontinuierlich und nehmen Werte aus einem Wertekontinuum an. Diskrete Informationen ändern sich zu bestimmten Zeitpunkten und nehmen Werte aus einem bestimmten Wertesatz an. Jedes materielle Objekt oder jeder Prozess ist die primäre Informationsquelle. Alle möglichen Zustände bilden den Informationsquellcode. Der Momentanwert von Zuständen wird als Symbol („Buchstabe“) dieses Codes dargestellt. Damit Informationen als Empfänger von einem Objekt an ein anderes übertragen werden können, ist es notwendig, dass es eine Art materielles Zwischenmedium gibt, das mit der Quelle interagiert. Solche Träger in der Natur sind in der Regel sich schnell ausbreitende Prozesse der Wellenstruktur – kosmische Strahlung, Gamma- und Röntgenstrahlung, elektromagnetische Wellen und Schallwellen, Potentiale (und möglicherweise noch nicht entdeckte Wellen) des Gravitationsfeldes. Bei der Interaktion elektromagnetische Strahlung Bei einem Objekt ändert sich durch Absorption oder Reflexion sein Spektrum, d.h. die Intensitäten einiger Wellenlängen ändern sich. Auch die Harmonischen von Schallschwingungen verändern sich bei der Interaktion mit Objekten. Auch die Informationsübertragung erfolgt durch mechanische Wechselwirkung, allerdings führt mechanische Wechselwirkung in der Regel zu großen Veränderungen in der Struktur von Objekten (bis hin zu deren Zerstörung) und die Informationen werden stark verfälscht. Eine Verfälschung von Informationen während ihrer Übermittlung wird als Desinformation bezeichnet.

Die Übertragung von Quellinformationen auf die Struktur des Mediums wird als Kodierung bezeichnet. Dabei wird der Quellcode in den Trägercode umgewandelt. Das Medium, auf das der Quellcode in Form eines Trägercodes übertragen wird, wird als Signal bezeichnet. Der Signalempfänger verfügt über einen eigenen Satz möglicher Zustände, der als Empfängercode bezeichnet wird. Ein Signal, das mit einem empfangenden Objekt interagiert, ändert seinen Zustand. Der Vorgang der Umwandlung eines Signalcodes in einen Empfängercode wird als Decodierung bezeichnet. Die Übertragung von Informationen von einer Quelle zu einem Empfänger kann als Informationsinteraktion betrachtet werden. Informationsinteraktion unterscheidet sich grundlegend von anderen Interaktionen. Bei allen anderen Wechselwirkungen materieller Objekte findet ein Austausch von Materie und (oder) Energie statt. In diesem Fall verliert eines der Objekte Materie oder Energie und das andere gewinnt sie. Diese Eigenschaft von Wechselwirkungen wird Symmetrie genannt. Bei der Informationsinteraktion erhält der Empfänger Informationen, die Quelle verliert sie jedoch nicht. Die Informationsinteraktion ist asymmetrisch. Objektive Informationen selbst sind nicht materiell, sie sind eine Eigenschaft der Materie, wie Struktur, Bewegung, und existieren auf materiellen Medien in Form ihrer eigenen Codes.

Informationen zur Tierwelt

Die Tierwelt ist komplex und vielfältig. Die darin enthaltenen Informationsquellen und -empfänger sind lebende Organismen und ihre Zellen. Ein Organismus verfügt über eine Reihe von Eigenschaften, die ihn von unbelebten materiellen Objekten unterscheiden.

Basic:

Kontinuierlicher Austausch von Materie, Energie und Informationen mit der Umwelt;

Reizbarkeit, die Fähigkeit des Körpers, Informationen über Veränderungen in der Umwelt und der inneren Umgebung des Körpers wahrzunehmen und zu verarbeiten;

Erregbarkeit, die Fähigkeit, auf Reize zu reagieren;

Selbstorganisation, die sich als Veränderungen des Körpers zur Anpassung an Umweltbedingungen manifestiert.

Ein Organismus, als System betrachtet, hat eine hierarchische Struktur. Diese Struktur im Verhältnis zum Organismus selbst ist in innere Ebenen unterteilt: molekulare, zelluläre, Organebene und schließlich der Organismus selbst. Der Organismus interagiert jedoch auch mit übergeordneten lebenden Systemen, deren Ebenen Bevölkerung, Ökosystem und die gesamte lebende Natur als Ganzes (Biosphäre) sind. Zwischen all diesen Ebenen zirkulieren nicht nur Materie- und Energieflüsse, sondern auch Informationen. Informationsinteraktionen finden in der belebten Natur auf die gleiche Weise statt wie in der unbelebten Natur. Gleichzeitig hat die belebte Natur im Laufe der Evolution vielfältige Quellen, Träger und Empfänger von Informationen geschaffen.

Die Reaktion auf die Einflüsse der Außenwelt manifestiert sich in allen Organismen, da sie durch Reizbarkeit verursacht wird. Bei höheren Organismen ist die Anpassung an die äußere Umwelt eine komplexe Aktivität, die nur dann wirksam ist, wenn ausreichend vollständige und aktuelle Informationen über die Umwelt vorliegen. Empfänger von Informationen aus der äußeren Umgebung sind ihre Sinnesorgane, zu denen Sehen, Hören, Riechen, Schmecken, Tasten und der Vestibularapparat gehören. In der inneren Struktur von Organismen gibt es zahlreiche innere Rezeptoren, die mit dem Nervensystem verbunden sind. Das Nervensystem besteht aus Neuronen, deren Prozesse (Axone und Dendriten) analog zu Informationsübertragungskanälen sind. Die wichtigsten Organe, die bei Wirbeltieren Informationen speichern und verarbeiten, sind das Rückenmark und das Gehirn. Entsprechend den Eigenschaften der Sinne können die vom Körper wahrgenommenen Informationen in visuelle, auditive, geschmackliche, olfaktorische und taktile Informationen eingeteilt werden.

Wenn das Signal die Netzhaut des menschlichen Auges erreicht, regt es die Zellen, aus denen es besteht, auf besondere Weise an. Nervenimpulse von Zellen werden über Axone an das Gehirn weitergeleitet. Das Gehirn erinnert sich an diese Empfindung in Form einer bestimmten Kombination von Zuständen seiner konstituierenden Neuronen. (Das Beispiel wird im Abschnitt „Informationen in der menschlichen Gesellschaft“ fortgesetzt). Durch die Ansammlung von Informationen erstellt das Gehirn anhand seiner Struktur ein vernetztes Informationsmodell der umgebenden Welt. In der belebten Natur ist die Verfügbarkeit von Informationen ein wichtiges Merkmal eines Organismus, der Informationen empfängt. Die Informationsmenge, die das menschliche Nervensystem beim Lesen von Texten an das Gehirn senden kann, beträgt etwa 1 Bit pro 1/16 s.

Informationen sind

Das Studium von Organismen wird durch ihre Komplexität erschwert. Die Abstraktion der Struktur als mathematische Menge, die für unbelebte Objekte akzeptabel ist, ist für einen lebenden Organismus kaum akzeptabel, denn um ein mehr oder weniger adäquates abstraktes Modell eines Organismus zu erstellen, ist es notwendig, alle Hierarchien zu berücksichtigen Ebenen seiner Struktur. Daher ist es schwierig, ein Maß für die Informationsmenge einzuführen. Es ist sehr schwierig, die Verbindungen zwischen den Komponenten der Struktur zu bestimmen. Wenn bekannt ist, welches Organ die Informationsquelle ist, was ist dann das Signal und was ist der Empfänger?

Vor dem Aufkommen von Computern verwendete die Biologie, die sich mit der Erforschung lebender Organismen befasst, nur qualitative, d. h. beschreibende Modelle. In einem qualitativen Modell ist es nahezu unmöglich, Informationszusammenhänge zwischen den Komponenten der Struktur zu berücksichtigen. Die elektronische Computertechnologie hat es ermöglicht, neue Methoden in der biologischen Forschung anzuwenden, insbesondere die Methode der maschinellen Modellierung, die eine mathematische Beschreibung bekannter Phänomene und Prozesse im Körper beinhaltet und ihnen Hypothesen über einige unbekannte Prozesse und Berechnungen hinzufügt Möglichkeiten Verhalten des Organismus. Die resultierenden Optionen werden mit dem tatsächlichen Verhalten des Organismus verglichen, was es ermöglicht, die Wahrheit oder Falschheit der aufgestellten Hypothesen festzustellen. Solche Modelle können auch die Informationsinteraktion berücksichtigen. Die Informationsprozesse, die die Existenz des Lebens selbst sicherstellen, sind äußerst komplex. Und obwohl intuitiv klar ist, dass diese Eigenschaft in direktem Zusammenhang mit der Bildung, Speicherung und Übertragung vollständiger Informationen über die Struktur des Organismus steht, schien eine abstrakte Beschreibung dieses Phänomens lange Zeit unmöglich. Die Informationsprozesse, die die Existenz dieser Eigenschaft sicherstellen, wurden jedoch teilweise durch die Entschlüsselung des genetischen Codes und das Lesen der Genome verschiedener Organismen aufgedeckt.

Informationen in der menschlichen Gesellschaft

Die Entwicklung der Materie im Bewegungsprozess zielt darauf ab, die Struktur materieller Objekte zu komplizieren. Eine der komplexesten Strukturen ist das menschliche Gehirn. Bisher ist dies die einzige uns bekannte Struktur, die eine Eigenschaft besitzt, die der Mensch selbst Bewusstsein nennt. Wenn wir von Informationen sprechen, meinen wir als denkende Wesen a priori, dass Informationen neben ihrer Präsenz in Form von Signalen, die wir empfangen, auch eine Bedeutung haben. Indem ein Mensch in seinem Kopf ein Modell der umgebenden Welt als einen miteinander verbundenen Satz von Modellen seiner Objekte und Prozesse bildet, verwendet er semantische Konzepte anstelle von Informationen. Bedeutung ist die Essenz jedes Phänomens, das nicht mit sich selbst zusammenfällt und es mit dem breiteren Kontext der Realität verbindet. Das Wort selbst weist direkt darauf hin, dass der semantische Inhalt von Informationen nur von denkenden Informationsempfängern gebildet werden kann. In der menschlichen Gesellschaft ist nicht die Information selbst von entscheidender Bedeutung, sondern ihr semantischer Inhalt.

Beispiel (Fortsetzung). Nachdem eine Person ein solches Gefühl erlebt hat, ordnet sie dem Objekt den Begriff „Tomate“ und seinem Zustand den Begriff „rote Farbe“ zu. Darüber hinaus fixiert sein Bewusstsein die Verbindung: „Tomate“ – „rot“. Dies ist die Bedeutung des empfangenen Signals. (Beispiel weiter unten in diesem Abschnitt). Die Fähigkeit des Gehirns, sinnvolle Konzepte und Verbindungen zwischen ihnen herzustellen, ist die Grundlage des Bewusstseins. Bewusstsein kann als ein sich selbst entwickelndes semantisches Modell der umgebenden Welt betrachtet werden. Bedeutung ist keine Information. Informationen existieren nur auf einem materiellen Medium. Das menschliche Bewusstsein gilt als immateriell. Bedeutung existiert im menschlichen Geist in Form von Wörtern, Bildern und Empfindungen. Eine Person kann Wörter nicht nur laut aussprechen, sondern auch „für sich selbst“. Er kann auch Bilder und Empfindungen „in seinem eigenen Kopf“ erzeugen (oder sich daran erinnern). Er kann jedoch Informationen, die dieser Bedeutung entsprechen, durch Sprechen oder Schreiben von Wörtern abrufen.

Informationen sind

Beispiel (Fortsetzung). Wenn die Wörter „Tomate“ und „rot“ die Bedeutung der Konzepte sind, wo sind dann die Informationen? Informationen sind im Gehirn in Form bestimmter Zustände seiner Neuronen enthalten. Es ist auch in gedruckten Texten enthalten, die aus diesen Wörtern bestehen und wenn Buchstaben dreistellig kodiert sind Binärcode seine Menge beträgt 120 Bit. Wenn Sie die Wörter laut aussprechen, erhalten Sie viel mehr Informationen, die Bedeutung bleibt jedoch dieselbe. Das visuelle Bild trägt die größte Menge an Informationen. Dies spiegelt sich sogar in der Folklore wider: „Es ist besser, einmal zu sehen, als hundertmal zu hören.“ Die auf diese Weise wiederhergestellten Informationen werden semantische Informationen genannt, da sie die Bedeutung einiger Primärinformationen (Semantik) kodieren. Nachdem eine Person einen Satz gehört (oder gesehen) hat, der in einer Sprache gesprochen (oder geschrieben) wurde, die sie nicht beherrscht, erhält sie Informationen, kann jedoch deren Bedeutung nicht bestimmen. Um den semantischen Inhalt von Informationen zu übertragen, sind daher einige Vereinbarungen zwischen der Quelle und dem Empfänger über den semantischen Inhalt der Signale notwendig, d. h. Wörter Solch Vereinbarungen kann durch Kommunikation erreicht werden. Kommunikation ist eine der wichtigsten Voraussetzungen für die Existenz der menschlichen Gesellschaft.

IN moderne Welt Informationen sind eine der wichtigsten Ressourcen und zugleich eine der treibenden Kräfte in der Entwicklung der menschlichen Gesellschaft. Informationsprozesse in der materiellen Welt, der belebten Natur und der menschlichen Gesellschaft werden von allen wissenschaftlichen Disziplinen von der Philosophie bis zum Marketing untersucht (oder zumindest berücksichtigt). Die zunehmende Komplexität wissenschaftlicher Forschungsprobleme hat dazu geführt, dass große Teams von Wissenschaftlern unterschiedlicher Fachrichtungen für deren Lösung herangezogen werden müssen. Daher sind fast alle der im Folgenden diskutierten Theorien interdisziplinär. Historisch gesehen befassen sich zwei komplexe Zweige der Wissenschaft – Kybernetik und Informatik – mit der Erforschung von Informationen selbst.

Die moderne Kybernetik ist multidisziplinär Industrie Wissenschaft, die hochkomplexe Systeme untersucht, wie zum Beispiel:

Menschliche Gesellschaft (soziale Kybernetik);

Wirtschaftswissenschaften (Wirtschaftskybernetik);

Lebender Organismus (biologische Kybernetik);

Das menschliche Gehirn und seine Funktion ist Bewusstsein (künstliche Intelligenz).

Die Informatik, die Mitte des letzten Jahrhunderts als Wissenschaft entstand, trennte sich von der Kybernetik und beschäftigt sich mit der Forschung auf dem Gebiet der Methoden zur Gewinnung, Speicherung, Übertragung und Verarbeitung semantischer Informationen. Beide Industrie Verwenden Sie mehrere zugrunde liegende wissenschaftliche Theorien. Dazu gehören die Informationstheorie und ihre Abschnitte – Codierungstheorie, Algorithmentheorie und Automatentheorie. Die Erforschung des semantischen Inhalts von Informationen basiert auf einer Reihe wissenschaftlicher Theorien unter dem allgemeinen Namen Semiotik. Die Informationstheorie ist eine komplexe, hauptsächlich mathematische Theorie, die eine Beschreibung und Bewertung von Methoden zum Abrufen, Übertragen, Speichern und Klassifizieren von Informationen umfasst. Betrachtet Informationsmedien als Elemente einer abstrakten (mathematischen) Menge und Interaktionen zwischen Medien als eine Möglichkeit, Elemente in dieser Menge anzuordnen. Dieser Ansatz ermöglicht es, den Informationscode formal zu beschreiben, also einen abstrakten Code zu definieren und ihn mit mathematischen Methoden zu untersuchen. Für diese Studien nutzt er Methoden der Wahrscheinlichkeitstheorie, der mathematischen Statistik, der linearen Algebra, der Spieltheorie und anderer mathematischer Theorien.

Den Grundstein für diese Theorie legte 1928 der amerikanische Wissenschaftler E. Hartley, der das Maß der Informationsmenge für bestimmte Kommunikationsprobleme bestimmte. Später wurde die Theorie maßgeblich von dem amerikanischen Wissenschaftler K. Shannon, den russischen Wissenschaftlern A.N. Kolmogorov, V. M. Glushkov und andere. Die moderne Informationstheorie umfasst Abschnitte wie Codierungstheorie, Algorithmentheorie, Theorie digitaler Automaten (siehe unten) und einige andere. Es gibt auch alternative Informationstheorien, zum Beispiel die von den Polen vorgeschlagene „Qualitative Informationstheorie“. Wissenschaftler M. Mazur. Jeder Mensch kennt das Konzept eines Algorithmus, ohne es überhaupt zu wissen. Hier ist ein Beispiel für einen informellen Algorithmus: „Schneiden Sie die Tomaten in Kreise oder Scheiben. Geben Sie gehackte Zwiebeln hinein, gießen Sie Pflanzenöl hinein, bestreuen Sie es mit fein gehackter Paprika und rühren Sie um. Vor dem Essen mit Salz bestreuen, in eine Salatschüssel geben und mit Petersilie garnieren.“ (Tomatensalat).

Die ersten Regeln zur Lösung arithmetischer Probleme in der Geschichte der Menschheit wurden im 9. Jahrhundert n. Chr. von einem der berühmtesten Wissenschaftler der Antike, Al-Khorezmi, entwickelt. Ihm zu Ehren werden formalisierte Regeln zur Erreichung eines beliebigen Ziels als Algorithmen bezeichnet. Gegenstand der Algorithmentheorie ist die Suche nach Methoden zur Konstruktion und Bewertung wirksamer (auch universeller) Rechen- und Steuerungsalgorithmen für die Informationsverarbeitung. Zur Untermauerung solcher Methoden nutzt die Algorithmentheorie den mathematischen Apparat der Informationstheorie. Das moderne wissenschaftliche Konzept von Algorithmen als Methoden der Informationsverarbeitung wurde in den 20er Jahren des 20. Jahrhunderts in den Werken von E. Post und A. Turing eingeführt (Turing Maschine). Die russischen Wissenschaftler A. Markov (Markovs Normalalgorithmus) und A. Kolmogorov leisteten einen großen Beitrag zur Entwicklung der Algorithmentheorie. Die Automatentheorie ist ein Zweig der theoretischen Kybernetik, der mathematische Modelle tatsächlich existierender oder grundsätzlich möglicher Geräte untersucht, die diskrete Informationen verarbeiten zu diskreten Zeitpunkten.

Das Konzept eines Automaten entstand in der Algorithmentheorie. Wenn es universelle Algorithmen zur Lösung von Rechenproblemen gibt, dann muss es auch Geräte (wenn auch abstrakte) zur Implementierung solcher Algorithmen geben. Tatsächlich ist eine abstrakte Turingmaschine, betrachtet in der Algorithmentheorie, zugleich ein informell definierter Automat. Die theoretische Begründung für die Konstruktion solcher Geräte ist Gegenstand der Automatentheorie. Die Automatentheorie nutzt den Apparat mathematischer Theorien – Algebra, mathematische Logik, kombinatorische Analyse, Graphentheorie, Wahrscheinlichkeitstheorie usw. Automatentheorie zusammen mit der Theorie der Algorithmen , stellt die wichtigste theoretische Grundlage für die Entwicklung elektronischer Computer und automatisierter Steuerungssysteme dar. Semiotik ist ein Komplex wissenschaftlicher Theorien, die die Eigenschaften von Zeichensystemen untersuchen. Die bedeutendsten Ergebnisse wurden im Bereich der Semiotik – der Semantik – erzielt. Gegenstand der Semantikforschung ist der semantische Inhalt von Informationen.

Unter einem Zeichensystem versteht man ein System konkreter oder abstrakter Objekte (Zeichen, Wörter), mit denen jeweils auf eine bestimmte Weise eine bestimmte Bedeutung verbunden ist. Theoretisch ist erwiesen, dass es zwei solcher Vergleiche geben kann. Die erste Art der Entsprechung bestimmt direkt das materielle Objekt, das dieses Wort bezeichnet, und wird Denotation (oder in einigen Werken Nominierung) genannt. Die zweite Art der Entsprechung bestimmt die Bedeutung eines Zeichens (Wortes) und wird als Konzept bezeichnet. Gleichzeitig werden Eigenschaften von Vergleichen wie „Bedeutung“, „Wahrheit“, „Definierbarkeit“, „Folgen“, „Interpretation“ usw. untersucht. Für die Forschung wird der Apparat der mathematischen Logik und der mathematischen Linguistik verwendet. Ideen der Semantik, skizziert von G. V. Leibniz und F. de Saussure im 19. Jahrhundert, formuliert und entwickelt von C. Pierce (1839-1914), C. Morris (geb. 1901), R. Carnap (1891-1970) usw. Die Die wichtigste Errungenschaft der Theorie ist die Schaffung eines semantischen Analysegeräts, das es ermöglicht, die Bedeutung eines Textes in einer natürlichen Sprache in Form einer Aufzeichnung in einer formalisierten semantischen (semantischen) Sprache darzustellen. Die semantische Analyse ist die Grundlage für die Erstellung von Geräten (Programme) zur maschinellen Übersetzung von einer natürlichen Sprache in eine andere.

Informationen werden gespeichert, indem sie auf einige physische Medien übertragen werden. Auf einem materiellen Speichermedium aufgezeichnete semantische Informationen werden als Dokument bezeichnet. Die Menschheit hat schon vor sehr langer Zeit gelernt, Informationen zu speichern. Die ältesten Formen der Informationsspeicherung nutzten die Anordnung von Objekten – Muscheln und Steine ​​im Sand, Knoten an einem Seil. Eine bedeutende Weiterentwicklung dieser Methoden war das Schreiben – die grafische Darstellung von Symbolen auf Stein, Ton, Papyrus und Papier. Von großer Bedeutung für die Entwicklung dieser Richtung war Erfindung Buchdruck. Im Laufe ihrer Geschichte hat die Menschheit eine riesige Menge an Informationen in Bibliotheken, Archiven, Zeitschriften und anderen schriftlichen Dokumenten angesammelt.

Besondere Bedeutung erlangt derzeit die Speicherung von Informationen in Form von Folgen binärer Zeichen. Um diese Methoden umzusetzen, werden verschiedene Speichergeräte verwendet. Sie sind das zentrale Bindeglied von Informationsspeichersystemen. Darüber hinaus nutzen solche Systeme Mittel zur Informationssuche (Suchmaschine), Mittel zur Informationsbeschaffung (Informations- und Referenzsysteme) und Mittel zur Informationsdarstellung (Ausgabegerät). Solche Informationssysteme sind je nach Informationszweck aufgebaut und bilden Datenbanken, Datenbanken und eine Wissensdatenbank.

Die Übertragung semantischer Informationen ist der Prozess ihrer räumlichen Übertragung von der Quelle zum Empfänger (Adressaten). Der Mensch hat schon früher gelernt, Informationen zu übermitteln und zu empfangen, als sie zu speichern. Sprache ist eine Übertragungsmethode, die unsere entfernten Vorfahren im direkten Kontakt (Gespräch) nutzten – wir nutzen sie auch heute noch. Um Informationen über große Entfernungen zu übertragen, müssen wesentlich komplexere Informationsprozesse eingesetzt werden. Um einen solchen Prozess durchzuführen, müssen Informationen auf irgendeine Weise formatiert (präsentiert) werden. Zur Darstellung von Informationen werden verschiedene Zeichensysteme verwendet – Sätze vorgegebener semantischer Symbole: Objekte, Bilder, geschriebene oder gedruckte Wörter natürlicher Sprache. Semantische Informationen über jedes Objekt, Phänomen oder jeden Prozess, die mit ihrer Hilfe präsentiert werden, werden als Nachricht bezeichnet.

Um eine Nachricht über eine Distanz zu übertragen, müssen die Informationen natürlich auf ein mobiles Medium übertragen werden. Träger können sich mit im Weltraum bewegen Fahrzeug, wie es bei Briefen der Fall ist, die per Post verschickt werden. Diese Methode gewährleistet eine vollständige Zuverlässigkeit der Informationsübertragung, da der Adressat die ursprüngliche Nachricht erhält, die Übertragung jedoch viel Zeit in Anspruch nimmt. Seit der Mitte des 19. Jahrhunderts haben sich Methoden der Informationsübertragung mithilfe eines sich natürlich ausbreitenden Informationsträgers – elektromagnetischer Schwingungen (elektrische Schwingungen, Radiowellen, Licht) – durchgesetzt. Die Implementierung dieser Methoden erfordert:

Vorläufige Übertragung der in einer Nachricht enthaltenen Informationen an ein Medium – Verschlüsselung;

Sicherstellung der Übermittlung des so empfangenen Signals an den Empfänger über einen speziellen Kommunikationskanal;

Rückumwandlung des Signalcodes in einen Nachrichtencode – Dekodierung.

Informationen sind

Durch den Einsatz elektromagnetischer Medien erfolgt die Übermittlung einer Nachricht an den Adressaten nahezu augenblicklich, erfordert jedoch zusätzliche Maßnahmen zur Sicherstellung der Qualität (Zuverlässigkeit und Genauigkeit) der übertragenen Informationen, da reale Kommunikationskanäle natürlichen und künstlichen Störungen unterliegen. Geräte, die den Datenübertragungsprozess umsetzen, bilden Kommunikationssysteme. Je nach Art der Informationsvermittlung lassen sich Kommunikationssysteme in Zeichen- (, Telefax), Ton- (), Video- und kombinierte Systeme (Fernsehen) unterteilen. Das am weitesten entwickelte Kommunikationssystem unserer Zeit ist das Internet.

Datenverarbeitung

Da Informationen nicht materiell sind, erfordert ihre Verarbeitung verschiedene Transformationen. Zu den Verarbeitungsprozessen zählt jede Übertragung von Informationen von einem Medium auf ein anderes Medium. Informationen, die zur Verarbeitung bestimmt sind, werden als Daten bezeichnet. Die Hauptverarbeitungsart der von verschiedenen Geräten empfangenen Primärinformationen ist die Umwandlung in eine Form, die deren Wahrnehmung durch die menschlichen Sinne gewährleistet. So werden mit Röntgenstrahlen gewonnene Weltraumfotos mithilfe spezieller Spektrumkonverter und Fotomaterialien in gewöhnliche Farbfotos umgewandelt. Nachtsichtgeräte wandeln das mit Infrarotstrahlen (Wärmestrahlen) gewonnene Bild in ein Bild im sichtbaren Bereich um. Für einige Kommunikations- und Steuerungsaufgaben ist die Umwandlung analoger Informationen erforderlich. Zu diesem Zweck werden Analog-Digital- und Digital-Analog-Signalwandler verwendet.

Die wichtigste Art der Verarbeitung semantischer Informationen ist die Bestimmung der Bedeutung (des Inhalts) einer bestimmten Nachricht. Im Gegensatz zu primären semantischen Informationen verfügt es nicht über diese statistisch Merkmale, also ein quantitatives Maß – entweder gibt es eine Bedeutung oder nicht. Und wie viel es ist, wenn überhaupt, lässt sich nicht feststellen. Die in der Nachricht enthaltene Bedeutung wird in einer künstlichen Sprache beschrieben, die die semantischen Verbindungen zwischen den Wörtern des Quelltextes widerspiegelt. Ein Wörterbuch einer solchen Sprache, Thesaurus genannt, befindet sich im Nachrichtenempfänger. Die Bedeutung von Wörtern und Phrasen in einer Nachricht wird bestimmt, indem man sie bestimmten Gruppen von Wörtern oder Phrasen zuordnet, deren Bedeutung bereits festgelegt ist. Der Thesaurus ermöglicht es Ihnen somit, die Bedeutung der Nachricht zu ermitteln und wird gleichzeitig mit neuen semantischen Konzepten ergänzt. Die beschriebene Art der Informationsverarbeitung wird in Information-Retrieval-Systemen und maschinellen Übersetzungssystemen eingesetzt.

Eine der am weitesten verbreiteten Arten der Informationsverarbeitung ist die Lösung von Rechenproblemen und Problemen der automatischen Steuerung mithilfe von Computern. Die Informationsverarbeitung erfolgt immer zu einem bestimmten Zweck. Um dies zu erreichen, muss die Reihenfolge der Aktionen auf der Grundlage von Informationen bekannt sein, die zu einem bestimmten Ziel führen. Dieses Verfahren wird als Algorithmus bezeichnet. Zusätzlich zum Algorithmus selbst benötigen Sie auch ein Gerät, das diesen Algorithmus implementiert. In wissenschaftlichen Theorien wird ein solches Gerät als Automat bezeichnet. Es ist zu beachten, dass das wichtigste Merkmal von Informationen die Tatsache ist, dass aufgrund der Asymmetrie der Informationsinteraktion bei der Informationsverarbeitung neue Informationen entstehen, die ursprünglichen Informationen jedoch nicht verloren gehen.

Analoge und digitale Informationen

Schall sind Wellenschwingungen in jedem Medium, beispielsweise in der Luft. Wenn ein Mensch spricht, werden die Schwingungen der Halsbänder in Wellenschwingungen der Luft umgewandelt. Wenn wir Schall nicht als Welle, sondern als Schwingungen an einem Punkt betrachten, dann können diese Schwingungen als sich im Laufe der Zeit ändernder Luftdruck dargestellt werden. Mithilfe eines Mikrofons können Druckänderungen erfasst und in elektrische Spannung umgewandelt werden. Luftdruck wird in elektrische Spannungsschwankungen umgewandelt.

Eine solche Transformation kann nach verschiedenen Gesetzen erfolgen, am häufigsten erfolgt die Transformation nach einem linearen Gesetz. Zum Beispiel so:

U(t)=K(P(t)-P_0),

Dabei ist U(t) die elektrische Spannung, P(t) der Luftdruck, P_0 der durchschnittliche Luftdruck und K der Umrechnungsfaktor.

Sowohl die elektrische Spannung als auch der Luftdruck sind über die Zeit kontinuierliche Funktionen. Die Funktionen U(t) und P(t) geben Auskunft über die Schwingungen der Halsbänder. Diese Funktionen sind kontinuierlich und solche Informationen werden als analog bezeichnet. Musik ist ein Sonderfall von Klang und kann auch als eine Art Zeitfunktion dargestellt werden. Es wird sein analoge Darstellung Musik. Aber auch Musik wird in Form von Notizen niedergeschrieben. Jede Note hat eine Dauer, die ein Vielfaches einer vorgegebenen Dauer ist, und eine Tonhöhe (do, re, mi, fa, salt usw.). Werden diese Daten in Zahlen umgewandelt, erhalten wir eine digitale Darstellung der Musik.

Auch die menschliche Sprache ist ein Sonderfall des Klangs. Es kann auch in analoger Form dargestellt werden. Aber so wie Musik in Noten zerlegt werden kann, kann Sprache in Buchstaben zerlegt werden. Wenn jedem Buchstaben ein eigener Zahlensatz zugewiesen wird, erhalten wir eine digitale Darstellung der Sprache. Der Unterschied zwischen analogen und digitalen Informationen besteht darin, dass analoge Informationen kontinuierlich sind, während digitale Informationen diskret sind. Die Umwandlung von Informationen von einem Typ in einen anderen wird je nach Art der Transformation unterschiedlich bezeichnet: einfach „Umwandlung“, etwa Digital-Analog-Umwandlung oder Analog-Digital-Umwandlung; komplexe Transformationen werden als „Kodierung“ bezeichnet, zum Beispiel Delta-Kodierung, Entropie-Kodierung; Die Umwandlung zwischen Eigenschaften wie Amplitude, Frequenz oder Phase nennt man „Modulation“, zum Beispiel Amplituden-Frequenz-Modulation, Pulsweitenmodulation.

Informationen sind

Normalerweise sind analoge Konvertierungen recht einfach und leicht zu handhaben. verschiedene Geräte vom Menschen erfunden. Ein Tonbandgerät wandelt Magnetisierung auf Film in Ton um, ein Diktiergerät wandelt Ton in Magnetisierung auf Film um, eine Videokamera wandelt Licht in Magnetisierung auf Film um, ein Oszilloskop wandelt elektrische Spannung oder Strom in ein Bild um usw. Die Umwandlung analoger Informationen in digitale ist viel schwieriger. Manche Transformationen kann die Maschine nicht durchführen oder gelingt nur mit großen Schwierigkeiten. Zum Beispiel die Umwandlung von Sprache in Text oder die Umwandlung einer Konzertaufzeichnung in Noten und sogar eine inhärent digitale Darstellung: Text auf Papier lässt sich für eine Maschine nur sehr schwer in denselben Text im Computerspeicher umwandeln.

Informationen sind

Warum dann die digitale Darstellung von Informationen nutzen, wenn diese so komplex sind? Der Hauptvorteil digitaler Informationen gegenüber analogen Informationen ist die Störfestigkeit. Das heißt, beim Kopieren von Informationen werden digitale Informationen so kopiert, wie sie sind, sie können fast unendlich oft kopiert werden, während analoge Informationen während des Kopiervorgangs verrauscht werden und sich ihre Qualität verschlechtert. Normalerweise können analoge Informationen nicht mehr als dreimal kopiert werden. Wenn Sie einen Audiorecorder mit zwei Kassetten haben, können Sie das folgende Experiment durchführen: Versuchen Sie, denselben Song mehrmals von Kassette zu Kassette neu zu schreiben; nach nur wenigen solchen Neuaufnahmen Sie werden feststellen, wie sehr sich die Aufnahmequalität verschlechtert hat. Die Informationen auf der Kassette werden in analoger Form gespeichert. Sie können Musik beliebig oft im MP3-Format umschreiben, ohne dass sich die Qualität der Musik verschlechtert. Die Informationen einer MP3-Datei werden digital gespeichert.

Menge an Informationen

Eine Person oder ein anderer Informationsempfänger löst, nachdem er eine Information erhalten hat, eine gewisse Unsicherheit auf. Nehmen wir als Beispiel den gleichen Baum. Als wir den Baum sahen, lösten wir eine Reihe von Unsicherheiten. Wir erfuhren die Höhe des Baumes, die Baumart, die Dichte des Laubes, die Farbe der Blätter und, wenn es ein Obstbaum war, sahen wir die Früchte darauf, wie reif sie waren usw. Bevor wir den Baum betrachteten, wussten wir das alles nicht, nachdem wir den Baum betrachteten, lösten wir die Unsicherheit – wir erhielten Informationen.

Wenn wir auf eine Wiese gehen und sie uns ansehen, erhalten wir eine andere Art von Information, wie groß die Wiese ist, wie hoch das Gras ist und welche Farbe das Gras hat. Wenn ein Biologe auf dieselbe Wiese geht, kann er unter anderem herausfinden: Welche Grasarten wachsen auf der Wiese, um welche Art von Wiese es sich handelt, er wird sehen, welche Blumen geblüht haben, welche kurz vor der Blüte, ob die Wiese zum Weiden von Kühen geeignet ist usw. Das heißt, er wird mehr Informationen erhalten als wir, da er mehr Fragen hatte, bevor er die Wiese betrachtete, wird der Biologe mehr Unsicherheiten klären.

Informationen sind

Je mehr Unsicherheit im Prozess der Informationsbeschaffung beseitigt wurde, desto mehr Informationen erhielten wir. Dies ist jedoch ein subjektives Maß für die Informationsmenge, und wir hätten gerne ein objektives Maß. Es gibt eine Formel zur Berechnung der Informationsmenge. Wir haben eine gewisse Unsicherheit, und wir haben N Fälle der Lösung der Unsicherheit, und jeder Fall hat eine bestimmte Wahrscheinlichkeit der Lösung. Dann kann die Menge der empfangenen Informationen mithilfe der folgenden Formel berechnet werden, die Shannon uns vorgeschlagen hat:

I = -(p_1 log_(2)p_1 + p_2 log_(2)p_2 +... +p_N log_(2)p_N), wobei

I – Informationsmenge;

N – Anzahl der Ergebnisse;

p_1, p_2,..., p_N sind die Wahrscheinlichkeiten des Ergebnisses.

Informationen sind

Die Informationsmenge wird in Bits gemessen – kurz für englische Wörter BInary digiT, was Binärziffer bedeutet.

Für gleichwahrscheinliche Ereignisse lässt sich die Formel vereinfachen:

I = log_(2)N, wobei

I – Informationsmenge;

N ist die Anzahl der Ergebnisse.

Nehmen wir zum Beispiel eine Münze und werfen sie auf den Tisch. Es wird entweder Kopf oder Zahl landen. Wir haben zwei gleich wahrscheinliche Ereignisse. Nachdem wir die Münze geworfen hatten, erhielten wir log_(2)2=1 Bit an Informationen.

Versuchen wir herauszufinden, wie viele Informationen wir erhalten, nachdem wir gewürfelt haben. Der Würfel hat sechs Seiten – sechs gleichwahrscheinliche Ereignisse. Wir erhalten: log_(2)6 ca. 2,6. Nachdem wir den Würfel auf den Tisch geworfen hatten, erhielten wir ungefähr 2,6 Bits an Informationen.

Die Wahrscheinlichkeit, dass wir beim Verlassen des Hauses einen Marsdinosaurier sehen, liegt bei eins zu zehn Milliarden. Wie viele Informationen werden wir über den Marsdinosaurier erhalten, wenn wir unser Zuhause verlassen?

Left(((1 über (10^(10))) log_2(1 über (10^(10))) + left(( 1 - (1 über (10^(10)))) ight) log_2 left(( 1 - (1 über (10^(10))) ight)) ight) ca. 3,4 cdot 10^(-9) Bits.

Nehmen wir an, wir haben 8 Münzen geworfen. Wir haben 2^8 Münzwurfoptionen. Das bedeutet, dass wir nach dem Werfen von Münzen log_2(2^8)=8 Bits an Informationen erhalten.

Wenn wir eine Frage stellen und mit gleicher Wahrscheinlichkeit eine „Ja“- oder „Nein“-Antwort erhalten, erhalten wir nach der Beantwortung der Frage eine Information.

Es ist erstaunlich, dass wir eine unendliche Menge an Informationen erhalten, wenn wir Shannons Formel auf analoge Informationen anwenden. Zum Beispiel die Spannung an einem Punkt Stromkreis kann einen gleichwahrscheinlichen Wert von null bis ein Volt annehmen. Die Anzahl der Ergebnisse, die wir haben, ist gleich unendlich, und wenn wir diesen Wert in die Formel für gleichwahrscheinliche Ereignisse einsetzen, erhalten wir unendlich – eine unendliche Menge an Informationen.

Jetzt zeige ich Ihnen, wie Sie „Krieg und Frieden“ mit nur einer Markierung auf einem beliebigen Metallstab kodieren. Lassen Sie uns alle Buchstaben und Zeichen kodieren, die in „ Krieg und Frieden“ mit zweistelligen Zahlen – das sollte uns genügen. Beispielsweise geben wir dem Buchstaben „A“ den Code „00“, dem Buchstaben „B“ den Code „01“ usw. Wir kodieren Satzzeichen, lateinische Buchstaben und Zahlen. Lasst uns neu kodieren“ Krieg und die Welt“ mit diesem Code und erhalten Sie eine lange Zahl, zum Beispiel 70123856383901874..., fügen Sie vor dieser Zahl ein Komma und eine Null hinzu (0,70123856383901874...). Das Ergebnis ist eine Zahl von null bis eins. Lasst uns Risiko auf einem Metallstab, so dass das Verhältnis der linken Seite des Stabes zur Länge dieses Stabes genau unserer Zahl entspricht. Wenn wir also plötzlich „Krieg und Frieden“ lesen wollen, messen wir einfach die linke Seite der Stange ab Risiken und die Länge des gesamten Stabes, dividieren Sie eine Zahl durch eine andere, erhalten Sie eine Zahl und kodieren Sie sie wieder in Buchstaben („00“ in „A“, „01“ in „B“ usw.).

Informationen sind

In der Realität wird uns das nicht gelingen, da wir die Längen nicht mit unendlicher Genauigkeit bestimmen können. Einige technische Probleme hindern uns daran, die Genauigkeit von Messungen zu erhöhen, und die Quantenphysik zeigt uns, dass Quantengesetze uns ab einer bestimmten Grenze bereits stören. Intuitiv verstehen wir, dass je geringer die Messgenauigkeit ist, desto weniger Informationen erhalten wir, und je größer die Messgenauigkeit, desto mehr Informationen erhalten wir. Shannons Formel eignet sich nicht zur Messung der analogen Informationsmenge, es gibt jedoch andere Methoden hierfür, die in der Informationstheorie besprochen werden. IN Computertechnologie Das Bit entspricht dem physikalischen Zustand des Informationsträgers: magnetisiert – nicht magnetisiert, es gibt ein Loch – kein Loch, geladen – nicht geladen, reflektiert Licht – reflektiert kein Licht, hohes elektrisches Potenzial – niedriges elektrisches Potenzial. In diesem Fall wird ein Zustand normalerweise mit der Zahl 0 und der andere mit der Zahl 1 bezeichnet. Jede Information kann mit einer Folge von Bits kodiert werden: Text, Bild, Ton usw.

Zusammen mit einem Bit wird oft ein Wert namens Byte verwendet; dieser entspricht normalerweise 8 Bits. Und wenn ein Bit es Ihnen ermöglicht, eine gleich wahrscheinliche Option aus zwei möglichen auszuwählen, dann ist ein Byte 1 von 256 (2^8). Um die Informationsmenge zu messen, werden üblicherweise auch größere Einheiten verwendet:

1 KB (ein Kilobyte) 210 Byte = 1024 Byte

1 MB (ein Megabyte) 210 KB = 1024 KB

1 GB (ein Gigabyte) 210 MB = 1024 MB

Eigentlich sollten die SI-Präfixe Kilo-, Mega-, Giga- für die Faktoren 10^3, 10^6 bzw. 10^9 verwendet werden, aber in der Vergangenheit gab es die Praxis, Faktoren mit Zweierpotenzen zu verwenden.

Ein Shannon-Bit und ein in der Computertechnologie verwendetes Bit sind gleich, wenn die Wahrscheinlichkeiten, dass in einem Computerbit eine Null oder eine Eins auftritt, gleich sind. Wenn die Wahrscheinlichkeiten nicht gleich sind, wird die Informationsmenge nach Shannon geringer, das haben wir am Beispiel des Marsdinosauriers gesehen. Die Computerinformationsmenge liefert eine obere Schätzung der Informationsmenge. Ein flüchtiger Speicher wird nach dem Anlegen von Strom normalerweise mit einem Wert initialisiert, beispielsweise nur Einsen oder nur Nullen. Es ist klar, dass nach dem Anlegen von Strom an den Speicher dort keine Informationen vorhanden sind, da die Werte in den Speicherzellen streng definiert sind und keine Unsicherheit besteht. Der Speicher kann eine bestimmte Menge an Informationen speichern, aber nachdem er mit Strom versorgt wird, enthält er keine Informationen mehr.

Unter Desinformation versteht man die gezielte Weitergabe falscher Informationen an einen Feind oder Geschäftspartner zur effektiveren Durchführung militärischer Operationen, zur Zusammenarbeit, zur Überprüfung auf Informationslecks und der Richtung des Informationslecks sowie zur Identifizierung potenzieller Kunden des Schwarzmarkts. Auch Desinformation (auch Falschinformation) ist ein Prozess der Manipulation von Informationen selbst, wie zum Beispiel: Irreführung einer Person durch Bereitstellung unvollständiger oder vollständiger Informationen, aber nicht mehr notwendige Informationen, Verzerrung des Kontexts, Verzerrung eines Teils der Informationen.

Das Ziel einer solchen Einflussnahme ist immer das gleiche – der Gegner muss so handeln, wie es der Manipulator braucht. Die Handlung des Ziels, gegen das sich die Desinformation richtet, kann darin bestehen, eine Entscheidung zu treffen, die der Manipulator benötigt, oder sich zu weigern, eine Entscheidung zu treffen, die für den Manipulator ungünstig ist. Aber in jedem Fall ist das Endziel die Aktion, die der Gegner ausführen wird.

Desinformation ist also Produkt menschliche Aktivität, ein Versuch, einen falschen Eindruck zu erwecken und dementsprechend zu den gewünschten Handlungen und/oder Unterlassungen zu drängen.

Informationen sind

Arten von Desinformation:

Irreführung einer bestimmten Person oder Personengruppe (einschließlich einer ganzen Nation);

Manipulation (die Handlungen einer Person oder Personengruppe);

Öffentliche Meinung zu einem Problem oder Objekt schaffen.

Informationen sind

Eine Falschdarstellung ist nichts anderes als eine völlige Täuschung, die Bereitstellung falscher Informationen. Manipulation ist eine Einflussmethode, die direkt darauf abzielt, die Richtung der Aktivitäten von Menschen zu ändern. Es werden folgende Manipulationsebenen unterschieden:

Stärkung der Werte (Ideen, Einstellungen), die in den Köpfen der Menschen vorhanden sind und für den Manipulator von Vorteil sind;

Teilweise Änderung der Ansichten zu einem bestimmten Ereignis oder Umstand;

Eine radikale Änderung der Lebenseinstellungen.

Die Schaffung einer öffentlichen Meinung ist die Bildung einer bestimmten Haltung gegenüber einem gewählten Problem in der Gesellschaft.

Quellen und Links

ru.wikipedia.org – freie Enzyklopädie Wikipedia

youtube.com – YouTube-Video-Hosting

images.yandex.ua - Yandex-Bilder

google.com.ua – Google-Bilder

ru.wikibooks.org – Wikibooks

inf1.info - Planeteninformatik

old.russ.ru – Russisches Magazin

shkolo.ru - Informationsverzeichnis

5byte.ru - Informatik-Website

ssti.ru - Informationstechnologien

klgtu.ru - Informatik

informatika.sch880.ru - Website des Informatiklehrers O.V. Podvintseva

Enzyklopädie der Kulturwissenschaften

Das Grundkonzept der Kybernetik ist in gleicher Weise ökonomisches I. das Grundkonzept der Wirtschaftskybernetik. Es gibt viele Definitionen dieses Begriffs, sie sind komplex und widersprüchlich. Der Grund dafür liegt offensichtlich darin, dass ich mich mit dem Phänomen beschäftige... ... Wirtschaftsmathematisches Wörterbuch


Für die optimale Darstellung unserer Website verwenden wir Cookies. Durch die weitere Nutzung dieser Website erklären Sie sich damit einverstanden. OK



Freunden erzählen