IT-Academy Logo
Sign Up Login Help
Home - Netzwerke - Protokolle - Netzwerk - Geschichte



Netzwerk - Geschichte

In diesem Artikel wird die gesamte Geschichte von Netzwerken und dem Internet aufgerollt. Abgerundet wird das Ganze durch die Beschreibung von diversen Internetgremien sowie einem Überblick über RFC's und dem ISO-OSI-Modell.


Autor: Oliver Bacun (Baol)
Datum: 26-01-2003, 23:07:24
Referenzen: keine
Schwierigkeit: Fortgeschrittene
Ansichten: 25339x
Rating: 4.5 (2x bewertet)

Hinweis:

Für den hier dargestellte Inhalt ist nicht der Betreiber der Plattform, sondern der jeweilige Autor verantwortlich.
Falls Sie Missbrauch vermuten, bitten wir Sie, uns unter missbrauch@it-academy.cc zu kontaktieren.

[Druckansicht] [Als E-Mail senden] [Kommentar verfassen]



Einleitung
Vor ungefähr 30 Jahren begann das amerikanische Verteidigungsministerium darüber nachzudenken, wie nach einer militärischen Auseinandersetzung, z. B. nach einem Atomkrieg, die Kommunikation aufrecht zu erhalten sei. Daraus entwickelte sich 1969 das erste Computer-Netzwerk, genannt ARPANET (Advanced Research Projects Agency-NET), das vier Computer miteinander verband. Die Idee dahinter: Wenn einer der Knoten beschädigt oder zerstört würde, sollte der verbleibende Teil des Netzes voll funktionstüchtig bleiben. 1972 wurde das ARPANET öffentlich präsentiert, und viele Universitäten und Forschungsinstitute erkannten die Möglichkeiten dieses Netzwerkes und schlossen sich in den folgenden Jahren an.

Der Kommunikationsstandard, auf dem das ARPANET ursprünglich basierte, hieß NCP (Network Control Protocol), doch die technische Entwicklung ging rasch voran und so wurde NCP von einem neuen, besseren Protokoll namens TCP/IP abgelöst. TCP (Transmission Transfer Protocol) zerlegt Nachrichten in einzelne Datenpakete und baut diese am Bestimmungsort wieder zusammen. IP (Internet Protocol) ist zuständig für die Adressierung und schickt die einzelnen Datenpakete über verschieden Knoten und selbst über verschiedene Netzwerke an ihren Bestimmungsort. Der entscheidende Vorteil von TCP/IP ist, dass dieses Protokoll von jedem Rechner "verstanden" werden kann und die Kommunikation zwischen verschieden Netzen ermöglicht und so den Grundstein für unser heutiges Internet legte.

Ab Mitte 1977 verbanden sich immer mehr Netzwerke mittels TCP/IP mit ARPANET und schließlich trennte sich 1983 der militärische Teil ab und bildete mit MILNET ein eigenes Netzwerk. TCP/IP verbreitete sich rasch und viele lokale Netzwerke schlossen sich an. Nun verwendete man für dieses, auf TCP/IP basierende Netz der Netze den Namen "Internet".

Heute besteht das Internet aus ca. 5 Millionen Rechnern weltweit, die die verschiedenen Möglichkeiten dieses Netzes, wie das World Wide Web, nutzen. Die Zuwachsraten sind enorm, allein in Österreich haben derzeit (Juli 1997) 150.000 Haushalte Zugang zum Internet, dies entspricht fast einer Verdoppelung seit Herbst 1996. Mehr als eine Million Österreicher haben grundsätzlich Zugang, davon ist für 300.000 Österreicher das Internet ein täglich gebrauchtes Werkzeug geworden (Quelle: Integral AIM, 2. Quartal 1997).

Die Entwicklung geht stetig voran, das Netz bietet uns immer mehr Möglichkeiten. Von der einstigen Textorientierung ist man schon weit entfernt, schnellere Datenleitungen und neue Software erlauben technisch immer anspruchsvollere Anwendungen. So wird das Netz der Netze in absehbarer Zeit als selbstverständliches Werkzeug aus unserem täglichen Leben nicht mehr wegzudenken sein.

ARPANET - Die Anfänge
Ende der 60er Jahre begann die ARPA (inzwischen DARPA = Defense Advanced Research Projects Agency) Forschung im Netzwerkbereich finanziell zu unterstützen. Es sollte ein katastrophensicheres, US-weites Computernetz entstehen, in dem Wissenschaftler und Militärs Nachrichten und Daten austauschen konnten. Daraus entstand 1969 das ARPANET mit vier Hosts und einer damals neuen Technologie, dem `` packet switching''. Seither ist dieses Netz auf mehrere hundert Hosts in aller Welt gewachsen. Es folgten MILNET und MINET, die im militärischen Bereich verwendet werden und (bei Einhaltung von strengen Sicherheitsvorschriften) mit dem ARPANET verbunden sind, sowie SATNET und WIDENET, zwei Satellitennetzwerke.

ARPANET - Konzeption
Es sollte ein Rechnerverbund geschaffen werden, der auch bei Teilausfällen (z.B. militärische Zerstörung) in der Lage ist, verlässliche Kommunikation zwischen einzelnen Standorten zu ermöglichen.

Zunächst wurde die Kommunikation zwischen den wichtigen militärischen und wissenschaftlichen Einrichtungen sowie Datenverbindungen zu bedeutenden Behörden des Machtapparates angestrebt; allerdings standen damals lediglich Leitunen zu Verfügung, die eine Übertragungsgeschwindigkeit von maximal 2400 bit/s, also theoretisch 300 Zeichen pro Sekunde, ermöglichten. Man begann mit der Installation von vier Knotenrechnern: University of Utah, Stanford Research Institute, University of Santa Barbara und University of Los Angeles.

Ein erstes Host-to-Host Protokoll wurde entwickelt, um logische Verbindungen zwischen den einzelnen Rechnern und Routern aufzubauen. Diese Protokoll wurde "Network Control Program" (NCPI) genannt. Die Ur-Version von TELNET und FTP entstand. Auf einer internationalen Konferenz wurde das ARPANET erst im Jahre 1972 der Öffentlichkeit vorgestellt. Dieses paketvermittelnde (paket-switching) Netzwerk bestand damals aus 20 Knotenrechnern bzw. Routern und 50 Hosts.

Vier wichtige konzeptionelle Ziele wurden fortan verfolgt:
  • Zusammenspiel heterogener Netzkomponenten
  • Optimale Sicherheit bei End-to-End-Verbindungen
  • Optimierte Fehlertoleranz bei Leitungsstörungen
  • Unabhängigkeiten vom Übertragungsmedium
Nachdem 1975 der experimentelle Status überwunden war, übernahm die Defence Communications Agency (DCA) die Projektsteuerung. Sie sorgte für die Überführung in ein lauffähiges Produktionssystem.

Ab etwa 1978 begann man mit der Entwicklung von TCP/IP als einer Fortentwicklung des NCP. 1981 erhielt TCP/IP im RFC 793 Standard-Charakter. Im Jahre 1983 wurde das ARPANET vollends auf TCP/IP umgestellt.

Weitere Entwicklung und Trennung
Erst nachdem das ARPANET in seiner Entwicklung nahezu abgeschlossen war, begann die "International Organiziation for Stanardization (ISO)" ihrerseits, sich mit Netzwerken und ihrer Standardisierung zu beschäfftigen. TCP/IP hatte sich aber längst als "De-facto"-Standard etabliert, auch über die Landesgrenzen hinaus.

Unter Federführung der US-Regierung wurde nun festgelegt, welches Betriebssystem zukünftig zum Einsatz kommen sollte. Sie entschied sich schließlich für das "Berkeley UNIX (BSD, Berkeley Software Distribution) und gegen die AT&T - Version, da unerläßliche Anwendungen wie TELNET oder FTP bereits enthalten waren.

Unabhängig vom ARPANET entwickelte sich ein primär wissenschaftlich orientiertes Netz mit rasanten Zuwachsraten, das CSnet. Die Leitung übernahm die National Science Foundation (NSF). Die Vernetzung über TCP/IP-Gateway führte 1982 schließlich zu einem gemeinsamen Rechnerverbund, dem INTERNET.

1983 spaltete sich der militärische Teil des ARPANET ab, hatte jedoch als MILNET für die weiter Entwicklung keine Bedeutung mehr und verschwand in den folgenden Jahren von der "Netzfläche". Parallel zum ARPANET entwickelte sich ein weiterer gigantischer Netzverbund aus zahlreichen Rechnern. Er nannte sich Natinal Science Foundation Network (NSFnet) und musste bald in zwei separate geographische Sektionen aufgeteilt werden (Ost-West). Das ARPANET wurde letzlich 1990 aufgelöst.

NSFnet (das Wissenschaftsnetz)
NSFnet wurde von der National Science Foundation als Netzwerk zwischen Forschungs- und Wissenschafts-Zentren gebildet und bestand, gleich zu Beginn, bereits aus schnellen 56 kbit/s -Leitungen. Diese stellten die Verbindung zwischen den NSF-"Supercomputer-Zentren" - als eine Art Backbone - und den kleineren Netzwerken dar. Diese Netzwerke umfassten in der Regel etwa zehn Universitäten in Punkt-zu-Punkt Connections. Ein Netzübergang zwischen ARPANET und NSFnet wurde eingerichtet. Schon bald übernahm die NSF-Netzstruktur die Hauplast im INTERNET-Verbund.

Csnet (Low cost net)
Csnet (Computer Science Network) wurde ebenfalls von der NSF ins Leben gerufen, um kleineren Schulbehörden, der Industrie und der öffentlichen Verwaltung eine preiswerte Netz-Alternative anzubieten. Diese Absicht wurde primär durch zwei Komponenten erreicht:

X25NET:
Verwendung der CCITT X.25-Technologie über paktetvermittelnde Netzwerke zum Transport des Internet-Protokolls. Nutzung bereits vorhandener Übergänge zwischen diesen öffentlichen Netzen und dem ARPANET.

Wahlverfahren:
Als Übertragungstechnik werden Minicomputer eingesetzt, die in regelmäßigen Wähl-Intervallen über das Telefonnetz vom Sender bzw. zum Empfänger Daten (als elektronische Post) übernehmen bzw. liefern. Diese CSnet-Rechner fungieren gewissermaßen als SMTP-Gateway zum INTERNET.

MILNET (Militärnetz)
Im Jahre 1983 wurde ein Teil des ARPANET zum militärisch orientierten MILNET abgetrennt. Dieses neu geschaffene Netzwerk war Plattform zur Umsetzung militärischer Projekte. Mit dieser Maßnahme wollte man hauptsächlich dem erhöhten Sicherheitsbedürfnis des Militärs Rechnung tragen. Die Förderung des ARPANET und des MILNET erfolgte weiterhin durch das US-Verteidigungsministeriums.

TCP/IP - Lebenslauf
Untenstehende Tabelle zeigt, wie sich TCP/IP und UNIX parallel entwickelt haben:



Entwicklung zum Internet
Das INTERNET ist kein Begriff, der ein ganz bestimmtes, an Umfang und geografischer Lage klar definierbares Netzwerk bezeichnet. Es ist vielmehr die Gesamtheit alles bisher beschriebenen Netzwerke und Netzwerkstrukturen, die zu einem globalen, weltumspannenden Informationssystem zusammengewachsen sind.

Internet (Entstehung des Rechnerverbundes)
Im Grunde genommen stellte sich das Netzwerkprotokoll TCP/IP als eine Art Geburtshelfer für den INTERNET-Netzverbund dar; denn erst 1983, nachdem das damalige im ARPANET implementierte Netzwerkprotokoll NCP durch TCP/IP ersetzt wurde, sprach man vermehrt vom Begriff INTERNET. Er avancierte in der Tat innerhalb der nächsten Jahre zu einem Synonym für Diskussionsforum, Plattform für elektronische Post, Informationsdatenbank oder auch Beschaffungsort für Software. Der immer mehr anwachsende Teilnehmerkreis im INTERNET führte schließlich zu wichtigen Überlegungen in Bezug auf die Kontrolle und Weiterentwicklung der aktuellen Kommunikation. Man schuf die erforderlichen Institute und Gremien, die für nun anfallende Aufgaben in diesem Umfeld verantwortlich zeichnen sollte.


Abbildung 1-1 (Bildung des Internet)

Internet (Gremien)
Da es keine zentrale Organisation gibt, die grundsätzlich alle Belange des INTERNET wahrnimmt, ist im Laufe der Zeit eine Hand voll Gremien entstanden, die nunmehr seit Anfang der 90er Jahre verschiedene Aufgaben übernehmen. Auch wenn diese Aufgaben oft von mehreren Gremien gemeinsam bearbeitet werden, soll hier versucht werden, die wichtigsten Gremien näher zu beschreiben:

Internet Architecture Board (IAB):
Das IAB übernahm zunächst 1983 als Internet Activities Board Aufgaben zur Realisierung einer übergreifenden Internet-Architektur, bevor es dann zu Beginn der 90er Jahre zum Internet-Architecture-Board umgenannt wurde. Verwaltung und Steuerung der "Requests For Comments" (RFC) sowei ihre Veröffentlichung liegen ebenso in seinem Zuständigkeitsbereich wie die Überwachung der Vergabe von Internet-Adressen. Die Mitglieder des IAB bestehen aus einer Hand voll Spezialisten anderer Gremien, wie beispielsweise der IETF (Internet Engineering Task Force) und der IESF (Internet Engineering Steering Group).

Internet Engineering Task Force (IETF):
In diesem Gremium beschäftigen sich zahlreiche Netzwerk-Designer, Hersteller und Wissenschaftler mit der Entwicklung von Grundlagen für neue Standards und allgemeine Veröffentlichungen für das Internet. Die Entwicklungsarbeit erfolgt in verschiedenen Arbeitsgruppen (applications, internet, operations and management, routing, security, transport, user services) und con sog. "Area Directors" geleitet

Internet Engineering Steering Group (IESG):
Die Mitglieder des IESG bestehen aus den "Area Directors" der Arbeitsgruppen IETF und sind direkt für die Verabschiedung der Internet Standards, der RFC´s, zuständig.

Internet Assigned Numbers Authority (IANA):
Die IANA übernimmt in Zusammenarbeit mit der amerikanischen Regierung die Kontrolle (Verwaltung und Vergabe) über weltweit sämtliche Internet-Adressen und Domänen. Die Tatsächliche Administration erfolgt allerdings durch die "Internet Corporation for Assigned Names und Numbers" (ICANN), eine Non-Profit-Organisation.

Andere Organisationen, wie z.B. das RIPE (Réseaux IP Européen) in Europa und das DENIC (Deutsches Network Information Center) in Deutschland führen diese Aufgaben für die Region ihrer Zuständigkeit mitexplizit zugewiesenen Ressourcen aus.

Liste der genannten Gremien mit deren Internetadressen:
Information Sciences Institute
www.isi.edu
Internet Architecture Board
www.isi.edu/iab
Internet Engineering Task Force
www.ietf.orf
Internet Engineering Steering Group
www.ietf.orf/iesg.html
Internet Assigned Number Authority
www.iana.org
Internet Corporation for Assigned Namens und Numbers
www.icann.org
Réseaux IP Européen
www.ripe.net
Deutsches Network Informatin Center
www.nic.de

RFC - der Request for Comment
Für die Entwicklung und Bewertung von Protokollen im Internet-Umfeld ist der "Request for Comment" (RFC) verantwortlich. Es handelt sich dabei um eine fortlaufende durchnummerierte Dokumentensammlung, die unter Verwaltung des IAB steht und eine Kategorisierung bestehender Protokolle gemäß ihres Entwicklungsstandes und Einsatzgereiches vornimmt.

Es werden protocol state und protokoll status unterschieden. Der Protocol State bezieht sich auf den Entwicklungsstand eines Protokolls innerhalb seines Standardisierungsprozesses. Der Protocol Status hingegen nimmt eine Bewertung hinsichtlich des Protokoll-Einsatzes bzw. seiner Vewendung vor.

Ein Protokoll wird daher sowohl durch einen Protocol State als auch durch einen Protocol Stauts charakterisiert.

Der Protocol State hat foglende Merkmale:
  • Experimental:
    Die Entwicklung des Protokolls befindet sich im Anfangsstadium. Es sollte von eingesetzten Systemen nicht vewndet werden, es sei denn, diese sind am Entwicklungsprozess des Protokolls beteiligt.
  • Proposed Standard:
    Das Protokoll ist dem IAB bereits für den Standardisierungsprozess vorgelegt worden. Ausreichende Testphasen und Inmplementationen müssen angestrebt werden.
  • Draft Standard:
    Das Protokoll steht kurz vor seiner Erhebung in den FULL-STANDARD-STATE. Es ist bereits umfangreich getestet worden, und es liegen bereits einige Implementationen vor. Änderungen sind in dieser Phase allerdings noch möglich.
  • Standard:
    Das Protokoll ist vom IAB zu einem offiziellen Standard-Protokoll innerhalb des Internet-Umfeldes erklärt worden.
  • Informational:
    Unter diesem state können Protokolle verschiedner Entwickler zusammengestzt werden, die zwar nicht zum Standard-Protokoll avancieren, jedoch Informationen über diese Protokolle für das Intenet-Umfeld relevant sind oder deren Einsatz gar von Vorteil sein könnte.
  • Historic:
    Diese Kategorie stelle quasi ein "Auffangbecken" für diejenigen Protokolle dar, deren technologische Substanz von anderen Entwicklungen bereits überholt wurde. Dies geschieht meist dann, wenn die Entwicklung von Protokollen (aus welchen Gründen auch immer) nicht abgeschlossen werden kann oder diese im Ensatz waren, mittlerweile jedoch völlig veraltet sind.
Der Protokollstatus zeichnet sich durch folgende Eigenschaften aus:
  • Required:
    Ein System ist zur Verwendung des entsprechenden Protokolls verpflichtet, bzw. sein Einsatz ist zum Betrieb unbedingt erforderlich.
  • Recommended:
    Der Einsatz des entsprechenden Protokolls ist zu empfehlen
  • Elective:
    Es besteht die grundsätzliche Möglichkeit, das entsprechende Protokoll einzusetzen.
  • Limited Use:
    Auf Grund seiner besonderen Eigenschaften oder seines Entwicklungsstandes ist der Einsatz des entsprechenden Protokolls nicht zu empfehlen.
Untere Tabelle zeigt einige Beispiele:



Architekturen und Standards - IEEE
Wenn man vom IEEE (sprich "Ai Trippel I"), dem Institute of Electrical and Electonics Engineers spricht, so meint man eigentlich die Projektgruppe 802, zuständig für die Standardisierung im lokalen und geografisch übergreifenden Netzwerkbereich (LAN und WAN).

Ihre zahlreichen Arbeisgruppen haben sich verschiedenen markanten Themen gewidmet,die sich mit Netzwerk-Topologien, - rotokollen oder -Architekturen beschäftigen.

Untenstehende Tabelle zeigt eine Liste der Arbeitsgruppen auf:



Nachdem schon über einige ISO/OSI-Standards geschrieben wurde (IEEE 802.x), sollten nun auch ein paar Daten über die Organisation selbst fließen. Die International Organization for Standardization (ISO) beauftragte Ende der 70 Jahre ein Gremium mit der Entwicklung einer Architektur für "Offene Systeme".

ISO/OSI - Modell
Im Jahre 1984 wurde das "Reference Model for Open System Interconnection" oder kurz OSI-Modell veröffentlicht. Auf einem 7-Schichten-Kommunikationsmodell wurden einzelne Protokoll-Layer und ihre spezifischen Aufgaben und Funktionen definiert, die eine systemübergreifende Kommunikation zwischen (verschiedensten) Systemen ermöglichen sollen. Dabei wurden jeder der sieben Funktionensschichten genau formulierte Aufgaben zugewiesen, die sie im Verlaufe einer Kommunikation zu erfüllen hätte. Die Festschreibung konkreter Netzwerk-Software erfolgte allerdings nicht. Implementierungen innerhalb des Standardisierungsprozesses waren nicht vorgesehen.

Die zu diesem Zeitpunkt schon durch einige Software-Produkte umgesetzte TCP/IP-Architektur, die im übrigendem ISO/OSI-Standard nicht ganz entsprach, hatte sich bereits einigermaßen etabliert.

Der Grundgedanke zu dem Schichtenmodell entwickelte sich aus der Überlegung, dass die zur Kommunikation erforderlichen Prozesse nur sehr schwer in einem einheitlicen Protokoll untergebracht werden können. Es müssen demnach mehrere funktinal unterschiedliche, aber abhängige Protokolle gebildet werden, die im Zusammenspiel untereinander schnelle und vor allem sichere Datenverbindungen ermöglichen sollen. Dabei erhält eine Schicht n kontinuierlich Steuerinformationen von der ihr unterlagerten Schicht n-1, die sie für die Bewältigung der eigenen Aufgaben verarbeiten muss. Sie wird dann allerdings auch ihrerseits Informationen an die überlagerte Schicht n+1 bw. Die unterlagerte Schicht n-1 weitergeben, um einen durchgängigen Informationfluss über alle Kommunikationsschichten hinweg zu gewährleisten.


Abbildung: Layer-Kommunikation

Anmerkung:
Bei einer Rechner-Rechner-Kommunikation werden die Informationen aus der Anwendungsschicht des Rechners A durch die einzelnen Schichten des Referenzmodells bis zur physikalischen Schicht 1 durchgereicht. Dabei fügt jede Schicht Ihre Steuerinformationen vor Weitergabe (im Header) hinzu. Nach der eigentlichen Übertragung auf dem physikalischen Medium erfolgt die Übernahme bei Rechner B in der untersten Schicht. Hier erfolgt der Informationsfluss vertikal in umgekehrter Reihenfolge, bis die Daten in der Anwendugsschicht des Rechners B angekommen sind. Die einzelnen Schichten entfernen vor Weitergabe an die nächsthöhere Schicht ihre Steuerinformationen, so dass letztlich die Zieldaten in Rechner B den Ursprungsdaten in Rechner A genau entsrechen.


Abbildung: ISO/OSI 7-Schichten Referenzmodell

Den einzelnen Layern sind folgende Bedeutungen zugeordnet:
Layer 1 - Physikalische Schicht:
Die unterste, die Bitübertragungsschicht, ist für die Herstellung einer physikalischen Verbindung zwischen zwei Kommunikationsendpunkten (z.B. Programme auf zwei verschiedenen Rechnern A und B) verantwortlich. Die ihr zur Verfügung stehenden Hilfsmittel, wie Kabel, Controller oder Modulierungsverfahren, müssen von ihr kontrolliert werden.
Treten hier Probleme mit der Hardware (z.B. Netzwerk-Controller, Kabel, Anschlussdosen, Relais usw.) auf, so werden diese Störungen an die nächst höhere, die Datensicherungsschicht weitergegeben. Diese Weitergabe erfolgt jedoch ungesichert. In der Regel wird der physikalische Layer u. a. durch die Treibersoftware für die Netzwerk-Hardware repräsentiert.

Layer 2 - Datensicherungsschicht:
In dieser Schicht werden vor allem Sicherungsmechanismen implementiert, die bei fehlerhaften Übertragungen für eine entsprechende Recovery sorgen müssen. Es werden physikalische Verbindungen (Links) aufgebaut, über die zu Blöcke (Frames) zusammengefasste Bitströme transportiert werden. Oft wird diese Schicht nochmals in den unteren MAC-Layer (MAC=Media Access Control) und den oberen LLC-Lyer (LLC=Logical Link Control) unterteilt. Die Adressierbarkeit einer Netzkomponente wird bereits im MAC-Layer in Form einer MAC-Adresse sichergestellt.

Layer 3 - Netzwerk- oder Vermittlungsschicht:
Hier erfolgt die optimale Wegewahl, das Routing. Wenn es für die Erreichbarkeit innerhalb eines Netzwerkes mehrere Alternativen gibt, so müssen Protokolle der Netzwerkschicht dafür sorgen, dass für die letztlichen durchzuführende Datenübertragung eine optimale Route ermittelt werden kann.
Bei Ausfällen ist eine "Umleitung" zu generieren. Der Aufbau und der Abbau von Verbindungen wird initiiert. Die Kommunikation erfolgt an dieser Stelle bereits in Unabhängigkeit vom eingesetzten Übertragungsmedium (mögliches Protokoll: IP).

Layer 4 - Transportschicht:
Diese Schicht gewährleistet die zuverlässige, transparente Datenübertragung zwischen den Endknoten. Es erfolgt ein End-to-End Kontrolle der Daten. Layer 4 übernimmt auch Schnittstellenfunktionen zwischen den übergeordneten anwendungsorientierten Schichten und den unteren netzwerkorientierten Schichten. Mechanismen wie Flusskontrolle und Segmentierung von Frames finden hier statt. Eine Orientierung im Netzwerk ist für den Anwender nun nicht mehr erforderlich, da die verwendeten Protokolle logisch wie physikalisch transparent arbeiten.

Layer 5 - Sitzungs- oder Kommunikationsschicht:
Die Sitzungsschicht koordiniert und synchronisiert die Kommunikation zwischen dedizierten Anwendungsprozessen. Bei Verbindungsunterbrechung (Session interrupt´s) können die stattgefundenen Dialoge durch Synchronisierung meist wiederhergestellt werden. Sogenannte <<Session Recoveries>> ermöglichen u. U. ein Aufsetzen des Dialoges an der Stelle, an der die Unterbrechung einsetzte. Bisher übertragene Daten gehen demnach nicht verloren.

Layer 6 - Daten-Darstellungsschicht:
Hier werden anwendungsspezifische Formatierungen durchgeführt, damit unterschiedliche Systeme die übertragenen Daten einheitlich interpretieren können.

Für die Beschreibung zur Formatierung wurde die Beschreibungssprache <<ASN.1>>
(Abstract Syntax Notation) entwickelt. Als Beispiel mag hier das Netzwerkmanagement über SNMP und MIB-Informationen angeführt werden. Die geeignete Darstellung herstellerspezifischer Produkt-Informationen (z.B. Router) für Monitoring- und Management-Zwecke in MIB-Datenbanken wird über ASN.1 vorgenommen.

Layer 7 - Anwendungsschicht:
Die Anwendungsschicht stellt die eigentliche Schnittstelle zwischen den in zwei Systemen implementierten Anwendungen dar. Hier erfolgt der Einsatz unzähliger Softwareprodukte unter Regie des Benutzers.
Er kann die Anwendungsprogramme wechseln, ohne dabei die Hardware berücksichtigen zu müssen.
Oft werden gerade im Layer 7 mehrere Sub-Layer definiert, im dem unterschiedlichen funktionalen Stellenwert der jeweiligen Anwendung Rechnung zu tragen. Das Betriebssystem Windows 98 und da insbesondere die grafische Oberfläche "Active Desktop" stellt zwar eine Anwendung dar, jedoch wird sie normalerweise lediglich als Plattform für den Betrieb von höheren Anwendungen, wie z.B. einer Textverarbeitungs-Software, eingestuft.


[back to top]



Userdaten
User nicht eingeloggt

Gesamtranking
Werbung
Datenbankstand
Autoren:04508
Artikel:00815
Glossar:04116
News:13565
Userbeiträge:16552
Queueeinträge:06243
News Umfrage
Ihre Anforderungen an ein Online-Zeiterfassungs-Produkt?
Mobile Nutzung möglich (Ipone, Android)
Externe API Schnittstelle/Plugins dritter
Zeiterfassung meiner Mitarbeiter
Exportieren in CSV/XLS
Siehe Kommentar



[Results] | [Archiv] Votes: 1144
Comments: 0