IT-Academy Logo
Sign Up Login Help
Home - Netzwerke - Protokolle - Übertragungs-Protokolle



Übertragungs-Protokolle

Dieser Artikel beschreibt die grundsätzlichen Übertragungsprotokolle im Internet bzw. in Netzwerken. Es werden u.a. Protokolle wie Netbeui, IPS/SPX, IP, http, FTP, TFTP, POP, IMAP, PPP, SMTP und X.25 behandelt.


Autor: Oliver Bacun (Baol)
Datum: 30-01-2003, 10:56:31
Referenzen: Keine
Schwierigkeit: Fortgeschrittene
Ansichten: 11567x
Rating: 9.33 (3x bewertet)

Hinweis:

Für den hier dargestellte Inhalt ist nicht der Betreiber der Plattform, sondern der jeweilige Autor verantwortlich.
Falls Sie Missbrauch vermuten, bitten wir Sie, uns unter missbrauch@it-academy.cc zu kontaktieren.

[Druckansicht] [Als E-Mail senden] [Kommentar verfassen]



Einleitung
Was macht ein Protokoll:
Protokolle regeln den Datenverkehr! Sie sorgen dafür, dass im Netzwerk eine gemeinsame "Sprache gesprochen" wird. Es gibt eine Vielzahl von Protokollen, jedes hat besondere Vorzüge und Nachteile. In einem Netzwerk müssen alle beteiligten Computer das gleiche Protokoll verwenden sonst ist keine Kommunikation möglich. Alle wichtigen Protokolle zur Vernetzung werden bereits mit den Betriebssystemen der Windows-Familie mitgeliefert.

Die wichtigsten Protokolle:
Weit verbreitete Protokolle sind: NetBeui, IPX/SPX, IP, TCP/IP, HTTP, FTP, TFTP, NNTP, POP, PPP, SLIP, SMTP, UUCP, UDP, X.25, Frame-Relay.

NETBEUI
Netbeui steht für "NetBios Extended User Interface". Es ist ein sehr schnelles und effektives Protokoll. Es unterstützt allerdings nur Microsoft-basierte Netzwerke und unterstützt kein Routing. Das Routing ist jedoch nur wichtig wenn Sie mehrere LANs miteinander verbinden möchten oder Anschluss an das Internet benötigen. Es eignet sich durch die unkomplizierte Installation (eine Einrichtung ist nicht notwendig) und seiner Schnelligkeit wegen, hervorragend für den Aufbau eines Peer-to-Peer-Netzes.

IPX/SPX
Auch IPX/SPX ist eine Protokollsammlung und wird überwiegend in Novell-Netzen eingesetzt. Es ist ein relativ kleines und schnelles Protokoll und unterstützt das Routing zur netwerkübergreifenden Kommunikation. In Microsoft-Netzwerken ist sehr selten anzutreffen.

IP
(Das Protokoll für die Datenübertragung im Internet)
Adresskonzept
Es existieren verschiedene Netzwerk-Topologien und entsprechende Netzwerk-Protokolle, die ihre eigene Philosophie entwickelt haben, um eine wechselseitige Kommunikation ihrer Netzteilnehmer zu gewährleisten. Dies gilt für allgemein gültige Standardprotokolle, wie das Internet-Protokoll, aber auch für proprietäre Protokolle, wie das SNA oder DANN. Während das SNA für die Adressierung von Netzwerk-Ressourcen die Physical Units in der Form von Namen (PU- bzw. CP-Namen) oder auch hexadezimalen Byte-Kombinationen (IDNUM, IDBLK) verwendet, so erfolgt im DECnet die Adressierung des DECnet-Notes durch eine dezimale Notation (z.B. 4.5) oder ebenfalls auch Namen. Alle Adress-Schemata müssen jedoch eine Minimalbedingung erfüllen: "Die Adressierung muss eindeutig sein".

Jede Netzwerk-Ressource, sei es ein Personalcomputer, eine Workstation, ein Drucker oder auch ein Mainframe, muss durch eine eindeutige Adresse bzw. durch einen eindeutigen Namen im Netzwerk identifizierbar sein. Wenn diese Grundvorraussetzung nicht gewährleistet ist, so kann eine Kommunikation zwischen zwei Nommunikationspartnern nicht stattfinden. Man denke an eine doppelt vergebene Telefonnummer. Welcher Gesprächsteilnehmer würde sich bei Wahl dieser Telefonnummer melden? Das Chaos wäre perfekt. Für Gesprächsteilnehmer in Orten mit unterschiedlicher Ortskennzeiffer (Vorwahl) gilt dies natürlich nicht. Hier kann es eine gültige Doppelbelegung durchaus geben, da die Eindeutigkeit durch eine stets eindeutige Ortskennziffer wiederum garantiert ist. Dies gilt für jeden möglichen Netzwerk-Typus. Wenn separate Netzwerke mit eigenen (eindeutigen) Adressierungsmechanismen versehen sind (z.B. unterschiedliche Token-Ring- oder Ethernet-Segmente), können Netzteilnehmer in beiden Netzwerken gleiche Namen besitzen. Das dies auch für die Adressierung im IP-Netzwerk gilt, geht aus den nun folgenden Ausführungen hervor.

Adressierungsverfahren
Grundsätzlich ist zunächst einmal die "physikalische" von der "logischen Adressierung" im Netzwerk unterschieden werden. Unter einer "physikalischen Adressierung" versteht man die mit einer Netzwerk-Ressource unverwechselbar verbundene eindeutige Kennung, meist sogar weltweit, die zur Identifikation in einem Netzwerk herangezogen wird. Bei den heute handelsüblichen Netzwerk-Controllern ist eine "Hardware-Adresse" in einem Fest-Baustein hinterlegt, die dort nicht mehr modifiziert werden kann. So werden beispielsweise für Personalcomputer Netzwerk-Adapter (Einschub-Karten) mit "burnt-in-adress" vertrieben, die zwecks Anschluss an ein Token-Ring- oder Ethernet-Netzwerk in die entsprechenden Rechner eingebaut werden können. Workstations oder auch Mainframes werden in gleicher Art und Weise angebunden. Lediglich die Controller sind i.d.R. etwas kostenspieliger. Die "logische Adressierung" ist in erster Linie vom Netzwerkprotokoll und seinen charakteristischen Eigenschaften abhängig. Sie hat zunächst einmal nichts mit der "physikalischen Adresse" zu tun.

Hier liegt es allerdings im Verantwortungsbereich des Netzwerk-Betreibers, für die notwendige Eindeutigkeit der Adresse zu sorgen. Der Netzwerk-Administrator ist nun in der Lage, eine für Ihn bzw. für das Unternehmen sinnvolle Adressstruktur zu entwickeln und dann die jeweils vorgesehene "logische Adresse" der "physikalischen Adresse" überzustülpen. In TCP/IP-Netzwerken ist dies normalerweise die IP-Adresse. In der jetzigen IP-Version 4 besteht diese Adresse aus "vier Oktetts", die in dezimaler, der "dotted notation", formuliert wird (Bsp: 192.168.0.1). Die bereits viel diskutierte und demnächst erwartende "IP-Version 6 (IP next generation)" genannt, wird mit einem erweiterten Adressraum von "16 Oktetts" arbeiten. Ein vernachlässigter Aspekt, insbesondere in der Phase der Netzwerkplanung, ist das System der HOST-Namen und Domänen. Dabei wird der "logische IP-Adresse" zusätzlich ein "fully qualified host name" zugeordnet, der aus einer durch Punkt separierten Folge von Ordnungsnamen besteht. Diese Namen setzten sich i.d.R. aus einer "DNS-Domäne" (Bsp. Firma.at) und einem HOST-Namen (Bsp. Host1) zusammen. Die Adressierung auf diesem Level kann sogar den einzelnen Anwender auf dem System identifizieren: Anwender@host1.firma.at In der Praxis wird dieser Adresstyp meist aus Anwendungen heraus zur Adressierung verwendet. Zusammenfassend lassen sich für die Adressierung in einem TCP/IP-Netzwerk folgende Layer-abhängige Verfahren nennen:
  • physikalische Adressierung (lower data-link-layer)
  • logische IP-Adressierung (network-layer)
  • logische Adressierung über HOST Names und Domänen (network-layer)
In der hier genannten Reihenfolge bedeuten die einzelnen Adressierungsverfahren eine steigende Flexibilität gegenüber Modifikationen im Netzwerk. Der (möglicherweise relativ häufige) Austausch von Netzwerk-Controllern durch Defekt oder Wechsel der Hardware lässt die zugeordnete IP-Adresse davon unberührt. Sie bleibt bestehen, auch wenn sich die Hardware ändert. Werden allerdings Erweiterungen oder Modifikationen in der IP-Netzstruktur notwendig, so ist es möglich, dass dies unter Umständen auch eine Änderung der IP-Adresse nach sich zieht. Der symbolische Name der IP-Adresse oder gar des Anwenders ist davon natürlich nicht betroffen. Die einzige wirklich konstante Adresse wird somit durch User-, HOST- und Domänen-Name repräsentiert.

Adress-Registrierung
Wie bereits erwähnt, lag der Usprung des "Internet-Protokolls" in einem vom amerikanischen Verteidigungsministerium initiirte Netzwerk und bedurfte einer besonderen Kontrollinstanz. Diese Instanz stellt das "Internet-Architecture-Board" (IAB) mit seinen zahlreichen Unterabteilungen und Nebeninstitutionen dar, die für einen reibungslose und sichere Funktion des Internet-Netzwerks bis zum heutigen Tag verantwortlich sind. Dazu gehören unter anderem die Gewährleistung der Eindeutigkeit von IP-Adressen im öffentlichen Datenverkehr. Ein durch die zentrale Registrierungsorganisation IANA (Internet Assigned Numbers Authority) durchzuführendes Verfahren sorgt im Auftrag des IAB für die geforderten Adresskonventionen. Zu Beginn einer Überlegung zum Aubfau eines TCP/IP Netzwerkes sollte daher die Frage stehen: Soll das geplante Netzwerk öffenlich registriert werden, oder ist es lediglich als ein unternehmensinternes IP-Netz auszulegen? Normalerweise wird diese Frage zunächst lapidar beantwortet mit: " In der ersten Phase unseres Designs kommen wir besitmmt mit einem internen Netzwek aus. Eine Öffnung nach außen ist voraussichtlich nicht geplant".

Damit nimmt das Unheil bereits seinen Lauf, denn selbst die sichersten Einschätzungen einer anfänglichen Netzwerkplanung mussten, so hat die Erfahrung gezeigt, in einer späteren Phase wieder revidiert werden. Diese dann anstehnden Umstellungen, die mit einer Anpassung des internen IP-Netzes an die Erfordernisse einer öffentlichen Registrierung beim "Network Information Centre" (NIC) notwendig werden, sind in der Regel nur noch durch einen überaus großen Zeit- und Kosten-Aufwand zu realisieren. Es ist daher erforderlich, bereits in der Anfangsphase der Netzwerkplanung an eine offizielle Registrierung von Domänen und Subnetzen zu denken und die erforderlichen Planungen durchzuführen. Eine Vorab-Registrierung, die vor einigen Jahren noch möglich war, ohne die Anbindung an das Internet vorzunehmen, wird nunmehr vom DENIC (Deutsches Network Infomation Centre) abgelehnt. Zu viele Registrierungen ohne tatsächlichen Nutzen wurden vorgenommen, die dem tatsächlichen Bedarf nicht mehr zur Verfügung gestellt werden konnten. Diese Reservierungen sind heute allerdings weitgehend aufgelöst. Eine Alternative zur völligen Netzöffnung ist der Einsatz eines IP-Gateways, das für eine Adressumsetzung der internen Adressen in registrierte Adressen verantwortlich ist (NAT; Network Adress Translation). Obwohl die Internet-Registrierung in Eigenregie erfolgen kann, ist es jedoch zu empfehlen, den Gesamtprozess inklusive der Netzwerkplanung in Zusammenarbeit mit einem erfahrenen Service-Provider abzuwickeln.

Struktur
Ein "Internet Protocol" ist das Basisprotokoll für die Datenübertragung im Internet. Es regelt den Verbindungsauf- und -abbau sowie die Fehlerkennung. Das bisherige Adressierungsschema des IP stößt seit kurzem jedoch an seine vorläufigen Grenzen. Die bisherigen zulässigen 32-Bit-Werte werden in den nächsten Jahren auf 128-Bit-Werte erhöht. Das neue Protokoll "Ipng" (Internet Protocol next generation), auch "IP-Version 6 genannt", soll das Grundprotokoll, nach und nach ablösen. Der Transport von Informationen im Internet-Protocol (IP) Netzwerken erfolgt in Paketen. Pakete besitzen eine Länge zwischen 46 bis 1500 Byte, wenn sie über Ethernet übertragen werden. Im Internet sind es 576 Byte. Auf ATM-Leitungen nur 64 Byte. Jedes Paket hat einen IP-Header mit 20 Byte Länge. Dieser ist folgendermaßen aufgebaut: Byte 0 Version (4bit) und Länge des Headers (4bit) Byte 1 Service-Typ Byte 2 und 3 Paket-Gesamtlänge Byte 4 und 5 Identifikation Byte 6 und 7 Flags (3bit) und Offset der Daten Byte 8 Lebensdauer (time to live) Byte 9 Protokoll Byte 10 und 11 Header-Prüfsumme Byte 12 bis 15 Quell IP-Adresse Byte 16 bis 19 Ziel IP-Adresse

IP-Adressaufbau und Adressklassen
Eine typische IP-Adresse sieht in Dezimalschreibweise so aus: 149.174.211.5 - vier Zahlen also, getrennt durch Punkte. Die Punkte haben die Aufgabe, über- und untergeordnete Netze anzusprechen. So wie zu einer Telefonnummer im weltweiten Telefonnetz eine Landeskennzahl, eine Ortsnetzkennzahl, eine Teilnehmerrufnummer und manchmal auch noch eine Durchwahlnummer gehört, gibt es auch im Internet eine Vorwahl - die Netzwerknummer, und eine Durchwahl - die Hostnummer. Der erste Teil einer IP-Adresse ist die Netzwerknummer, der zweite Teil die Hostnummer. Wo die Grenze zwischen Netzwerknummer und Hostnummer liegt, bestimmt ein Klassifizierungsschema für Netztypen. Die folgende Tabelle verdeutlicht dieses Schema. In den Spalten für die IP-Adressierung und einem typischen Beispiel ist die Netzwerknummer (der Vorwahlteil) fett dargestellt. Der Rest der IP-Adresse ist die Hostnummer eines Rechners innerhalb dieses Netzes.

Netztyp IP-Adressierung
Klasse-A-Netz xxx
.xxx.xxx.xxx
103
.234.123.87
Klasse-B-Netz xxx.xxx
.xxx.xxx
151.170
.102.15
Klasse-C-Netz xxx.xxx.xxx
.xxx
196.23.155
.113


Die oberste Hierarchiestufe bilden die sogenannten Klasse-A-Netze. Nur die erste Zahl einer IP-Adresse ist darin die Netzwerknummer, alle anderen Zahlen sind Hostnummern innerhalb des Netzwerks. Bei Netzwerknummern solcher Netze sind Zahlen zwischen 1 und 126 möglich, d.h. es kann weltweit nur 126 Klasse-A-Netze geben. Eine IP-Adresse, die zu einem Klasse-A-Netz gehört, ist also daran erkennbar, dass die erste Zahl zwischen 1 und 126 liegt. Das amerikanische Militärnetz ist beispielsweise so ein Klasse-A-Netz. Innerhalb eines Klasse-A-Netzes kann der entsprechende Netzbetreiber die zweite, dritte und vierte Zahl der einzelnen IP-Adressen seiner Netzteilnehmer frei vergeben. Da alle drei Zahlen Werte von 0 bis 255 haben können, kann ein Klasse-A-Netzbetreiber also bis zu 16,7 Millionen IP-Adressen an Host-Rechner innerhalb seines Netzes vergeben.

Die zweithöchste Hierarchiestufe sind die Klasse-B-Netze. Die Netzwerknummer solcher Netze erstreckt sich über die beiden ersten Zahlen der IP-Adresse. Bei der ersten Zahl können Klasse-B-Netze Werte zwischen 128 und 192 haben. Eine IP-Adresse, die zu einem Klasse-B-Netz gehört, ist also daran erkennbar, daß die erste Zahl zwischen 128 und 192 liegt. Bei der zweiten sind Zahl Werte zwischen 0 und 255 erlaubt. Dadurch sind etwa 16.000 solcher Netze möglich. Da die Zahlen drei und vier in solchen Netzen ebenfalls Werte zwischen 0 und 255 haben dürfen, können an jedem Klasse-B-Netz bis zu ca. 65.000 Hostrechner angeschlossen werden. Klasse-B-Netze werden vor allem an große Firmen, Universitäten und Online-Dienste vergeben.

Die unterste Hierarchie stellen die Klasse-C-Netze dar. Die erste Zahl einer IP-Adresse eines Klasse-C-Netzes liegt zwischen 192 und 223. Die Zahlen zwei und drei gehören ebenfalls noch zur Netzwerknummer. Über zwei Millionen solcher Netze sind dadurch adressierbar. Vor allem an kleine und mittlere Unternehmen mit direkter Internet-Verbindung, auch an kleinere Internet-Provider, werden solche Adressen vergeben. Da nur noch eine Zahl mit Werten zwischen 0 und 255 übrig bleibt, können in einem C-Netz maximal 255 Host-Rechner angeschlossen werden. Ob dieses Adressierungs-Schema den Anforderungen der Zukunft noch gerecht wird, bezweifeln manche. Es gibt bereits Ideen zu einer Neustrukturierung der Adressierung von Netzen und Hostrechnern.

Lesbare Adressen
Die Zahlenkombinationen sind für menschliche Benutzer schwer zu merken. Daher verwendet man alternativ lesbare Internet-Adressen. Diese setzen sich zusammen aus.

Hostname Netzname Domain
www pi-stmk ac at


Zusammengefasst also: www.pi-stmk.ac.at. Diese Namen werden von sogenannten Nameservern mittels des DNS (Domain Name Service) in Zahlenquartette umgewandelt, die dann als IP-Adressen Verwendung finden. Ein solcher Name-Server muss erreichbar und mit seiner IP-Adresse bekannt sein, sonst können keine lesbaren Namen verwendet werden.

HTTP
(Hyper Text Transfer Protocol)
Ein TCP-basiertes Protokoll, das insbesondere im Internet und Intranet zur Web-Kommunikation eingesetzt wird, ist das "Hyper Text Transfer Protokol"(http). Während sich HTML, die "Hypertext Markup Language", mit der Darstellung von Webseiten beschäftigt, übernimmt http die Aufgabe, für einen reibungslosen Transport von HTML-Seiten zwischen Web-Server und Web-Client zu sorgen.


Abbildung: HTTP-Kommunikation

HTTP ist nunmehr in der Version 1.1 seit Juni 1999 im "RFC 2616" als anstehender Protokollstandard für die Web-Kommunikation von allen Software-Herstellern akzeptiert und bildet die Grundlage des Datenaustausches zwischen Web-Browser und Web-Server. Zu diesem Thema gibt es mittlerweile eine Vielzahl von RFC´s.

FTP
( File Transfer Protocol)
FTP stellt einen Dienst zur Verfügung, der es erlaubt, innerhalb aller Betriebssysteme (Winnt, Windows 9x, Unix, OS/2) über TCP-Verbindungen Daten zu übertragen und diese in den jeweils verwendeten Dateiformaten abzuspeichern. Grundlage für die Kommunikation zweier Rechner ist erneut das Client-Server-Modell, wie wir es für den virtuellen Terminaldienst TELNET kennen. Der Ablauf einer FTP-Session ist allerdings komplexer und bedarf einer genauen Betrachtung der Kommunikation in fünf einzelnen Phasen.
  • Phase 1: Verbindungsaufbau
  • Phase 2: Generierung Datenverbindung
  • Phase 3: Datenübertragung
  • Phase 4: Einleitung Übertragungsende
  • Phase 5: Ende Datenübertragung
TFTP
(Trivial File Transfer Protocol)
Im Gegensatz zum TCP-basierenden FTP stellt das TFTP ein Grundlagenprotokoll über UDP dar, welches zwar ebenso wie FTP für den reinen File-Transfer konzipiert wurde, allerdings nicht über seinen Sicherheits-Standard verfügt. Für Sicherungsmechanismen, die bei FTP im Protokoll TCP abgewickelt werden, muss das Trivial File Transfer Protokoll selbst sorgen.

Der Einsatzbereich beschränkt sich i. d. R. auf der Herunterladen von Systemprogrammen oder Netzwerk-Software. Oft ist diese Funktionalität auch schon auf integrierten Bausteinen der Rechner bzw. auf Netzwerkadaptern implementiert. TFTP ist nicht für die Benutzung durch den End-Anwender gedacht. Dies ich auch schon daran erkennbar, dass kein Zugriff auf irgendein Sicherheitskonzept hinsichtlich Authentifizierung erfolgt (User-ID, Password). Ähnlich dem FTP arbeitet TFTP ebenfalls im Client-Server-Betrieb. Die Implementierung des Servers wird zumeist mit den sog. "TFTP-Daemon" realisiert.

Auf Seite des Clients eröffnet ein "Request to Write" die Dateiübertragung zum Server. Der Request wird vom Server bestätigt, und Daten werden in festen Satzlängen zu 512 Bytes transferiert. Jeder einzelne Datensatz wird nummeriert und muss vom Server bestätigt werden. Das Datei-Ende wird dadurch angenommen, dass ein Satz, dessen Satzlänge kleiner als 512 Bytes ist, den Empfänger erreicht. Treten während einer Übertragung Fehler auf, so wird ein Timer aktiviert. Läuft dieser ab, wird das zuletzt übertragene Paket wiederholt. Dabei ist es gleichgültig, ob es sich um ein Daten- oder in Acknowledgement-Paket handelt:

Pakettypen:


Abbildung: Read- Write-Request (RRQ / WRQ-TFTP-Paket)


Abbildung: Data (Data-Paket)


Abbildung: Acknowledgement (ACK)


Abbildung: Error (Error)

POP (Post Office Protocol)
Ein einfaches Mail-System zur Abholung von E-Mail durch den Benutzer wird durch das Post Office Protocol 3 (POP3) realisiert. POP3 definiert einen Standard (RFC 1939 vom Mai 1996), der eine TCP-Verbindung zu einem POP3-Server aufbaut und nach Authentifizierung durch Benutzerkennung und Passwort die auf dem Server gespeicherten E-Mails zum Benutzer, dem POP3-Client, herunterlädt. Nach Beendigung dieses Downloads werden die übertragenen Mails auf dem Server gelöscht. Es handelt sich hierbei also um eine temporäre TCP/IP-Verbindung zwischen dem Client und dem Server, die zumeist über Wählleitungen zum Internet durchgeführt wird. Auf dem POP3-Server (er verwendet den Well-known-Port 110 für seine "listing") werden sämtliche Benutzerdaten vorgehalten und administriert. Für jeden Benutzer gibt es ein E-Mail-Konto, das die Daten in einem einzigen Verzeichnis aufbewahrt, bis sie vom Benutzer vollständig abgeholt werden. Im Gegensatz zum IMAP muss der Benutzer nach Anmeldung an seinem POP3-Server sämtliche Mail-Objekte abholen. Ein partieller Download seiner E-Mails ist nicht möglich. Dies kann insbesondere bei langsamen Verbindungen (analoge Modemverbindungen mit geringen Geschwindigkeiten) durchaus zu Übertragungszeiten führen, die mehrere Minuten bis zu einer Stunde dauern. Das im Internet mittlerweile übliche Versenden umfangreicher E-Mails mit binären Anlagen (Bilder, Software, Dokumentationen usw.) trägt zu diesem ungünstigen Kommunikationsverhalten natürlich bei.

IMAP
Das Internet Message Access Protcol 4 wird gewissermaßen als Nachfolger des POP3-Protokolls gehandelt. Unzugänglichkeiten insbesondere hinsichtlich fehlender Flexibilität gegenüber dem teilweisen Übertragen und Löschen von E-Mails werden hier vermieden. Außerdem ist es mit IMAP4 möglich, ein Postfach von mehreren nicht zeitgleich betriebenen Rechnern anzusprechen. Parallel-Arbeitsplätze, also im Büro und zu Hause, können somit problemlos mit ein und demselben Postfach arbeiten, ohne dass es zu einem inkonsistenten Datenbestand kommt. Darüber hinaus bietet IMAP4 die Möglichkeit, Nachrichten in mehreren Ordnern bzw. Verzeichnissen zu archivieren und mit mehreren Mail-Servern gleichzeitig zu arbeiten. Grundlage des IMAP4-Protokolls ist der "RFC 2060" vom Dezember 1996.

Funktionale Schwerpunkte des IMAP4:
  • Zugriff und Manipulation von Nachrichten und Ordnern auf einem Server
  • Offline-Client-Synchronisation mit dem Server
  • Erstellung neuer Postfächer, einschließlich Umbenennen und Löschen
  • Überprüfung auf neue Nachrichten
  • Selektives Übertragen von Nachrichten (bzw. Teilen dieser Nachrichten)
  • Verwendung des SMTP-Protokolls
PPP
Nach der Standardisierung des Point-to-Point Protokolls im Juli 1994 (RFC 1661) wurden in den folgenden Jahren zahlreiche Dokumente zum PPP und seinem Zusammenwirken mit anderen, höheren Protokollen veröffentlicht. Erst Mitte 1999 wurde die Ablösung durch das neue "Point-to-Point-Tunnelung Protokoll" (PPTP) eingeleitet.

Charakteristik des PPP
(Point-to-Point Protokoll):
  • Es verfügt über eine Methode zur Enkapsulation von Datagrammen (HDLC-basierend)
  • Zum Aufbau von Data-Links, ihrer Konfigurierbarkeit und ihrer Überprüfung wird das Protokoll LCP, Link-Control-Protocol eingeführt.
  • Eine Familie von Netzwerk-Steuer-Protokollen (NCP) ermöglicht die Steuerung und Konfiguration verschiedener Netzwerkprotokolle, die parallel betrieben werden können. So ist beispielsweise das Internet-Protocol-Internet-Protocol (IPIP) für IP verantwortlich.
PPP benötigt für seinen Betrieb Full-Duplex-Verbindungen. Diese können entweder auf Wählleitungen oder Festverbindungen realisiert werden. Seine besonderen Eigenschaften liegen in der Multi-Protokollfähigkeit, d.h. es können mehrere Netzwerkprotokolle parallel betrieben werden. PPP basiert auf dem ISO-HDLC-Standard und kann daher auf jeder gängigen Hardware eingesetzt werden. Gemäß PPP-Konventionen müssen vor Abbildung eines Netzwerklyer-Protokolls auf einem Data-Link folgende Phasen innerhalb des Link Control Protocols durchlaufen werden:
  • Link Establishment und Configuration Negotation LCP-Pakete warden ausgetauscht und Konfigurationsoptionen ausgehandelt. Nach Festlegung gilt der Link als "geöffnet", ohne allerdings bereits Netzwerkprotokolle aufnehmen zu können.
  • Link Quality Determination
    Diese Phase ist optional. Sie ermöglicht eine Steigerung der Verbindungsqualität durch die Verwendung von Echo- und Reply-Mechanismen.
  • Authentication
    Diese Phase ist optional. Gemäß den zu Beginn ausgehandelten Optionen werden Methoden zur Authentifizierung festgelegt und auf beiden Seiten der Verbindung angewandt.
  • Network-Layer Protocol Configuration Negotiation
    Das entsprechende Network-Control-Protocol konfiguriert nun das Netzwerk-Layer-Protokoll.
  • Link Termination
    Durch Eingriff des Anwenders bzw. durch eingetretene Fehlerbedingungen kann LCP den Link jederzeit abbrechen.

Abbildung des PPP-Frames:

Der PPP-Frame ist folgendermaßen aufgebaut:
Start-Flag: Dieses Feld enthält immer den Wert "X"7E bzw. 01111110. Es kennzeichnet stets den Anfang des Adressfeldes.
Adresse: Im Adressfeld wird der Wert "X"FF hinterlegt.
Control: Dieses Feld enthält den Wert "X"03.
Diese 3 Felder stellen den HDLC-Header dar.
Protokoll: Hier sind Einträge für drei verschiedene Protokolltypen möglich:
  • Nummer eines LCP-Protokolls "X"Cxxx
  • Netzwerk-Layer-Protokoll: "X"0xxx (0021 = IP; 0029 = Apple Talk; 0028 = IPX)
  • Driver-Protokoll für Netzwerk-Layer-Protokoll: "X"8xxx (8021 = IPCP, 8029 = ATCP; 8028 = IPXCP)
Information: Gemäß Eintrag im Protokollfeld wird hier ein LCP-Datagramm (Cxxx) oder ein Netzwerk-Layer-Datagramm (0xxx) eingefügt.
FCS: Die Frame Check Sequenz dient der Fehlererkennung
End-Flag: Dieses Feld entspricht dem Flag-Feld zu Beginn des Frames und besitzt ebenso den Wert "X"7E. Damit wird der Frame beendet.

PPP bietet zwei verschiedene Paketformate: das LCP-Paket und das Datenpaket mit den eigentlichen Nutzdaten. Der unterschiedliche Frame-Aufbau ergibt sich aus einem völlig anderen Inhalt des Information-Feldes. Hier differenziert PPP beim LCP vier Felder: Code, Identifikation, Länge und Daten bzw. Option. Im Datenpaket für einen IP-Frame besteht das Information-Feld aus dem IP-Header, dem TCP-Header und den Nutz- bzw. Anwendungsdaten.


Abbildung: PPP-Paketformate - LCP-Paket und Datenpaket

Im LCP-Paket werden die dort spezifizierten Felder (Code, Identifikation) dazu benutzt, um die bereits erwähnten Steuerinformationen beim Phasendurchlauf ins Protokoll einzubringen. Dazu gehören beispielsweise ein "configure request", "configure acknowledge", "configure not acknowledge", "echo request", "echo reply" oder "discard request". Das Variable Feld der Anwendungsdaten im Datenpaket könnte z. B. dazu verwendet werden, um eine SNA-PIU zu verkapseln und über PPP zu transportieren.

SMTP
Hier steht die Übertragung von kurzen und einfachen Informationseinheiten im Vordergrund. Es geht hier also weniger um die Verwaltung und Verabeitung eines anonymen Datenbestandes auf einem Rechner, sondern hier steht der Anwender, der User im Mittelpunkt des Interesses. Er bedient sich des Rechners als Hilfsmittel, um mit seinem Kommunikationspartner, dem User an einem anderen Rechner, in Kontakt zu treten. Vergleichbar ist diese Form der Kommunikation mit dem Abfassen eines Briefes, seinem Transport mit der Post und schließlich seiner Ankunft im Briefkasten des Empfängers. Überträgt man dieses Konzept nunmehr auf die Welt der elektronischen Medien, so gelangt man zu der mittlerweile üblichen Bezeichnung des "Electonic Mail".

Seit jeher schon für den Beriech UNIX-basierter Rechnersysteme, aber mittlerweile auch auf Personalcomputern unter den dort etablierten Betriebssystemen, hat sich das "Simple Mail Transfer Protokoll" (SMTP) allmählich als Mailing-Standard herausgebildet. Es beruht, wie viele andere Punkt-zu-Punkt-Protokolle auch, auf dem Client-Server-Konzept. Der Anwender bedient eine Mail-Software und bereitet seine Nachricht vor. Diese übergibt er anschließend an einen Mail-Prozess (Sender), der dafür sorgt, dass die Nachricht zwischengespeichert werden kann (spooling). Über das TCP-Protokoll wird eine "bidirektionale Verbindung" zum Empfangsprozess auf dem entferneten Host aufgebaut ("well known Port 25). Der Spool-Bereich behält seine Daten so lange, bis sie erfolgreich dorthin kopiert werden konnten.allmählich als Der Aufbau einer Mail-Adresse ergibt sich zumeist in der Kombination von Domäne und User-Identifikation. In einem Beispiel heißt der User "Oliver" und die Domäne "tcpip-netz.holzgau.at". Die vollständige Mail-Adresse hieße demnach: oliver@tcpip-netz.holzgau.at
Folgendes Befehls-Repertoire steht auf der Client-Seite zur Verfügung:
HELO: Identifikation des Senders
MAIL: Start des Mail-Prozesses
RCPT: Identifikation des Empfängers
VRFY: Benutzer-ID wird bestätigt
DATA: Datentransfer, Transferende mit <crlf>.<crlf>
RSET: Abbruch der Verbindung
NOOP: Bestätigung wird erwartet, keine Aktion
QUIT: Verbindung wird ordentlich abgebaut

Die Server-Reaktionen (ein Auszug) sehen folgendermaßen aus:
221: Service wird beendet
250: OK
251: User nicht lokal, wird weitergeleitet an <xyz>
354: Start der Mail-Eingabe, Ende mit <crlf>.<crlf>
500: Syntax-Fehler
550: Operation nicht möglich, Mailbox nicht erreichbar

Der Ablauf einer Mail-Sitzung zeigt folgende Beschreibung:
  • Der Client (bzw. Sender) baut eine Session zum Server (bzw. Empfänger) auf
  • Der Server schickt eine "Service-Ready" - (code 220) oder eine "Service Not Available"-Meldung (Code 421)
  • Der Sender identifiziert sich mit HELO bzw. EHLO, der Empfänger antwortet meit seinem Domänen-Namen
  • Nun beginnt der Client mit dem eigentlichen Mail-Prozess, indem er den MAIL-Befehl absetzt. Der Server antwortet mit OK (Code 250)
  • Der RCPT-Befehl übermittelt dem Server den bzw. die Empfänger, worauf der Server mit OK (Code 250) oder Code 550 - "Mailbox anavailable" antwortet
  • Der Client beginnt nun mit der Datenübertragung per DATA-Befehl. Der Server ragiert mit einem Start Mail Input, end with <crlf>.<crlf> (Code 354)
  • Soll die Übertagung beendet werden, so zeigt dies der Sender vereinbarungsgemäß mit der Zeichenfolge <crlf>.<crlf> an
  • Der Sender beendet die Verbindung mit dem QUIT-Befehl. Der Server antwortet mit "Service Closing" (Code 221)
Eine Mail-Sitzung kann auch derart variiert werden, dass nach erfolgtem Mail-Transfer Sender und Empfänger wechseln, bevor die Verbindung geschlossen wird. Mit einem TURN-Befehl kann dieses Vorhaben vom Sender angezeigt werden. SMTP wurde vor einigen Jahren hauptsächlich in der UNIX-Welt eingesetzt. Durch das enorme Wachstum der weltweiten E-Mail-Aktivitäten im Internet ist SMTP nunmehr auch auf die Desktops der PC´s (Windows 9x/NR), Handhelds und Palmtops eingezogen.

Für das ISO/OSI-Umfeld gibt es ein funktionelles Pendant: X.400-Messages Handling System. Über "User Agents" (UA) erfolgt der Transport von Nachrichten an "Message Transfer Agents" (MTA), die in einem dichten Netzwerk untereinander verbunden sind. Das Leistunsspektrum dieses Systems ist um ein Vielfaches komplexer als beim SMTP. Ein besonders leistungsfähige Erweiterung des SMTP hat für eine Aufwertung auch im Vergleich zu anderen Systemen gesorgt. Nach "RFC 822" vom August 1982 konnten bislang lediglich textuelle Informationen als Mail innerhalb des SMTP verschickt werden. Als andere Mail-Systeme (z.B. X.400) in den 80er Jahren auch Daten binären Charakters in Umlauf bringen konnten, löste dies eine Kompatibilitäsproblematik aus. Mail-Übergänge waren ohne weiters nicht zu realisieren. Umständliche Konverter mussten eingesetzt werden. Im Juni 1992 wurde der neue "RFC 1652" verabschiedet: MIME (Multipurpose Internet Mail Extension) "Mechanisms für Specifying and Describing the Format of Internet Massage Bodies".

Man ist nun nicht mehr auf den reinen Textversand beschränkt, sondern es ist jetzt möglich, auch andere Datenobjekte via Mail zu versenden:
  • Anwendungsdaten application/postscript
  • Akkustikdaten audio/basic
  • Bilder und Grafiken image/gif bzw. image/jpeg
  • gemischte Datentypen multipart/mixed
  • texte text/plain
  • Videosignale video/mpeg
X.25
Nach ersten Entwicklungen im Rahmen der ARPANET-Geschichte in den späten 60er und frühen 70er Jahren wurde gemeinsam mit dem Internet-Protocol als verbindungslosem Datagrammdienst das Prinzip der Datenpaketvermittlung entwickelt und im Jahre 1976 vom Comitè Consultatif International Téléphonique et Télégraphique (CCITT) in der X.25-Empfehlung veröffentlicht. Seit dieser ersten Veröffentlichung wurde die Empfehlung alle vier Jahre im Rahmen de Studienperiode des CCITT immer wieder aktualisiert, um sich den Anforderungen des Kommunikationsmarktes optimal anpassen zu können.

Die letzte Anpassung erfolgte 1988. Allerdings ist diese für Soft- und Hardware noch nicht überall implementiert, so dass z.Zt. Noch die 84er-Version allgemeine Verbreitung findet. Seit 1979 hat auch die Bundespost bzw. nunmehr die Telekom auf Basis der X.25-Empfehlung ein eigenes paketorientiertes, öffentliches Netzwerk entwickelt: DATEX-P.

X.25 beruht auf deinem logischen Multiplexing vorhandener Leitungskapazitäten. Der Grundgedanke dieses Prinzips geht davon aus, dass die Übertragungsleistung eines physikalischen Mediums (im normalen Datenverkehr) niemals voll ausgenutzt werden kann, insbesondere dann nicht, wenn es sich um Online-Dialoge handelt. Bei einem normalen Telefongespräch (nach analoger Übertragungstechnik) weiß man, dass über eine einzige physikalische Leitung immer nur ein Telefongespräch abgewickelt werden kann.


Abbildung: Virtuelle Verbindungen im X.25-Netz

Man stelle sich vor, während des Telefongesprächs treten zahlreiche Sprechpausen auf, in denen keinerlei Informationen übertragen werden. Oder aber einer der beiden Gesprächspartner spricht außerordentlich langsam, so dass auch hier eine Fülle an Informationen pro Zeiteinheit sehr gering ist. Diese "Kommunikationslücken" könnten nun mit andersartigen Informationen aufgefüllt werden und somit die Leitungsauslastung und damit ihren Nutzungsgrad steigern.

Im X.25 wird dies mit der bereits erwähnten logischen Mehrfachnutzung versucht. Datenpakete werden im Normalfall auf maximal 128 Byte-Pakete limitiert und mit einer Adressinformation versehen. Es erfolgt ein Transfer zur Datenpaketvermittlungsstelle, wo das Datenpaket kurz zwischengespeichert wird. Nach Auswertung der Adressinformationen erfolgt die Weiterleitung an die entsprechende nächste Datenpaketvermittlungsstelle usw. Die physikalische Leitung kann somit nicht nur für eine Verbindung, sondern für mehrere virtuelle Verbindungen (siehe Abbildung oben) gleichzeitig genutzt werden.

Es werden zwei Arten von virtuellen Verbindungen unterschieden:
  • Permanent Virtual Circuit - PVC (feste virtuelle Verbindungen)
    Zwei Datenendeinrichtungen sind fest miteinander verbunden. Verbindungen zu anderen Datenendeinrichtungen können nicht aufgebaut werden.
  • Switched Virtual Circuit - SVC (gewählte virtuelle Verbindungen)
Die virtuelle Verbindung besteht lediglich für einen durch Anwählen der Datenendeinrichtung bestimmten begrenzten Zeitraum. Jeder der beiden Kommunikationspartner kann die Verbindung wieder lösen. Ihre Flexibilität besteht darin, dass auch zu anderen X.25-Netz-Teilnehmern virtuelle Verbindungen aufgebaut werden können.

Das Geschwindigkeitsspektrum erfasst sich zwischen 2400 bit/s und 64000 bit/s. X.25 deckt die ISO/OSI-Schichten 1 bis 3 ab. Für die genaue Betrachtung dieses kurzen Protokollstacks (siehe nächste Abbildung) wird häufig das jeweils implementierte höher angesiedelte Netzwerkprotokoll hinzugekommen, so dass man daher vonTCP/IP-X.25, DECnet-X.25 oder SNA-X.25 spricht. Infolge dieses Protokollstack-Übertragungs fällt in diesem Zusammenhang auch der Begriff X.25-Gateway.


Abbildung: X.25 Protokoll-Stack

Die Leistungsfähigkeit und Flexibilität des X.25 geht aus folgender Beschreibung der unteren drei Schichten des Protokoll-Stacks hervor:

Layer1:
In diesem Layer wird die ISO/OSI-konforme X.21-Schnittstelle verwendet. Es handelt sich dabei um eine synchrones Protokoll, das zwischen dem Abschluss des öffentlichen Netztes und - ganz konkret - dem X.21-Controller (Steckkarte) des Rechners eines Enduser-Systems für den Datentransport verantwortlich ist. Allerdings wird auf diesem Level keine Übertragungskontrolle ausgeübt. Als kostengünstigere Alternative hinsichtlich Implementierung wird vielfach die RS-232-Schnittstelle eingesetzt.

Layer2:
Zur Realisierung der Datensicherung werden hier drei Protokolle verwendet:
  • Link-Access-Protocol (LAP),
  • in Überarbeitung das Link-Access-Protocol Balanced (LAPB)
  • Multilink Procedure (MLP); primär für die Steuerung mehrerer paralleler Verbindungen eingesetzt wird.
Als äußerst leistungsfähige Leitungsprozedur wird High-Level Data Link Contol (HDLC) eingesetzt (IBM´s eigene Leitungsprozedur SDLC innerhalb des SNA ist aus HDLC hervorgegangen). In Local Area Network wrid eine angepasste Version des HDLC verwendet: LLC.

Die in Layer1 fehlende Datenkontrolle wir hier durch HDLC vorgenommen. Datenverluste oder auch Fehler in den Übertragungen werden registriert und behoben bzw. dem übergeordneten Protokoll-Layer mitgeteilt. Nicht jedes einzelne Datenpaket muss quittiert werden, sondern die Bestätigung ganzer Paketgruppen ist möglich. Die Anzahl von Paketen, die ohne Bestätigung vom Sender verschickt werden dürfen, ist über Parameter limitiert. Es herrscht Duplex-Betrieb, d.h. zu einem späteren Zeitpunkt können Datenpakete in beide Richtungen unterweg sein. Wie beim LLC unterschiedet man im HDLC drei Pakettypen:
  • I-Frames (Nutzdaten)
  • Unnumberd Frames (Verbindungsauf- und abbau)
  • Supervisory-Frames (Fehler, Steuerinformationen)
Layer3:
In dieser Schicht wird der Aufbau einer logischen Verbindung unabhängig vom Physikalischen Medium vorgenommen. Es erfolgt eine kontinuierliche Kontrolle dieser Verbindung. Erforderliche Unterbrechungen oder Neustarts infolge fehlerhafter Daten werden durch die Layer-3-Intelligenz veranlasst. Die Datenübertragung wird wegoptimiert über dedizierte X.25-Knoten geroutet, die für den jeweiligen Anwender jedoch nicht erkennbar sind. Diese Knoten übernehmen Aufgaben zur Steuerung des Datenflusses und sorgen somit für ein Data-Buffering und Data-Concentrating. Die Hauptvorteile im X.25 liegen in einer (durch HDLC) ordentlichen Datensicherheit, einer X.25-internen berlastkontrolle und der hohen internationalen Akzeptanz (zahlreiche nationale X.25-Netze werden durch X.75-Bridges untereinander verbunden). Für den Fall, dass X.25 als Protokoll für TCP/IP-Netzwerke verwendet wird, müssen folgende Aspekte berücksichtigt werden:
  • Die gute Qualität von X.25-Verbindungen wird völlig ignoriert
  • X.25 wird vom IP-Layer vollständig überlagert
  • Mapping von IP-Adresse zur Network User Adress (NUA)
  • Einsatz von IP-Gateways für X.25
  • Beenden von Verbindungen zwichen X.25-Gateways, wenn sich diese im "Leerlauf" (idle) befinden.
  • Performance-Verluste bei X.25.Paketgröße von 128 Bytes und einer MTU von mind. 576 Bytes.
Frame Relay:
In einer Zeit von Hochgeschwindigkeits-Technologien im LAN-Bereich muss auch im WAN dafür gesorgt werden, dass ein bedarfsgerechtes Angebot zur Verfügung steht. Das nunmher betagte Konzept des X.25 wird bereits zunehmend durch ein Verfahren ersetzt, das diesen Anforderungen im Bereich öffentlicher Netzwerke wesentlich besser gerecht wird. Die Rede ist von "Fast paket switching" (FPS). Dieses Verfahren hat gegenüber X.25 einen entscheidenden Vorteil (siehe Abbildung unten):

Während in X.25-Netzen auch die Intermediate Nodes unter hohem Rechenaufwand ankommende Datenpakete bis in den Layer3 hinauf analysieren müssten, brauchen dies die Zwischenknoten im FPS nicht mehr durchzuführen. Hier erfolgt die Realisierung einer Ende-zu-Ende-Verbindung bereits in der zweiten Schicht des ISO/OSI-Layers und ermöglicht somit eine enorme Geschwindigkeits-Steigerung beim Transport der Daten. Dieser Effekt wird dadurch verstärkt, dass man sich in den Zwischenknoten eine Fehler- und Datenflusskontrolle erspart. Die in diesem Umfeld eingesetzte Soft- und Hardware ist mittlerweile auf einem solch hohen technischen Stand, dass derartige Algorithmen überflüssig geworden sind.


Abbildung: Veränderte Architektur im Fast-Paket-Switching gegenüber X.25

Der ISO/OSI-Layer2 ist im FPS nochmals in drei Schichten unterteilt:
  • Fast Packet Relay (FPR) Sublayer
  • Fast Packet Adaption (FPA) Sublayer
  • Data Link Control (DLC) Sublayer
Das Routing durch ein FPS-Netz übernimmt bereits der unmittelbar über den Physical-Layer angeordnete FPR-Sublayer. Innerhalb des "Fast Packet Switching" existieren nun zwei verschiedene Betriebsverfahren. Es ist das "Frame Relay" und das "Cell Relay" (findet im ATM-Umfeld Anwendung).

Einige Grundprinzipien sind aus X.25 für Frame-Relay übernommen worden. Dazu gehören z.B. die Multiplexingverfahren virtueller Verbindungen und die synchrone Übertragungstechnik. Allerdings ist im Frame-Relay im Unterschied zum X.25 als verbindungsorientierts Protokoll konzipiert worden. Es kann unter bestimmten Bedingungen auch über ISDN-Leitungstechnik implementiert werden. Die maximal zulässigen Geschwindigkeiten wurden gegenüber dem X.25 drastisch erhöht. In Europa liegen die Geschwindigkeiten zwischen einem vielfachen von 64 kBits/s bis hin zu 45 Mbit/s, in den USA zwischen 56 kBit/s und 34 Mbit/s.

Das maximale Nutzdatenvolumen innerhalb eines Frame-Relay-Frames umfasst 8 kBytes. Der Frame wird in zwei Flags eingeschlossen und hat folgenden Aufbau:


Abbildung: Aufbau Frame-Relay-Frame

Start Flag: gibt an, wo der FR-Frame beginnt
Adress Field: Besteht im wesentlichen aus High-Order - Data Link Connection Identifier (DLCI) und Low-Order - DLCI

Byte 0: Bit 0-5 DLCI (high order)
Bit 6 C/R = Kennzeichnung (optional) für Command/Response
Bit 7 EA = adress field extension bit (kennzeichnet Byte 0; Wert = 0)
Byte 1: Bit 0-3 DLCI (low order)
Bit 4 FECN = forward Explicit Congestion Notification (wird zur Reduzierung des ausgehenden Datenflusses verwendet)
Bit 5 BECN = Backward Explicit CongestionNotificatin (wird zur Reduzierung des eingehenden Datenflusses verwendet, Sender wird informiert). FECN- und BECN-Mechanismen entsprechen dem "Source-Quench" beim ICMP.
Bit 6 DE = Discard Eligibility Field (das gesetzte Bit führt zu einer Bevorzugung beim Verwerfen von Frames).
Bit 7 EA = adress field extension bit (kennzeichnet Byte 1; Wert = 1)


Information-Field:
In diesem Feld werden die Nutzdaten untergebracht. Es ist dabei unbedeutend, welchem Protokoll bzw. welcher Leitungsprozedur der Frame zugordnet werden muss. So werden hier HDLC-, SDLC- oder auch LLC-Frames zu finden sein. Der Inhalt dieses Feldes wird nicht eingesehen.
FCS1: Frame Check Sequence 1
FCS2: Frame Check Sequence 2
End Flag: Gibt an, wo der FR-Frame endet
Der Begriff "Frame-Relay" lässt sich aus der Funktionsweise des Transportverfahrens ableiten. Jeder Zwischenknoten, der auf dem Wege des Datenpaketes vom Sender zum Empfänger passiert wird, gibt den "Frame" gemäß Routing-Information im DLCI weiter.


[back to top]



Userdaten
User nicht eingeloggt

Gesamtranking
Werbung
Datenbankstand
Autoren:04503
Artikel:00815
Glossar:04116
News:13565
Userbeiträge:16551
Queueeinträge:06236
News Umfrage
Ihre Anforderungen an ein Online-Zeiterfassungs-Produkt?
Mobile Nutzung möglich (Ipone, Android)
Externe API Schnittstelle/Plugins dritter
Zeiterfassung meiner Mitarbeiter
Exportieren in CSV/XLS
Siehe Kommentar



[Results] | [Archiv] Votes: 1136
Comments: 0