Die Anfänge der Netzwerktechnik und des heutigen Internet gehen bis in die frühen sechziger Jahre zurück. Damals war das größte Kommunikationsnetzwerk das Telefonnetz. Durch die wachsende Bedeutung von Computern stellte sich zwangsläufig die Frage nach einer Möglichkeit der Vernetzung der Rechner. Es wurden primitive Netzwerke entwickelt, die aber aufgrund ihrer enormen Defizite bei Leistung und Zuverlässigkeit keine zufrieden stellende Lösung darstellten. Diese ersten Systeme waren so genannte „Timesharing-Systeme“. Der Kern der Timesharing-Systeme war ein Zentralrechner, auf den die Benutzer über Terminals, die jedoch keine eigene Rechenleistung aufwiesen, zugreifen konnten. Das Timesharing-System bot den Vorteil, dass Daten und Rechenleistung eines Computers erstmals von mehreren Anwendern gleichzeitig genutzt werden konnten. Es gab jedoch große Mängel. Zum Beispiel konnte nur eine begrenzte Anzahl von homogenen Terminals (mit RS-232-Schnittstelle) angeschlossen werden. Außerdem war das System überaus anfällig gegenüber Leitungsstörungen.
Man suchte also nach Alternativen, um Computer mit der höchst möglichen Ausnutzung der vorhandenen Kapazitäten, die ohnehin sehr beschränkt waren, zu verbinden. Aus diesem Bestreben nach mehr Robustheit und Leistung resultierten die ersten Vorstellungen über eine neue Übertragungstechnik, dem so genannten Paket-Transfer. Die erste veröffentlichte Arbeit zu diesem Thema stammte von Leonard Kleinrock. Als damaliger Student am Massachusetts Institute of Technology (MIT)[i] vermittelte er die Vorteile des Paket-Transfers. Zur selben Zeit befassten sich u. a. auch Paul Baran am Rand Institute[ii] sowie Donald Davis und Roger Scantlebury am National Physical Laboratory (NPL)[iii] in England mit der Weiterführung ihrer Theorien zur Paket-Vermittlung.
Die voneinander unabhängigen Arbeiten am MIT, am Rand und am NPL legten den Grundstein für das Internet.
Das erste Netzwerk auf Basis des Paket-Transfers war ein Versuchsnetzwerk der Advanced Research Projects Agency, kurz ARPA, welches den Namen ARPAnet trug. Das ARPAnet entstand 1969 unter der Leitung von Lawrence Roberts und umfasste anfänglich vier paketvermittelnde Elemente, so genannte IMPs (Interface Message Processors). Im Jahre 1972 betrug die Anzahl der miteinander verbundenen IMPs bereits 15. In diesem Jahr fand auch die erste öffentliche Vorstellung des ARPAnet durch Robert Kahn statt. Anlass der Demonstration war die Fertigstellung des ersten voll funktionsfähigen Paket-Protokolls, des NCP (Network Control Protocol). Basierend auf diesem Protokoll wurden auch erste Anwendungen entwickelt, u. a. auch das erste E-Mail-Programm durch Ray Tomlinson.
Angeregt durch die ersten Erfolge des ARPAnet entstanden viele weitere paketorientierte Netzwerke, wie z. B. ALOHAnet, Telenet, Tymnet und Transpac. In der Zeit um 1973 florierten auch die ersten Theorien über die Ethernet-Technik, welche heutzutage Basis für zahlreiche Computernetzwerke ist.
Visionäre wie Robert Kahn und Vinton Cerf sahen nun die Zeit gekommen, um die vielen kleinen Netzwerke zu einem großen, einzigartigen Netzwerk zu verbinden. Um dies zu erreichen, wurde das TCP/IP-Protokoll entwickelt. Es sollte allen Anforderungen entsprechen und einen neuen Standard hinsichtlich der Zuverlässigkeit großer Computernetzwerke setzen. Ende der siebziger Jahre umfasste das ARPAnet bereits 200 Computer, Ende der achtziger Jahre unglaubliche 100.000. Zu diesem „Wachstumsschub“ des ARPAnet trug u. a. auch die vermehrte Vernetzung zwischen Universitäten bei. Die Neunzigerjahre waren gekennzeichnet durch zahlreiche Zusammenschlüsse größerer Computernetzwerke, die Entstehung des World Wide Web und die Kommerzialisierung des gewachsenen Internet.
Das Gebiet der Datenübertragung ist ein sehr umfangreiches und technisch komplexes Kapitel der Netzwerktechnologie. Es wird nachfolgend versucht, das Thema vereinfacht zu vermitteln und technische Grundkonzepte anschaulich darzustellen.
In Computernetzwerken können, verallgemeinert gesagt, zwei Formen von Übertragungstechniken unterschieden werden:
Der Begriff Broadcast kommt aus dem Englischen und bedeutet wörtlich übersetzt: weithin ausstreuen, senden. In einem Broadcast-Netzwerk sendet also ein Teilnehmer seine Daten, unter gewissen Umständen auch Pakete genannt, weithin verstreut. Das heißt, jeder angeschlossene Rechner empfängt die Daten, ignoriert sie aber, wenn sie nicht für ihn bestimmt sind. Diese Empfängerbestimmung erfolgt mittels eines Adressfeldes, welches in jedem Datenpaket vorhanden ist. Zur Veranschaulichung stelle man sich folgende Analogie vor: Jemand steht am Ende eines Korridors mit vielen geöffneten Türen und ruft: „Herr Peter Müller, kommen Sie in mein Büro, ich benötige einige Informationen!“ Obwohl jeder den Ruf hört, wird nur Herr Peter Müller reagieren, da die Nachricht an ihn gerichtet ist.
In Broadcast-Netzwerken besteht u. a. auch die Möglichkeit, Datenpakete so zu adressieren, dass sie von allen Rechnern verarbeitet werden. Man bezeichnet dies als Broadcasting . Diese Funktion wird durch einen speziellen Code im Adressfeld aktiviert. Neben dem Broadcasting gibt es auch noch das so genannte Multicasting, welches die Übertragung an eine Teilmenge der angeschlossenen Maschinen ermöglicht.
Im Gegensatz zu Broadcast werden in Punkt-zu-Punkt-Netzwerken die Daten nicht an alle am Netz angeschlossenen Rechner übermittelt. Es gibt viele Verbindungen zwischen einzelnen Gruppen von Computern, welche mehrere Übertragungsrouten mit unterschiedlicher Länge ermöglichen. Dadurch spielt das Routing (die Vermittlung von Datenpaketen zum Zielpunkt) eine wichtige Rolle: Ziel der Routing-Algorithmen ist es, Pakete schnellstmöglich an den Zielrechner zu übertragen und bei eventuellen Ausfällen von Knotenpunkten einen alternativen Übertragungsweg zu ermitteln. Die Punkt-zu-Punkt-Übertragung ist sehr sicher und effektiv. Dadurch ist sie vor allem in großen, verstreuten Rechnernetzen weit verbreitet.
Man kann diese beiden Übertragungsarten jedoch nicht prinzipiell trennen, da sie vor allem in größeren Rechnernetzen vermischt auftreten können. Es gibt durchaus auch noch einige weitere Formen, die aber aufgrund ihrer eher unbedeutenden Rolle nicht weiter erläutert werden sollen.
Bei der Verkabelung von Netzwerken können viele verschiedene Typen von Kabeln verwendet werden. Der verbreitetste Kabeltyp ist das Koaxialkabel. Das so genannte Koax-Kabel besteht aus einem metallischen Innenleiter (meist aus Kupfer), einer nicht-leitenden Zwischenschicht (welche als Dielektrikum bezeichnet wird) und einem Außenleiter. Der Außenleiter, die so genannte Abschirmung, ist meistens ein metallisches Geflecht, welches koaxial, also rohrförmig mit gleicher Achse um das Kabels gelegt ist (daher der Name Koaxialkabel). Diese Kabel sind mit unterschiedlichen Abschirmungen zu erhalten. Grundsätzlich gilt, je stärker die Abschirmung des Kabels desto höher ist die Sicherheit gegenüber äußeren Einflüssen (wie z. B. elektromagnetische Felder).
Ein weiterer Kabeltyp ist das Twisted Pair Kabel. Der Name Twisted Pair bedeutet zu Deutsch soviel wie verdrehtes Paar. Der Name sagt hier, wie beim schon erwähnten Koaxialkabel, wieder Grundlegendes über den Aufbau aus: Diese Kabelart besteht aus zwei metallischen Leitern, die durch je ein Dielektrikum isoliert sind. Die beiden isolierten Leiter sind verdrillt. Bei der verdrillten Zweidrahtleitung (so lautet übrigens die korrekte deutsche Bezeichnung) gibt es natürlich auch eine abgeschirmte Variante, welche man mit der Abkürzung STP (Shielded Twisted Pair) bezeichnet. Sie ist resistenter gegenüber äußeren Störeinflüssen. Das normale nicht-abgeschirmte Kabel trägt den Namen UTP (Unshielded Twisted Pair).
Die modernste Art von Übertragungsmedien sind Lichtwellenleiter. Der markanteste Unterschied gegenüber konventionellen Medien ist bei der Lichtwellentechnik die Tatsache, dass die Datenübertragung nicht mehr auf elektromagnetischen Wellen, sondern auf Reflexionseigenschaften des Lichts basiert. Im Grunde sind Lichtwellenleiter oder Glasfaserkabel, wie sie meistens bezeichnet werden, vom Aufbau her dem Koaxialkabel ähnlich: Im Kern befindet sich lichtführendes Glas, welches wiederum von einer Glasschicht umhüllt ist. Zum Schutz ist die Glasschicht zusätzlich noch von einer Kunststoffschicht umgeben.
Momentan erzielt man mit der Glasfasertechnik Übertragungsraten von über zwei Gigabit pro Sekunde. Theoretisch wären mit dieser Technologie aber Übertragungsraten von bis zu 50 Terrabit pro Sekunde und mehr möglich.
Den Aufbau der physikalischen Verbindungen von Computern in einem Netzwerk nennt man Topologie. Die gewählte Netzwerktopologie ist größtenteils abhängig von räumlichen Gegebenheiten, den geplanten Anwendungen und dem erforderlichen finanziellen Aufwand. Die wesentlichen Verkabelungsvarianten in lokalen Netzwerken sind Bus, Stern und Ring.
In einem Netzwerk, das nach der Bus-Topologie verkabelt ist, sind alle Rechner über ein einziges Kabel miteinander verbunden. Anfang und Ende des Kabels müssen mit so genannten Abschlusswiderständen (meist 50-Ohm-Widerstände) versehen sein, um eventuell auftretende Störungen durch Signal-Reflektionen an den Kabelenden zu vermeiden. In Bus-Netzwerken wird zur Verkabelung das Koaxialkabel verwendet. Diese Kabelart in Verbindung mit dem verwendeten Zugriffsverfahren lässt maximale Übertragungsraten von etwa 10 Mbit/s zu. Eine Übertragungsrate, die für viele Netzwerkanwendungen völlig ausreicht.
Ein markanter Vorteil der Bus-Topologie ist der geringe Verkabelungsaufwand, größter Nachteil die enorme Anfälligkeit gegenüber Kabeldefekten: Wird das Kabel z. B. an irgendeiner Stelle beschädigt (Kabelbruch, Kabelquetschung usw.), kommt es in den meisten Fällen zu einem totalen Netzwerkausfall.
Abbildung 49: Schema Bus-Topologie
Die Stern-Verkabelung birgt den größten Verkabelungsaufwand in sich, da jeder Rechner über ein eigenes Kabel mit einem speziellen Verteiler, einem so genannten Hub verbunden ist. Ein Hub ist im Grunde nichts anderes als ein elektrischer Signalverteiler. Er verteilt die vom Server kommende Netzwerkleitung auf mehrere Anschlüsse, an die wiederum die Verbindungsleitungen zu den Rechnern angeschlossen werden. An einen Hub können meist 8 oder 16 Computer angeschlossen werden. Reichen diese Anschlüsse nicht aus, so können mehrere Hubs kaskadiert werden: An den zentralen Hub (welcher direkt an den Server angeschlossen ist) wird wiederum ein Hub angeschlossen. Auf diese Weise kann die Zahl der Anschlüsse beliebig erweitert werden. Stern-Netzwerke sind recht resistent gegen Störungen des gesamten Netzwerks. Bei einem Ausfall eines Kabelstrangs fällt nur der Teilbereich aus, der an diesem Strang angeschlossen ist. Alle anderen Netzwerkteile sind weiterhin funktionsfähig. Mit der Stern-Topologie werden Übertragungsraten von bis zu 1.000 Mbit/s erzielt.
Abbildung 50: Schema Stern-Topologie
In der Ring-Topologie sind die Netzwerkrechner über einen Kabelring verbunden. Der größte Nachteil dieser Verkabelungsart ist auch hier wieder die immense Anfälligkeit gegenüber Kabeldefekten. Reine Ring-Netze sind heutzutage nur noch selten zu finden.
Abbildung 51: Schema Ring-Topologie
Neben Übertragungsmedien und dem physikalischen Anschluss ist vor allem die Netzwerksoftware, welche u. a. die Steuerung der Kommunikation übernimmt, von enormer Bedeutung für die Datenübertragung in Netzen. Die wesentlichen Aufgaben der Netzwerksoftware sind:
Dies sind natürlich bei weitem nicht alle Funktionen, die eine moderne Netzwerksoftware bewältigen muss. Aber es wird bereits ersichtlich, dass sich der Aufbau der Software als äußerst schwierig gestalten könnte. Da die Komplexität der Netzwerksoftware sehr groß ist, wird das Problem softwaretechnisch in Schichten aufgeteilt, die streng hierarchisch aufeinander aufbauen. Die Anzahl der Schichten, der Name und die Funktion jeder Schicht unterscheiden sich von Netzwerk zu Netzwerk.
Dieses so genannte Schichtenmodell ist in fast allen Netzwerken anzutreffen und wird im nächsten Abschnitt detailliert behandelt.
Wie im letzten Abschnitt bereits angesprochen wurde, benötigt man in Netzwerken so genannte Schichtenmodelle. Jede Schicht führt genau definierte Funktionen aus. Die Regeln und Konventionen, die sie dabei zu beachten hat, nennt man Protokolle der Schicht, daher bezeichnet man Schichtenmodelle häufig auch als Protokollstapel. Die Schichten sind hierarchisch aufgebaut und stellen der jeweils höheren gewisse Operationen und Dienste über eine gemeinsame Schnittstelle zur Verfügung. Die unterste Schicht bewerkstelligt die Übertragung der Bitinformationen über das physikalische Medium und ist Basis für weitere Schichten. Die oberste Schicht bietet bestimmte Dienste an, welche von Anwendungsprogrammen genutzt werden können.
Leider unterscheiden sich die verschiedenen Modelle in Anzahl, Namen und Funktionen der Schichten. Um eine Vereinheitlichung der verschiedenen Schichten, ihrer Aufgaben, Funktionsweisen und Hierarchie zu erreichen, schuf die International Standards Organization (ISO)[iv] ein plattformübergreifendes Referenzmodell: Das so genannte Open Systems Interconnection (OSI)-Modell sollte die Schichten standardisieren.
Das OSI-Modell hat sieben Schichten. Folgende Prinzipien haben zu der Siebenschichtigkeit geführt:
Die folgende Abbildung zeigt den Aufbau und die Funktionen der Schichten des OSI-Referenzmodells.
Abbildung 52: OSI-Referenzmodell
Die Aufgaben der Schichten 5 bis 7 werden vom Netzwerkbetriebssystem übernommen, welches später näher erläutert wird. Für die 4. Schicht gibt es sehr bekannte Protokolle wie z. B. das von Novell[v] entwickelte SPX (Sequenced Packet Exchange). Ebenfalls aus dem Hause Novell stammt das Protokoll IPX (Internetworking Packet Exchange), welches in der 3. Schicht seine Dienste verrichtet. In vielen LAN-Netzwerken wird die Protokollkombination IPX/SPX verwendet.
Das vermutlich berühmteste und auch verbreitetste Protokoll ist das TCP/IP-Protokoll . Der Name TCP/IP setzt sich aus den zwei wichtigsten Verbindungsprotokollen TCP (Transmission Control Protocol) und IP (Internet Protocol) zusammen. Seine Entwicklung startete Mitte der siebziger Jahre, nachdem eine intensive Suche nach einem zuverlässigen Protokoll gestartet wurde. Seit der Integration von TCP/IP in das Serverbetriebssystem UNIX, das damals auf vielen Servern verwendet wurde, im Jahre 1983, etablierte sich das Protokoll und wurde von vielen kommerziellen Softwareherstellern aufgrund seiner hohen Zuverlässigkeit und Einfachheit respektiert.
TCP/IP wird heute vielfach eingesetzt, nicht nur für das Internet. Zum Beispiel werden auch LANs häufig auf TCP/IP aufgebaut. In solchen Umgebungen bietet TCP/IP bedeutende Vorteile gegenüber anderen Netzwerk-Protokollen. Beispielsweise läuft TCP/IP auf einer Vielzahl an Hardware und Betriebssystemen. Aus diesem Grund erfreut sich TCP/IP seit seiner Einführung in den Markt in den siebziger Jahren immer noch großer Beliebtheit.
In der folgenden Abbildung sind die groben Unterschiede im Aufbau zwischen dem OSI- und dem TCP/IP-Referenzmodell erkennbar. Die Schichten 5 und 6 des OSI-Modells vermisst man im TCP/IP-Modell. Der Grund für das Fehlen ist, dass in den meisten Fällen gar keine Notwendigkeit für diese Dienste besteht und sich die Komplexität daher verringert.
Abbildung 53: OSI versus TCP/IP
Im Internet werden zu übertragende Daten in kleine (Daten-)Pakete, die in der Fachsprache als Datagramme bezeichnet werden, aufgeteilt und mit einer Empfänger- und Absenderadresse versehen. Die Festlegung des Zielrechners und des Absenders erfolgt mittels der IP-Adressierung. Es werden Übertragungswege ermittelt und das Paket wird gesendet. Das Paket passiert dabei meistens mehrere andere Rechner, welche als Router bezeichnet werden und das Paket je nach seiner Zieladresse weiterleiten. Die Gesamtheit der softwaretechnischen Datenübertragung wird vom TCP/IP-Protokoll geregelt.
Im Internet kann jeder Rechner durch die IP-Adresse eindeutig identifiziert werden. Eine IP Adresse ist eine 32-Bit-Zahlenkombination, wobei jedes Byte durch einen Punkt vom nächsten getrennt ist. Somit entsteht eine Form, die 4-Byte-Abschnitte enthält: www.xxx.yyy.zzz. Diese Form wird auch als „Dotted-quad“-Schreibweise bezeichnet.
Um das Weiterleiten von Paketen zu vereinfachen, wird die IP-Adresse in eine Netzwerkadresse und eine Hostadresse geteilt. Diese Teilung ist dynamisch, da es ja große Netzwerke mit vielen Rechnern und kleine Netzwerke mit wenigen Rechnern gibt. Um das Verhältnis von Netzwerkadresse und Hostadresse zu regeln, ist eine Qualifizierung der Netzwerke notwendig. Die unterschiedlichen Netzwerke werden deshalb in IP-Netzklassen eingestuft. Damit man sich diese Zahlenkombinationen nicht merken muss, sondern mit verständlicheren Namensbezeichnungen arbeiten kann, wurde ein hierarchisches Namensverzeichnis entwickelt. Dieser Dienst wird als Domain Name Service (DNS) bezeichnet.
HTTP ist die Abkürzung für HyperText Transmission Protocol. HTTP ist ein Protokoll der Anwendungsschicht im TCP/IP-Modell, das die Übertragung von Internet-Seiten, so genannten HTML-Dokumenten, regelt. HTTP wird von der Internet-Enwicklungsgemeinde in einem Request for Comment (RFC) wie folgt definiert: Es ist ein einfaches und schnelles Protokoll der Anwendungsschicht für hierarchische, kollaborative Hypermedia-Informationssysteme. Es ist ein auswählbares, statusloses, objektorientiertes Protokoll, das für viele Aufgaben wie Name-Server und verteilte Objekt-Management-Systeme durch die Erweiterung seiner Anfragemethoden (Befehle) eingesetzt werden kann. Ein Merkmal von HTTP ist die Wahl der Datendarstellung, was einen Aufbau von Systemen unabhängig von den übertragenen Daten ermöglicht.
HTTP arbeitet nach einem Anfrage-/Antwort-Schema. Das heißt, der Client Rechner geht keine dauerhafte Verbindung mit dem Server ein, auf dem sich die gewünschten Informationen befinden. Stattdessen schickt er nur dann eine Anfrage (Request), wenn er wirklich Daten benötigt. Dieses Verfahren hat den Vorteil, dass die Kapazitäten des Servers nicht stärker beansprucht werden als unbedingt notwendig.
Um HTTP nutzen zu können, wird eine spezielle Client-Anwendung benötigt, die HTTP „versteht“. Diese Anwendungen werden im Allgemeinen Browser genannt. Die bekanntesten Produkte sind der Microsoft Internet Explorer und der Netscape Navigator. Weiterhin ist eine Server-Anwendung notwendig, die HTTP „spricht“. Diese Anwendungen werden allgemein Web-Server genannt. Oftmals wird auch der gesamte Server – Hard- und Software – als Web-Server bezeichnet.
Abbildung 54: Schema HTTP-Request
HTML steht für HyperText Markup Language und ist eine Beschreibungssprache für Internetseiten des World Wide Web. Mit ihr ist es möglich, Internetseiten zu gestalten und Multimedia-Komponenten wie z. B. Bilder, Videos usw. einzubinden.
Die Grundlage von HTML sind die so genannten Tags. Ein HTML-Tag hat folgende Form: <Befehl>. Da die Ressourcen (Bilder, Töne, externe Programme usw.) nicht direkt in ein HTML-Dokument integriert sind, sondern nur durch Tags beschrieben werden, muss ihr Speicherort bekannt sein. Um den Ort einer Datei im Internet anzugeben, verwendet man den Uniform Resource Locator (URL). Ein URL besteht aus drei Teilen, dem Protokoll, der Rechneradresse und dem Ort der Datei auf dem Computer: http://www.vpmo.de/beispiele/datei.html.
Abbildung 55: URL-Aufbau
Eine Internetseite wird vom Browser aufgebaut. Zuerst wird der Text dargestellt, danach werden die Multimedia-Ressourcen geladen. Die folgende Abbildung zeigt den Aufbau eines HTML-Dokuments und das Aussehen im Browser.
Abbildung 56: HTML-Seite im Browser
Elektronische Post (Electronic Mail, kurz E-Mail) ist eine der Hauptanwendungen im Internet. Zur Arbeitsteilung hat sich ein Beförderungssystem und ein Aufbewahrungs- bzw. Zugriffssystem entwickelt. Das Simple Mail Transfer Potocol (SMTP) ist für die Beförderung der Mails zuständig. Die Protokolle POP und IMAP sind reine Aufbewahrungs- und Zugriffsprotokolle.
Abbildung 57: Schema E-Mail-Verkehr im Internet
Das Post Office Protocol (POP) ist wohl die verbreiteste Methode, um mit einem PC oder einer Workstation dynamisch auf einen Mailbox-Server zuzugreifen.
Prinzipiell startet der Server den POP-Dienst durch „horchen“ auf standardisierten TCP-Ports. Nachdem ein Client, der den Mailbox-Dienst nutzen möchte, eine Verbindung mit dem Server aufgebaut hat, sendet dieser eine „Gruß“-Message und Client und Server tauschen Kommandos und Antworten aus, bis die Verbindung abgebrochen oder unterbrochen wird.
Für POP-Nutzer kann ein „normaler“ Login-Account oder ein spezieller POP-Account mit eingeschränkten Zugriffsrechten und gleichzeitigem POP-Server eingerichtet werden.
Obwohl das Internet Message Access Protocol (IMAP) inkompatibel zu POP ist, bildet es funktional eine Obermenge von POP. Genau wie POP stellt IMAP eine Methode zur Verfügung, mittels eines zuverlässigen Datenstromes (TCP) auf Server-seitig „zwischengespeicherte“ Mail zuzugreifen, nicht aber, um Mail zu versenden.
Im Gegensatz zu POP bietet IMAP Funktionen, um Mail schon auf dem Server zu durchsuchen und zu analysieren. Dieser Mechanismus erlaubt es, Resultate solcher Recherchen dem Client zu übermitteln, ohne die gesamte Mailbox übertragen zu müssen. Dieses ermöglicht den selektiven Message-Transfer – etwa von Mail nur eines bestimmten Absenders, einer maximalen Größe oder eines bestimmten Zeitraums. Des Weiteren existieren zusätzliche Mailbox-Management-Funktionen.
Das neuere IMAP4 liefert u. a. zusätzliche Funktionalität in der Autorisierungsphase („Kerberos“) und in der Unterstützung allgemeiner Mailboxen mit Zugriffsmöglichkeiten mehrerer Benutzer bzw. Benutzergruppen.
Insgesamt bringen die IMAP-Protokolle zusätzliche Intelligenz auf der Server-Seite.
Auf die Einzelheiten des ebenfalls auf Client-Kommandos und Server-Antworten basierenden IMAP-Protokolls soll hier nicht weiter eingegangen werden.
IMAP und POP können beide als Basis für ein verteiltes E-Mail-System mit Internet-Zugang dienen. Sowohl für UNIX-Systeme als auch für freie, per Shareware verteilte oder auch kommerzielle TCP/IP-Systeme für den PC oder Apple Macintosh gibt es komfortable Client-Lösungen.
Während POP als mehr oder weniger reiner „store-and-forward“-Dienst auf Anforderung Mail vom speichernden Server zur Arbeitsstation transferiert und anschließend üblicherweise (allerdings nicht notwendigerweise) die Mail auf dem Server löscht, sieht das Design von IMAP Manipulation der entfernten Mailbox vor, als ob sie lokal wäre. Messages können auf dem Server aus dem Spoolbereich heraus optional gespeichert (Folders oder INBOX) und später wieder angesprochen werden.
POP erscheint sinnvoll für Benutzer, die dauerhaft an einer festen Ein-Benutzer-Maschine arbeiten. IMAP bietet mehr Funktionalität bei Zugriff von unterschiedlichen Orten und Rechnern aus sowie bei Einsatz langsamer Leitungen (etwa serieller Leitungen mittels SLIP) und großem Mailvolumen (MIME etc.), da es mittels serverseitiger Suchalgorithmen selektiven Mailtransfer anbietet und den Transfer des Message-Headers ohne Message-Body bzw. MIME-Anteil ermöglicht. Es unterstützt außerdem den Zugriff auf eine gemeinsame Mailbox für Client-Gruppen und ist prinzipiell auch geeignet, auf nicht E-Mail bezogene Daten wie NetNews oder allgemeine Dokumente zuzugreifen.
Da IMAP POP funktional ersetzen kann, besteht das Hauptargument für den Einsatz eines POP-Servers in der momentan höheren Verfügbarkeit von POP-Client-Software.
Eine Möglichkeit, eine verteilte E-Mail-Infrastruktur aufzubauen, besteht in dem Einsatz eines Mail-Servers. POP und IMAP stellen beide eine sinnvolle, preiswerte und einfache Methode dar, Mail auf einem zentralen Server zuverlässig zu empfangen und zwischenzuspeichern, um sie später in gewohnter Umgebung auf dem lokalen PC bzw. auf der Workstation zu lesen, weiterzubearbeiten und zu speichern. Durch die Verwendung nicht-proprietärer standardisierter Protokolle ist ein Mail-Zugriff auch von unterschiedlichen Rechnersystemen aus möglich. Für POP spricht die größere Verbreitung, IMAP gehört aber wohl aufgrund seiner höheren Flexibilität und Funktionalität die Zukunft.
Das Network News Transfer Protocol (NNTP) ist für den News Service im Internet zuständig. Als News bezeichnet man öffentliche Nachrichten, die auf Millionen Rechnern via Internet weltweit empfangen werden. News sind frei verfügbar und können von jedem, der sich dafür interessiert, gelesen werden. Der News-Leser bedient sich dafür eines News-Readers (Netscape, MS-Outlook u. a.).
Die Artikel (Nachrichten) erscheinen in so genannten Newsgroups, einer Art Diskussionsforen. Der Übersicht wegen sind die Newsgroups hierarchisch strukturiert, wobei die einzelnen Hierarchie-Ebenen durch einen Punkt getrennt werden. Für Deutschland gilt „de“ als Top-Level-Hierarchie, diese wird in Second- und Third-Level-Hierarchien unterteilt:
Newsgroup |
Inhalt |
de.admin |
Administration of the de.* hierarchy |
Computer related topics |
|
Network technology |
|
Linux in general |
|
The MS-Windows operating system |
|
General info about recreational activity |
|
Discussions in general |
Tabelle 8: Newsgroups
Wie aus Tabelle 8 zu ersehen ist, sind Newsgroups nach Sachgebieten aufgeteilt. Newsgroups werden nicht willkürlich erstellt: Im Regelfall wird von jemandem der Wunsch nach einer neuen Newsgroup geäußert, z. B. durch ein Posting in de.admin. In der News-Gemeinde wird anschließend das Bedürfnis nach dieser Newsgroup diskutiert. Darauf folgt eine Abstimmung, bei Erfolg führt dies zur Schaffung der neuen Newsgroup.
News-Leser beantworten Fragen in Artikeln – analog zu E-Mail – mit Replies. Artikel zum selben Subject-Text werden automatisch gruppiert: Man spricht von Threading. Es steht jedem News-Leser frei, einen neuen Artikel in eine Newsgroup zu posten. Ist die betreffende Newsgroup nicht moderiert, wird der Artikel sofort auf dem News-Server abgelegt. Im Falle einer moderierten Newsgroup wird der Artikel nicht abgelegt, sondern via E-Mail dem verantwortlichen Moderator der Newsgroup zugesandt. Dieser entscheidet, ob der Artikel in seiner Newsgroup erscheinen soll oder nicht (ob und wann der Artikel in den News erscheint, ist deshalb nicht vorhersagbar).
Der Begriff Netzwerkbetriebssystem hat in den letzten Jahren eine Bedeutungsänderung erfahren: früher verstand man darunter eine Sammlung von Programmen, die die Steuerung eines Netzwerks übernahmen. Um diese Programme ausführen zu können, musste ein Betriebssystem installiert sein.
Heutzutage sind Netzwerkbetriebssysteme hochspezialisierte Softwarelösungen, die autonom arbeiten. Diese Softwarepakete sind fast ausschließlich für serverbasierte Netze konzipiert und optimiert worden.
Interessant ist hier die Beobachtung, dass Netzwerkfunktionalität in zunehmendem Maße in Standard-Betriebssysteme eingebaut wird. Aus dieser Tatsache wird klar ersichtlich, wie die Bedeutung von Netzwerken in den letzten Jahren zugenommen hat.
Microsoft[vi] Windows NT (New Technology) ist ein völlig eigenständiges 32-Bit-Betriebssystem, welches auf Anwendung in Netzwerken ausgelegt ist. Das Windows NT Paket besteht aus einer Serverkomponente, dem Windows NT Server, und der Arbeitsplatzkomponente Windows NT Workstation. Man benötigt zwar zum Arbeiten in einem Windows NT Netzwerk nicht zwingend Windows NT Workstation, jedoch ist dieses Client-System auf Windows NT abgestimmt und arbeitet somit am effizientesten.
Die erste Version von Windows NT kam 1992/93 auf den Markt und war mit der Benutzeroberfläche von Windows 3.1 und einem neuen Dateisystem genannt NTFS (New Technology File System) ausgestattet. In den folgenden Jahren kam es im Wesentlichen nur zu Leistungsverbesserungen und einer Weiterentwicklung des NTFS.
Ab der Version 4.0, welche ab 1996 verfügbar war, wurde der erfolgreiche Windows 95 Desktop in Windows NT integriert. Dies führte zu einer Vereinfachung der Bedienung und Verwaltung des Systems.
Der Funktionsumfang des Windows NT Server in der Version 4.0 ist durchaus beeindruckend. Durch die Integration des Microsoft Internet Information Server (IIS) ist es z. B. möglich, dass der Netzwerk-Server parallel auch als Internet-Server fungiert. Das Realisieren von Intranets wird somit ebenfalls ermöglicht. Eine weitere interessante Funktion ist die Möglichkeit des Fernzugriffs auf das Netzwerk: Damit wird es z. B. einem Projektleiter, der sich in Australien befindet, möglich, über das Internet auf das Netzwerk seiner Zentrale in Deutschland zuzugreifen und dort ohne Einschränkungen zu arbeiten. Windows NT Server unterstützt durch symmetrisches Multiprocessing standardmäßig Multiprozessorsysteme. Als Multiprozessorsysteme werden Server mit mehr als einem Hauptprozessor bezeichnet. Somit ist eine große Leistungsentfaltung möglich.
Windows NT 4.0 ist ein ausgereiftes, sehr sicheres Netzwerkbetriebssystem, welches allen Anforderungen, egal ob in großen oder kleinen Netzen, gerecht wird. Die neueren Windows 2000 Server Versionen knüpfen seit dem Jahr 2000 an diesen Erfolg an.
Die Geschichte von UNIX ist so interessant wie das Betriebssystem selbst. 1969 entwickelte Ken Thompson, ein Mitarbeiter der Bell Laboratories, die Urform von UNIX. Ziel war es, ein Betriebssystem zu schaffen, das den gestiegenen Anforderungen gerecht werden und einen intuitiven Umgang mit dem Rechner ermöglichen sollte. 1971 wurde UNIX in die zukunftsträchtige Programmiersprache C umgeschrieben. Dies ermöglichte eine Verbreitung des Systems auf viele verschiedene Rechnertypen und Plattformen. Der UNIX-Quellcode wurde für Universitäten freigegeben und es entstanden aufgrund von Verbesserungen und Erneuerungen viele verschiedene Versionen, so genannte Derivate, unter denen die Produkte von BSD und AT&T die bekanntesten sind. Ein Tochtersystem, das in den letzten Jahren immer größere Beliebtheit findet, ist das von Linus Torvalds 1991 entwickelte Betriebssystem Linux [vii].
Da es keine einheitliche Entwicklung von UNIX gab, differieren die Kommandobefehle heute von Version zu Version, einer der wenigen Nachteile von UNIX.
UNIX ist eigentlich kein „reinrassiges“ Netzwerkbetriebssystem, bietet aber trotzdem alle Funktionen, die man benötigt, um Netzwerke aufzubauen und zu verwalten. Im Gegensatz zu Windows NT bietet UNIX zwar keine hoch spezialisierte Server-Software, wird aber trotzdem sehr häufig von Netzwerkadministratoren zum Betrieb eines Servers verwendet. Gründe dafür sind die hohe Zuverlässigkeit des Systems auf vielen Plattformen, die Flexibilität und das große Leistungspotenzial.
Novell Netware ist ein seit den achtziger Jahren etabliertes Netzwerkbetriebssystem. Es gilt als ideales System für heterogene lokale Netzwerke und ist dementsprechend vor allem in der Wirtschaft beliebt. Die Verwaltung des Netzwerks unter Netware ist durch den von Novell speziell entwickelten Verzeichnisdienst NDS (Novell Directory Services) sehr effizient. NDS ist ab der Version 4 von Novell Netware standardmäßig integriert. Neuere Versionen von Netware bieten darüber hinaus eine ansprechende grafische Benutzeroberfläche, die der von Windows NT sehr ähnlich ist. Die Verwaltung von Ressourcen und Benutzern gestaltet sich daher auch sehr einfach. Das Netware Server System unterstützt Multiprocessing und ist dank seiner hervorragenden Skalierbarkeit sehr flexibel und somit in den unterschiedlichsten Situationen optimal einsetzbar. Durch Zusatzprogramme wie dem Netware Web Server ist das Server-System auch für Intranets geeignet.
Die Netware Client Software ist für fast alle Plattformen erhältlich. Viele Betriebssysteme unterstützen bereits NDS und können somit ebenfalls verwendet werden, um in Netware-Netzwerken zu arbeiten.
Bei den Betriebssystemen für Arbeitsplatzrechner haben sich nur drei Strömungen behaupten können, die allerdings sehr fach- und branchenspezifisch eingesetzt werden und sich gegenseitig kaum Konkurrenz machen.
Als der De-facto-Standard im allgemeinen Bürobereich kann die Familie der Microsoft Windows-Betriebssysteme angesehen werden. Insbesondere die Versionen Windows 98, Windows NT Workstation und Windows 2000 Professional sind hier zu erwähnen.
UNIX-Workstations sind speziell im Bereich der Entwicklung und CAD-Systeme zu finden. Hier haben sich die herstellereigenen Derivate HP-UX (Hewlett-Packard), AIX (IBM), IRIX (SGI) und Solaris (Sun ) durchgesetzt. Auch die Filmindustrie setzt für aufwendige Spezialeffekte oftmals UNIX-Systeme ein.
Apple liefert seine Macintosh-Familie mit dem eigenen MacOS insbesondere in die Bereiche Grafikdesign und Druckvorstufe. Im allgemeinen Bürobereich konnte sich Apple nicht durchsetzen, obwohl das Betriebssystem sehr intuitiv und schon vor der Windows-Welt mit einer grafischen Benutzeroberfläche zu bedienen war.
[i] MIT – http://www.mit.edu
[ii] Rand Institute – http://www.rand.org
[iii] NPL – http://www.npl.co.uk
[iv] International Standards Organization (ISO) – http://www.iso.ch
[v] Novell – http://www.novell.com
[vi] Microsoft – http://www.microsoft.com
[vii] Linux – http://www.linux.org